Grandes empresas de tecnología se unen para frenar la desinformación electoral generada por IA

Arepa Tecnológica
Por Arepa Tecnológica 5 lectura mínima

Este año se celebrarán elecciones en más de 50 países, que involucran a casi la mitad de la población del planeta. En este contexto, los contenidos falsos o engañosos creados con inteligencia artificial, como los deepfakes o las noticias falsas, son una amenaza cada vez mayor para la integridad de los procesos electorales. Estos contenidos pueden manipular la opinión pública, difundir desinformación, dañar la reputación de personas o instituciones, o incluso provocar conflictos o violencia.

- Publicidad -

Para hacer frente a este problema, las principales compañías de tecnología que lideran el desarrollo de la inteligencia artificial generativa han decidido unir fuerzas y presentar una solución conjunta. Se trata de la Coalición para la Procedencia y Autenticidad de Contenido (C2PA), una iniciativa que se anunció este viernes, en el primer día de la Conferencia de Seguridad de Múnich. En la lista de participantes figuran tanto desarrolladores como varias plataformas de redes sociales. Entre ellas, Google, Amazon, Meta, Microsoft, OpenAI, X (Twitter) y TikTok.

¿Qué propone la C2PA?

La C2PA propone el uso de marcas de agua digitales que permitan rastrear el origen y la autenticidad de los contenidos creados con IA. Estas marcas de agua serán invisibles para el ojo humano, pero detectables por algoritmos o herramientas específicas.

- Partners -
banner juega en linea, apuesta diviertete y gana con arepa tecnologica en juega en linea

De esta forma, se podrá saber si un contenido ha sido creado por una IA, qué IA lo ha creado, y si ha sido modificado o alterado de alguna manera. Así, se podrá verificar la veracidad y la fiabilidad de los contenidos, y se podrá denunciar o eliminar aquellos que sean falsos o engañosos.

- Publicidad -

La C2PA aplicará esta solución a todos los contenidos creados por las IAs de las compañías que forman parte de la coalición, como ChatGPT, MidJourney, Stable Diffusion, Google Bard o el Chat de Bing. Estas IAs son capaces de generar textos, imágenes, vídeos, audios o música de forma automática y realista, usando modelos de lenguaje basados en redes neuronales.

unete al canal de whatsapp de arepa tecnologica

¿Qué otras acciones tomará la C2PA?

Además del uso de marcas de agua, la C2PA tomará otras acciones para reducir los riesgos asociados con la inteligencia artificial generativa. Entre ellas, se encuentran:

  • Someterse a controles internos y externos realizados por expertos en seguridad independientes antes de lanzar una nueva IA o una versión actualizada de una IA generativa.
  • Compartir información sobre el funcionamiento de sus IAs con gobiernos, expertos y académicos para identificar posibles riesgos de seguridad o éticos.
  • Implementar normativas especiales en cuanto a temas delicados, como el desarrollo de armas biológicas, químicas o radiológicas utilizando IA, herramientas de ciberdelincuencia, control físico de máquinas y dispositivos, discriminación racial y de género, y la posibilidad de autorreplicación de una IA.

¿Qué apoyo tiene la C2PA?

La C2PA cuenta con el apoyo de varias organizaciones e instituciones que se dedican a la investigación, la educación, la defensa o la regulación de la inteligencia artificial. Entre ellas, se encuentran:

- Publicidad -
  • El presidente de los Estados Unidos, Joe Biden, quien ha expresado su preocupación por el impacto de los contenidos falsos o engañosos generados con IA en la democracia, la seguridad y los derechos humanos.
  • La Unión Europea, que ha propuesto una legislación para regular el uso de la inteligencia artificial y garantizar su uso ético y responsable.
  • La Organización de las Naciones Unidas, que ha creado un grupo de trabajo para estudiar los efectos de la inteligencia artificial en la paz, la seguridad y el desarrollo.
  • La Asociación para el Avance de la Inteligencia Artificial (AAAI), que ha elaborado un código de conducta para los investigadores y desarrolladores de inteligencia artificial.
  • La Fundación para la Responsabilidad, la Transparencia y la Ética en la Inteligencia Artificial (FATE), que ha publicado una guía para evaluar la calidad y la credibilidad de los contenidos generados con IA.

La C2PA espera que su solución sea adoptada por otras compañías y organizaciones que usen o generen contenidos con inteligencia artificial, y que se convierta en un estándar global para combatir los contenidos falsos o engañosos.

Comparte este artículo
Follow:
Redacción General de Arepa Tecnológica. Amantes de la tecnología y las tendencias Digitales.

Nuestras Redes Sociales

Síguenos
Deja un comentario

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *