¿Es ChatGPT un peligroso chatbot con inteligencia artificial para propagar la desinformación?

Arepa Tecnológica
Por Arepa Tecnológica 5 lectura mínima

El pasado año, tras el estreno de ChatGPT, investigadores realizaron una prueba para ver lo que escribiría esta inteligencia artificial cuando se le hicieran preguntas cargadas de teorías conspirativas y narrativas falsas.

Los resultados, escritos en formato de artículos de noticias, ensayos y guiones de televisión, fueron tan preocupantes que los investigadores no se anduvieron con rodeos.

“Esta herramienta va a ser la más poderosa para la propagación de la desinformación que haya existido jamás en internet”, dijo Gordon Crovitz, co-director ejecutivo de NewsGuard, una empresa que rastrea la desinformación en línea y realizó el experimento el mes pasado.

La creación de una nueva narrativa falsa ahora se puede hacer a gran escala y con mucha mayor frecuencia. Es como tener agentes de inteligencia artificial contribuyendo a la desinformación“.

La desinformación es difícil de controlar cuando se crea por humanos. Por lo que los desarrolladores predicen que la tecnología generativa podría hacer que la desinformación sea más barata y fácil de producir para un número aún mayor de teóricos de la conspiración y propagadores de desinformación.

Los chatbots personalizados y en tiempo real podrían compartir teorías de conspiración de forma cada vez más creíble y persuasiva, según los investigadores, ya que sería más fácil eliminar errores humanos como la sintaxis deficiente y traducciones erróneas de alguna de estas teorías. Además, señalan que no hay ninguna táctica de mitigación disponible puede combatirla eficazmente.

Los encargados de la investigación han estado preocupados desde hace mucho tiempo por qué los chatbots caigan en manos malintencionadas, escribiendo un documento de 2019 de su “preocupación de que sus capacidades podrían reducir los costos de campañas de desinformación” y ayudar en la persecución perversa “de ganancias monetarias, una agenda política particular y/o un deseo de crear caos y confusión”.

cabe destacar que en el año 2020, investigadores del Centro de Terrorismo, Extremismo y Contraterrorismo de la Middlebury Institute of International Studies descubrieron que GPT-3, la tecnología subyacente de ChatGPT, tenía “un conocimiento impresionantemente profundo de las comunidades extremistas” y se podía provocar para producir polémicas en el estilo de los autores de masacres, hilos falsos de foros sobre el nazismo, una defensa de QAnon e incluso textos extremistas multilingües.

OpenAI usa máquinas y humanos para monitorizar el contenido que se ingresa y produce en ChatGPT, dijo un portavoz.

La empresa se basa tanto en sus entrenadores de inteligencia artificial humanos como en la retroalimentación de los usuarios para identificar y filtrar datos de entrenamiento tóxicos mientras enseña a ChatGPT a producir respuestas mejor informadas.

Las políticas de OpenAI prohíben el uso de su tecnología para promover la deshonestidad, engañar o manipular a los usuarios o intentar influir en la política; la empresa ofrece una herramienta de moderación gratuita para manejar contenido que promueve el odio, el autolesionamiento, la violencia o el sexo. Pero en este momento, la herramienta ofrece soporte limitado para idiomas que no sean el inglés y no identifica material político, spam, engaño o malware. Por otro lado, ChatGPT advierte a los usuarios que “en ocasiones puede producir instrucciones dañinas o contenido sesgado”.

La semana pasada, OpenAI anunció una herramienta separada para ayudar a discernir cuándo un texto fue escrito por un humano en lugar de inteligencia artificial, en parte para identificar campañas de desinformación automatizadas.

La empresa advirtió que su herramienta no era totalmente confiable, identificando correctamente el texto de la IA solo el 26 por ciento de las veces (mientras que etiquetaba erróneamente el texto escrito por humanos el 9 por ciento de las veces) y podía ser evadida.

La herramienta también tuvo problemas con textos que tenían menos de 1.000 caracteres o estaban escritos en idiomas que no eran el inglés. Los legisladores preocupados están llamando a la intervención del gobierno a medida que más rivales de ChatGPT se acumulan en el pipeline.

Asimismo, es importante mencionar que Google comenzó a probar su chatbot experimental Bard el lunes y lo lanzará al público en las próximas semanas. Baidu tiene Ernie, que significa Integración Mejorada a través del Conocimiento. Meta lanzó Galactica (pero la retiró tres días más tarde ante preocupaciones sobre inexactitudes e información errónea).

Con información de The New York Times.

Comparte este artículo
Follow:
Redacción General de Arepa Tecnológica. Amantes de la tecnología y las tendencias Digitales.

Nuestras Redes Sociales

Síguenos
Deja un comentario

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *