YouTube Refuerza su Lucha contra los Deepfakes con Nuevas Herramientas de Detección

YouTube Refuerza su Lucha contra los Deepfakes con Nuevas Herramientas de Detección
Photo by Szabo Viktor / Unsplash

YouTube, la popular plataforma de vídeos de Google, ha anunciado nuevas medidas para combatir la proliferación de deepfakes de audio y vídeo creados con inteligencia artificial. La compañía planea implementar dos herramientas innovadoras diseñadas para proteger a artistas y creadores de contenido de imitaciones no autorizadas.

La primera herramienta, enfocada en la detección de voces de cantantes simuladas sintéticamente, se integrará con Content ID, el sistema de gestión de derechos de autor de YouTube. Esta función, cuyas pruebas comenzarán a principios del próximo año, identificará automáticamente contenidos que imiten el canto de los socios musicales de la plataforma. Los artistas podrán solicitar la eliminación de material no autorizado o utilizado con fines difamatorios.

La segunda herramienta, aún en desarrollo, se centrará en la detección de deepfakes visuales que utilicen los rostros de actores, youtubers, deportistas y otras personalidades. Aunque no se ha anunciado una fecha de lanzamiento específica, se espera que no esté disponible antes de 2025.

Estas nuevas medidas se suman a una serie de iniciativas previamente implementadas por YouTube:

  1. En noviembre de 2023, la plataforma comenzó a aceptar solicitudes para eliminar contenidos generados por IA que simularan a individuos identificables.
  2. Se introdujo una herramienta para que sellos discográficos y agencias de representación pudieran solicitar la eliminación de canciones creadas con IA.
  3. En julio de 2023, YouTube modificó sus directrices de privacidad para permitir que los usuarios denunciaran vídeos realistas creados con IA que incluyeran deepfakes.

Además de estas medidas contra los deepfakes, YouTube ha reafirmado su compromiso de impedir que empresas de IA entrenen sus modelos de lenguaje utilizando vídeos de creadores de contenido sin autorización. La plataforma considera que esta práctica viola sus términos de servicio y promete mejorar sus sistemas para detectar y bloquear tales actividades.

Estas acciones reflejan la creciente preocupación en la industria tecnológica por el rápido avance de la IA generativa y su potencial uso indebido. Con la facilidad cada vez mayor para crear contenido falsificado, plataformas como YouTube se ven obligadas a adaptar constantemente sus políticas y herramientas para proteger a sus usuarios y creadores.

La implementación de estas nuevas medidas marca un paso importante en la batalla contra la desinformación y el uso no autorizado de la imagen y voz de las personas en la era digital. Queda por ver cómo estas herramientas impactarán en el ecosistema de contenido en línea y si serán suficientes para hacer frente al constante avance de las tecnologías de IA.

Mas noticias