La Junta de Supervisión de Meta Examina el Contenido Generado por IA: Casos Destacan la Necesidad de Revisar las Políticas

Arepa Tecnológica
Por Arepa Tecnológica 4 lectura mínima

La Junta de Supervisión de Meta, encargada de resolver disputas relacionadas con el contenido en la red social, vuelve a centrar su atención en las reglas que rigen el contenido generado por inteligencia artificial (IA).

- Publicidad -

La junta ha aceptado dos casos que se ocupan específicamente de imágenes explícitas generadas por IA de figuras públicas.

El Desafío de las Imágenes Generadas por IA

Aunque las reglas actuales de Meta ya prohíben la desnudez en plataformas como Facebook e Instagram, la Junta de Supervisión busca abordar una pregunta crucial: ¿Son efectivas las políticas y prácticas de aplicación de Meta para abordar las imágenes explícitas generadas por IA? A menudo denominadas “deepfake pornografía”, estas imágenes manipuladas de celebridades femeninas, políticos y otras figuras públicas se han convertido en una preocupante forma de acoso en línea. En respuesta, los reguladores de todo el mundo proponen nuevas normativas para combatir este creciente problema.

- Partners -
banner juega en linea, apuesta diviertete y gana con arepa tecnologica en juega en linea

Los Dos Casos Bajo Revisión

  1. Caso de Instagram: Imagen Generada por IA de una Mujer India Desnuda
    • Un post en Instagram mostraba una imagen generada por IA de una mujer india desnuda. La cuenta responsable de compartir este contenido publica exclusivamente imágenes generadas por IA de mujeres indias.
    • El post fue reportado a Meta, pero el informe se cerró sin revisión después de 48 horas. El usuario apeló esta decisión, pero la apelación también se cerró sin revisión.
    • Tras la apelación del usuario a la Junta de Supervisión, Meta finalmente eliminó el post, lo que llevó a la junta a considerar el caso.
  2. Caso de Facebook: Imagen Generada por IA con un Contexto Perturbador
    • En un grupo de Facebook dedicado al arte de la IA, un post mostraba una imagen generada por IA de una mujer desnuda con un hombre tocando su pecho.
    • La mujer en la imagen pretendía parecerse a “una figura pública estadounidense”, cuyo nombre también se mencionaba en el pie de foto del post.
    • Los sistemas internos de Meta eliminaron automáticamente el post porque coincidía con una imagen previamente reportada.
    • El usuario apeló la decisión de eliminarlo, pero la apelación se cerró “automáticamente”. El usuario luego apeló a la Junta de Supervisión, que aceptó considerar el caso.

Equidad Global y Evaluación de Políticas

La copresidenta de la Junta de Supervisión, Helle Thorning-Schmidt, enfatizó la necesidad de evaluar posibles disparidades en las prácticas de moderación de contenido de Meta en diferentes países e idiomas. “Sabemos que Meta es más rápido y efectivo en moderar contenido en algunos mercados y lenguajes que en otros”, declaró Thorning-Schmidt. Al examinar casos tanto de EE. UU. como de India, la junta busca determinar si Meta está protegiendo a todas las mujeres a nivel global de manera justa.

- Publicidad -

La Junta de Supervisión invita a comentarios públicos durante las próximas dos semanas. Posteriormente, publicará sus decisiones y recomendaciones de políticas para Meta. Este proceso sigue un caso reciente que involucró un video editado de manera engañosa de Joe Biden, que llevó a Meta a etiquetar más contenido generado por IA en su plataforma.

unete al canal de whatsapp de arepa tecnologica
ETIQUETADO:
Comparte este artículo
Follow:
Redacción General de Arepa Tecnológica. Amantes de la tecnología y las tendencias Digitales.

Nuestras Redes Sociales

Síguenos
Deja un comentario

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *