Tech

La Junta de Supervisión quiere que Meta refine sus políticas en torno a las imágenes explícitas generadas por IA

Tras las investigaciones sobre cómo Meta maneja las imágenes explícitas generadas por IA, el cuerpo de observadores semiindependiente de la empresa, la Junta de Supervisión, insta ahora a la compañía a refinar sus políticas en torno a dichas imágenes. La Junta quiere que Meta cambie la terminología que utiliza de "despectiva" a "no consensuada", y traslade sus políticas sobre estas imágenes a la sección de "Normas de la Comunidad contra la Explotación Sexual" desde la sección de "Acoso y Hostigamiento".

En la actualidad, las políticas de Meta en torno a imágenes explícitas generadas por IA se ramifican a partir de una regla de "Photoshop sexualizado despectivo" en su sección de Acoso y Hostigamiento. La Junta también instó a Meta a reemplazar la palabra "Photoshop" por un término generalizado para medios manipulados.

Además, Meta prohíbe las imágenes no consensuadas si son "no comerciales o producidas en un entorno privado". La Junta sugirió que esta cláusula no debería ser obligatoria para eliminar o prohibir imágenes generadas por IA o manipuladas sin consentimiento.

Estas recomendaciones surgen a raíz de dos casos de alto perfil en los que imágenes explícitas generadas por IA de figuras públicas fueron publicadas en Instagram y Facebook, lo que metió a Meta en problemas. Uno de estos casos involucró una imagen nude generada por IA de una figura pública india que fue publicada en Instagram. Varios usuarios reportaron la imagen pero Meta no la eliminó, de hecho cerró el ticket en 48 horas sin una revisión adicional. Los usuarios apelaron esa decisión pero el ticket fue cerrado nuevamente. La empresa solo actuó después de que la Junta de Supervisión tomara el caso, eliminara el contenido y prohibiera la cuenta.

La otra imagen generada por IA se parecía a una figura pública de los EE. UU. y fue publicada en Facebook. Meta ya tenía la imagen en su repositorio de Servicio de Coincidencia de Medios (MMS) (una colección de imágenes que violan sus términos de servicio y que se pueden usar para detectar imágenes similares) debido a informes de medios, y rápidamente eliminó la imagen cuando otro usuario la subió a Facebook.

Es importante destacar que Meta solo agregó la imagen de la figura pública india al banco de MMS después de que la Junta de Supervisión lo instara. Al parecer, la empresa le dijo a la Junta que el repositorio no tenía la imagen antes porque no había informes de medios sobre el problema.

"Esto es preocupante porque muchas víctimas de imágenes íntimas deepfake no están en el ojo público y se ven obligadas a aceptar la difusión de sus representaciones no consensuadas o a reportar cada instancia", dijo la Junta en su nota.

Breakthrough Trust, una organización india que aboga por reducir la violencia de género en línea, señaló que estos problemas y las políticas de Meta tienen implicaciones culturales. En comentarios enviados a la Junta de Supervisión, Breakthrough dijo que las imágenes no consensuadas a menudo se trivializan como un problema de robo de identidad en lugar de violencia de género.

"Las víctimas a menudo enfrentan victimización secundaria al denunciar estos casos en comisarías/tribunales ('¿por qué pusiste tu foto, etc.' incluso cuando no son sus fotos como deepfakes). Una vez en internet, la imagen se difunde rápidamente más allá de la plataforma fuente, y simplemente quitarla de la plataforma fuente no es suficiente porque se difunde rápidamente a otras plataformas", escribió Barsha Chakraborty, jefa de medios de la organización, a la Junta de Supervisión.

En una llamada, Chakraborty le dijo a TechCrunch que los usuarios a menudo no saben que sus informes se marcan automáticamente como "resueltos" en 48 horas, y Meta no debería aplicar el mismo plazo para todos los casos. Además, sugirió que la empresa también debería trabajar en aumentar la conciencia del usuario sobre estos problemas.

Devika Malik, una experta en políticas de plataforma que anteriormente trabajó en el equipo de políticas del sur de Asia de Meta, dijo a TechCrunch a principios de este año que las plataformas dependen en gran medida de los informes de los usuarios para eliminar imágenes no consensuadas, lo que puede no ser un enfoque confiable al tratar con medios generados por IA.

"Esto coloca una carga injusta en el usuario afectado para probar su identidad y la falta de consentimiento (como es el caso de la política de Meta). Esto puede volverse más propenso a errores cuando se trata de medios sintéticos, y, por decirlo de alguna manera, el tiempo necesario para capturar y verificar estas señales externas permite que el contenido obtenga una tracción dañina", dijo Malik.

Aparajita Bharti, socia fundadora del think tank con sede en Delhi The Quantum Hub (TQH), dijo que Meta debería permitir a los usuarios proporcionar más contexto al reportar contenido, ya que es posible que no estén al tanto de las diferentes categorías de violaciones de normas en la política de Meta.

"Esperamos que Meta vaya más allá del fallo final [de la Junta de Supervisión] para permitir canales flexibles y centrados en el usuario para reportar contenido de este tipo", dijo.

"Reconocemos que no se puede esperar que los usuarios tengan un entendimiento perfecto de la sutil diferencia entre diferentes cabezas de informes, y abogamos por sistemas que eviten que los problemas reales queden en el olvido debido a tecnicismos de las políticas de moderación de contenido de Meta".

En respuesta a la observación de la Junta, Meta dijo que revisará estas recomendaciones.

Related Articles

Back to top button