Meta ha eliminado más de una docena de imágenes sexualizadas de famosas actores y atletas después de que una investigación de noticias de CBS encontró una alta prevalencia de Imágenes de Deepfake manipuladas con AI-AI en la plataforma de Facebook de la empresa.
Docenas de imágenes falsas y altamente sexualizadas de los actores Miranda Cosgrove, Jeanette McCurdy, Ariana Grande, Scarlett Johansson y la ex estrella de tenis Maria Sharapova han sido compartidas ampliamente por múltiples cuentas de Facebook, obteniendo cientos de miles de gustos y muchas revestimientos en la plataforma.
"Hemos eliminado estas imágenes para violar nuestras políticas y continuaremos monitoreando otras publicaciones de violación. Este es un desafío en toda la industria, y estamos trabajando continuamente para mejorar nuestra tecnología de detección y aplicación", dijo la portavoz de Meta, Erin Logan, a CBS News En una declaración enviada por correo electrónico el viernes.
Un análisis de más de una docena de estas imágenes por parte de Reality Defender, una plataforma que trabaja para detectar medios generados por IA, mostró que muchas de las fotos eran imágenes de defaza profunda, con cuerpos vestidos de ropa interior generada por IA que reemplazan los cuerpos de las celebridades en las celebridades en las celebridades de lo contrario. Fotografías reales. Probablemente algunas de las imágenes se crearon utilizando herramientas de costura de imágenes que no involucran IA, según el análisis del Defensor de la realidad.
"Casi toda la pornografía de Deepfake no tiene el consentimiento de que el sujeto sea infundido", dijo Ben Colman, cofundador y CEO de Reality Defender a CBS News el domingo. "Dicho contenido está creciendo a un ritmo vertiginoso, especialmente porque las medidas existentes para detener dicho contenido rara vez se implementan".
CBS News ha buscado comentarios de Miranda Cosgrove, Jeanette McCurdy, Ariana Grande y Maria Sharapova en esta historia. Johansson se negó a emitir cualquier comentario, según un representante del actor.
Bajo la política de acoso y acoso de Meta, la compañía prohíbe "Photoshop o dibujos sexualizados despectivos" en sus plataformas. La compañía también prohíbe la desnudez de los adultos, la actividad sexual y la explotación sexual de los adultos, y sus regulaciones están destinadas a impedir que los usuarios compartan o amenazen con compartir imágenes íntimas no consensuadas. Meta también ha implementado el uso de etiquetas de "información de IA" para marcar claramente el contenido que se manipula AI.
Pero las preguntas permanecen sobre la efectividad de la vigilancia de la empresa tecnológica de dicho contenido. CBS News encontró que docenas de imágenes sexualizadas generadas por IA de Cosgrave y McCurdy todavía disponibles en Facebook incluso después de que el intercambio generalizado de dicho contenido, en violación de los términos de la compañía, fue marcado a Meta.
Una de esas imágenes de Deepfake de Cosgrave que todavía estaba durante el fin de semana había sido compartida por una cuenta con 2.8 millones de seguidores.
Los dos actores, ambas ex estrellas infantiles en el Show de Nickelodeon Icarly, propiedad de la compañía matriz de CBS News Paramount Global, son las más prolíficamente dirigidas al contenido de Deepfake, basados en las imágenes de figuras públicas que CBS News ha analizado.
La junta de supervisión de Meta, un organismo cuasi independiente que consta de expertos en el campo de los derechos humanos y la libertad de expresión, y hace recomendaciones para la moderación de contenido en las plataformas de Meta, dijo a CBS News en una declaración enviada por correo electrónico que las regulaciones actuales de la compañía en torno al contenido sexualizado de Deepfake son insuficientes.
La junta de supervisión citó recomendaciones que le ha hecho a Meta durante el año pasado, incluido instar a la compañía a aclarar sus reglas al actualizar su prohibición de "Photoshop sexualizado despectivo" para incluir específicamente la palabra "no consensual" y abarcar otras manipulaciones de fotos Técnicas como AI.
La Junta también ha recomendado que meta reduzca su prohibición de "Photoshop sexualizado despectivo" en las regulaciones de explotación sexual de adultos de la compañía, por lo que la moderación de dicho contenido se aplicaría más rigurosamente.
Preguntada el lunes por CBS News sobre las recomendaciones de la junta, Meta señaló las pautas en su sitio web de transparencia, que muestra que la compañía está evaluando la viabilidad de tres de las cuatro recomendaciones de la junta de supervisión y está implementando una de sus sugerencias, aunque Meta señaló en su Declaración en su sitio de que actualmente está descartando cambiar el lenguaje de su política de "Photoshop sexualizado despectivo" para incluir la frase "no consensuada". Meta también dice que actualmente es poco probable que mueva su política de "Photoshop sexualizado despectivo" dentro de sus regulaciones de explotación sexual de adultos.
Meta señaló en su declaración que todavía estaba considerando formas de señalar una falta de consentimiento en las imágenes generadas por IA. Meta también dijo que estaba considerando reformas a sus políticas de explotación sexual de adultos, para "capturar el espíritu" de las recomendaciones de la junta.
"La junta de supervisión ha dejado en claro que las imágenes íntimas no consensuadas de Deepfake son una grave violación de la privacidad y la dignidad personal, perjudicando desproporcionadamente a las mujeres y las niñas. Estas imágenes no son solo un mal uso de la tecnología, son una forma de abuso que puede tener duraderos Consecuencias ", dijo a CBS News el viernes Michael McConnell, copresidente de la junta de supervisión.
"La Junta está monitoreando activamente la respuesta de Meta y continuará presionando para obtener salvaguardas más fuertes, una aplicación más rápida y una mayor responsabilidad", dijo McConnell.
Meta no es la única compañía de redes sociales que se enfrenta al tema del contenido generalizado y sexualizado de Deepfake.
El año pasado, la Plataforma X de Elon Musk bloqueó temporalmente las búsquedas relacionadas con Taylor Swift después de las imágenes pornográficas falsas generadas por IA a semejanza del cantante que circulaba ampliamente en la plataforma y obtuvo millones de vistas e impresiones.
"Publicar imágenes de desnudos no consensuados (NCN) está estrictamente prohibido en X y tenemos una política de tolerancia cero hacia dicho contenido", dijo el equipo de seguridad de la plataforma en una publicación en ese momento.
Un estudio publicado a principios de este mes por el gobierno del Reino Unido encontró el número de imágenes de Deepfake en las plataformas de redes sociales que se expanden a un ritmo rápido, con el gobierno proyectando que se compartirían 8 millones de profundos este año, frente a 500,000 en 2023.