La Junta de Supervisión de Meta criticó el manejo de las falsificaciones por parte de la plataforma. Se piensa en la participación de los usuarios y del público en general. Hay casos que causan daños cada vez más serios.
La Junta de Supervisión es un organismo independiente de expertos establecido por Meta en 2020 para revisar las decisiones de moderación de contenido más desafiantes de la compañía en Facebook, Instagram y Threads.
El martes 16 de abril la compañía anunció públicamente que revisará el manejo por parte de Meta de dos casos que involucran imágenes sexualmente explícitas generadas por IA que representan figuras públicas femeninas, una de ellas una senadora de los Estados Unidos.
La junta tiene 20 miembros en todo el mundo, incluidos abogados, defensores de los derechos humanos, periodistas y académicos.
Opera independientemente de Meta, con su propio personal y presupuesto, y puede tomar decisiones vinculantes sobre el contenido que Meta debe implementar a menos que hacerlo viole la ley.
La junta también puede emitir recomendaciones de políticas no vinculantes a Meta.
En una publicación de blog , la Junta de Supervisión declaró: “Hoy, la Junta anuncia dos nuevos casos para su consideración. Como parte de esto, estamos invitando a personas y organizaciones a enviar comentarios públicos”.
El primer caso involucra una imagen explícita generada por IA publicada en Instagram diseñada para representar a una figura pública de la India.
Según la Junta, “La imagen se creó utilizando inteligencia artificial (IA) para parecerse a una figura pública de la India. La cuenta que publicó este contenido solo comparte imágenes de mujeres indias generadas por IA. La mayoría de los usuarios que reaccionaron tienen cuentas en India, donde los deepfakes se están convirtiendo cada vez más en un problema”.
El segundo caso se refiere a una imagen publicada en un grupo de Facebook dedicado a las creaciones de IA, en la que aparece una mujer desnuda generada por IA que se asemeja a una figura pública estadounidense siendo manoseada por un hombre.
La Junta de Supervisión señaló: “Presenta una imagen generada por IA de una mujer desnuda con un hombre tocándole el pecho. La imagen ha sido creada con IA para parecerse a una figura pública estadounidense, que también aparece nombrada en el título. La mayoría de los usuarios que reaccionaron tienen cuentas en Estados Unidos”.
Inicialmente, Meta permitió que la imagen de la figura pública india permaneciera en Instagram, pero luego la eliminó por violar su Estándar comunitario de intimidación y acoso después de que la Junta de Supervisión seleccionó el caso para su revisión.
Meta eliminó la imagen de la figura pública estadounidense por violar la misma política, específicamente la cláusula que prohíbe “photoshop o dibujos despectivos y sexualizados”.
La Junta de Supervisión declaró que “seleccionó estos casos para evaluar si las políticas de Meta y sus prácticas de aplicación son efectivas para abordar imágenes explícitas generadas por IA. Este caso se alinea con la prioridad estratégica de género de la Junta”.
Como parte de su proceso de revisión, la Junta de Supervisión está buscando comentarios públicos sobre varios aspectos de los casos, incluyendo “la naturaleza y gravedad de los daños planteados por la pornografía deep fake”, “información contextual sobre el uso y prevalencia de la pornografía deep fake a nivel mundial, ” y “estrategias sobre cómo Meta puede abordar la pornografía profundamente falsa en sus plataformas”.
El período de comentarios públicos permanecerá abierto durante 14 días y cerrará el 30 de abril. Luego, la Junta de Supervisión Fiscal deliberará sobre los casos y emitirá sus decisiones, que serán vinculantes para el Meta. Cualquier recomendación de política que haga la Junta no será vinculante, pero Meta debe responderla dentro de los 60 días.
El anuncio de la Junta de Supervisión se produce en medio de crecientes preocupaciones sobre la proliferación de pornografía profundamente falsa y no consensuada dirigida a mujeres, particularmente celebridades.
Taylor Swift fue el objetivo más prolífico , con imágenes explícitas de la cantante generadas por IA que desencadenaron una persecución digital del perpetrador.
En respuesta a la creciente amenaza de la pornografía deep fake, los legisladores introdujeron la Ley DEFIANCE en enero , que permitiría a las víctimas de deep fakes no consensuales demandar si pudieran demostrar que el contenido se creó sin su consentimiento.
La congresista Alexandria Ocasio-Cortez, quien patrocinó el proyecto de ley y fue blanco de la pornografía ultrafalsa, enfatizó la necesidad de que el Congreso actúe para apoyar a las víctimas a medida que las falsificaciones profundas se vuelven más accesibles.