En un esfuerzo por proteger a las víctimas de pornografía vengativa, Microsoft se une a StopNCII para eliminar imágenes explícitas no consensuadas de su motor de búsqueda Bing.
El avance de las herramientas de inteligencia artificial generativa ha dado lugar a un problema creciente en la red: la proliferación de imágenes sintéticas de desnudos que se asemejan a personas reales.
Microsoft ha dado un paso significativo al asociarse con StopNCII, una organización que ayuda a las víctimas de pornografía vengativa a crear una huella digital de estas imágenes explícitas, ya sean reales o no.
StopNCII permite a las víctimas crear esta huella digital, conocida técnicamente como «hash», directamente en su dispositivo.
Con este hash, las plataformas pueden eliminar las imágenes de sus servicios. Microsoft ha integrado esta tecnología en Bing, uniéndose a plataformas como Facebook, Instagram, Threads, TikTok, Snapchat, Reddit, Pornhub y OnlyFans.
Resultados tempranos y desafíos futuros
En un blog, Microsoft informó que, hasta finales de agosto, había tomado acción sobre 268,000 imágenes explícitas a través de Bing, gracias a la base de datos de StopNCII.
Esta medida viene a reforzar el anterior sistema de reporte directo que, según Microsoft, no era suficiente.
«Hemos escuchado preocupaciones de víctimas, expertos y otros interesados de que solo el reporte de usuarios puede no escalar efectivamente para impactar o abordar adecuadamente el riesgo de que las imágenes puedan ser accedidas a través de la búsqueda», explicó Microsoft.
La situación podría ser aún más problemática en motores de búsqueda más populares, como Google. Aunque Google ofrece herramientas para reportar y eliminar imágenes explícitas, ha sido criticado por no asociarse con StopNCII.
Según una investigación de Wired, desde 2020, usuarios de Google en Corea del Sur han reportado 170.000 enlaces de búsqueda y de YouTube relacionados con contenido sexual no deseado.
Un problema extendido y una respuesta limitada
El problema de los desnudos generados por IA es ya un fenómeno extendido. Las herramientas de StopNCII solo funcionan para mayores de 18 años, pero sitios que «desnudan» digitalmente a personas están creando problemas para estudiantes de secundaria en todo el país.
Desafortunadamente, Estados Unidos carece de una ley federal específica para abordar el deepfake porn, y depende de una mezcla de leyes estatales y locales para enfrentar la cuestión.
En agosto, los fiscales de San Francisco anunciaron una demanda para cerrar 16 sitios de «desnudos».
Según un rastreador de leyes sobre deepfake porn creado por Wired, 23 estados en EE. UU. han aprobado leyes para abordar los deepfakes no consensuados, mientras que nueve han rechazado propuestas.