El medio estadounidense de negocios Forbes descubrió una plataforma que promocionaba nudificadores de IA utilizados por acosadores escolares y un pedófilo convicto. Los de Google retiraron más de 100 videos de YouTube.
Para las personas interesadas en utilizar la IA para generar desnudos artificiales, YouTube fue un buen punto de partida. Aunque no aloja herramientas «desnudadoras», la plataforma para compartir videos utilizada por 2.500 millones de personas albergaba más de 100 videos con millones de visitas que anunciaban la rapidez con la que estas aplicaciones y sitios web de IA pueden eliminar la ropa de las imágenes de mujeres, según descubrió un análisis de Forbes.
Algunos de los videos de YouTube ofrecían tutoriales de una aplicación que, al parecer, habían utilizado estudiantes de secundaria de España y Nueva Jersey para generar desnudos de sus compañeras de clase. Los estudiantes que supuestamente fueron víctimas se enfrentaron a acoso escolar, vergüenza pública y ataques de pánico.
Otro sitio web exhibido en varios videos de YouTube fue citado en los documentos judiciales de un caso de 2023 en el que un psiquiatra infantil fue condenado a 40 años por utilizar inteligencia artificial para crear imágenes de abuso sexual infantil y por explotación sexual de un menor. Se lo acusó de utilizar la herramienta para alterar imágenes de su novia del instituto cuando era menor de edad, quitándole la ropa. «En esta era digital, es horroroso darse cuenta de que fotos mías, fotos inocentes, pueden ser tomadas y tergiversadas sin mi consentimiento para fines que son ilegales y repugnantes», declaró su ex novia ante el tribunal.
Es «impensable» que Google esté facilitando el uso de estas apps, declaró a Forbes Signy Arnason, directora ejecutiva asociada del Centro Canadiense para la Protección de la Infancia. «En YouTube e incluso en los resultados de búsqueda de Google, se encuentran fácilmente videos instructivos o servicios con títulos que promueven descaradamente este tipo de aplicaciones», sumó. Dijo que su organización estaba escuchando cada vez más de escuelas cuyos estudiantes fueron víctimas de los desnudos generados por la IA.
Los problemas de Google con los desnudadores de IA no se limitan a YouTube. Forbes identificó tres aplicaciones para Android que ofrecen eliminar la ropa de las fotos, incluido un «filtro para fotos con escáner de desnudos» con más de 10 millones de descargas; una aplicación en español que permite al usuario «pasar un dedo por encima de lo que desea borrar, por ejemplo, un traje de baño», que cuenta con más de 500.000 instalaciones; y Scanner Body Filter, que ofrece sumar una «imagen corporal sexy» a las fotos, también con medio millón de descargas.
Forbes también encontró 27 anuncios en el Centro de Transparencia de Anuncios de Google que promocionaban servicios de «desnudos profundos». Uno anunciaba un sitio con la palabra «bebé» en la URL. El Centro Nacional sobre Explotación Sexual (NCOSE) proporcionó información sobre otros cuatro, entre ellos un sitio web de desnudistas que ofrecía abiertamente crear fotos de Taylor Swift con IA.
Después de que Forbes preguntara si los vídeos, anuncios y aplicaciones incumplían las políticas de Google, retiró los 27 anuncios, y YouTube eliminó 11 canales y más de 120 videos. Uno de esos canales, alojado por una IA deepfake masculina, era responsable de más de 90 de esos videos, la mayoría de los cuales apuntaban a bots de Telegram que desnudaban a mujeres. La aplicación Scanner Body Filter también dejó de estar disponible para su descarga, aunque otras aplicaciones para Android permanecieron online.
Tori Rousay, directora del programa de defensa corporativa y analista de NCOSE, dijo que Google creó «un ciclo de beneficios continuo» a partir de la nudificación de aplicaciones aceptando dinero de la publicidad de los desarrolladores y tomando recortes de los ingresos por publicidad y pagos únicos cuando la aplicación se aloja en la tienda Google Play. Rousay dijo que, en comparación, Apple se había apresurado a eliminar las aplicaciones nudificadoras cuando NCOSE resaltó varias alojadas en la App Store.
«Apple escuchó… Google debe hacer lo mismo», sumó Rousay. «Google necesita crear prácticas y políticas responsables en torno a la difusión del abuso sexual basado en imágenes».
La pornografía deepfake generada por inteligencia artificial va en aumento, incluso de niños. El Centro Nacional para Menores Desaparecidos y Explotados declaró a Forbes esta semana que había recibido 5.000 denuncias de material de abuso sexual infantil (CSAM) generado por IA en el último año. A principios de este año, un hombre de Wisconsin fue acusado de utilizar presuntamente el generador de imágenes impulsado por IA Stable Diffusion 1.5 para producir CSAM.
En el caso del psiquiatra infantil condenado, otras víctimas, además de su novia de la infancia, testificaron ante el tribunal sobre el trauma continuo causado por su uso de la IA para desnudarlas en sus fotos de la infancia.
«Temo que cuando creó pornografía infantil utilizando mi imagen online, otras personas también tengan acceso a esa imagen. Temo que compañeros de trabajo, familiares, miembros de la comunidad u otros pedófilos tengan acceso a esa imagen», dijo una de sus víctimas. Otra sumó: «Temo a la inteligencia artificial por su culpa y cuando veo o escucho hablar de IA, ahí está él en la parte de atrás de mi cabeza».
Fuente: Forbes US
Howdy! This article couldn’t be written any better!
Looking through this article reminds me of my previous roommate!
He always kept talking about this. I am going to send this information to him.
Pretty sure he’s going to have a great read. Thanks for sharing!
Just want to say your article is as amazing. The clarity in your
publish is simply excellent and that i could suppose you are an expert in this subject.
Fine together with your permission let me to clutch your RSS feed to
stay up to date with forthcoming post. Thanks 1,000,000 and please keep
up the gratifying work.
Thank you very much for your interest!, you can use the articles and quote us.
I just could not depart your site before suggesting that I actually loved the standard information an individual supply for your guests?
Is gonna be back continuously to check up on new posts
Do you mind if I quote a couple of your articles as long as I provide credit and sources back to your blog?
My website is in the very same niche as yours and my users would definitely benefit from a
lot of the information you present here. Please let me know
if this ok with you. Thank you!
Thank you very much for your interest!, you can use the articles and quote us.
Greetings! I’ve been following your blog for a while now and finally got the bravery to go ahead and
give you a shout out from Huffman Tx! Just wanted to say keep
up the great work!