El uso de la imagen de Scarlett Johansson en un deepfake reaviva el debate sobre la inteligencia artificial y los derechos de imagen. Empresas y asociaciones tecnológicas intensifican su lobby en el Congreso estadounidense para influir en la regulación de esta tecnología.
El reciente incidente que involucra a Scarlett Johansson y la utilización de su imagen en un deepfake ha generado una ola de preocupación y debate sobre la regulación de la inteligencia artificial (IA) y los derechos de imagen en Estados Unidos.
La actriz, conocida por su lucha en defensa de su integridad y derechos, fue objeto de un video manipulado con IA que rápidamente se viralizó, reavivando las discusiones sobre la ética y los límites de esta tecnología.
Empresas tecnológicas y asociaciones, como Microsoft, OpenAI y la Software & Information Industry Association (SIIA), han intensificado su lobby en el Congreso estadounidense.
Estas entidades buscan influir en la legislación que se está gestando, la cual pretende establecer un marco regulatorio claro para el uso de la IA, especialmente en el ámbito de los deepfakes. Según un portavoz de SIIA, «es crucial que se desarrolle una legislación equilibrada que proteja los derechos individuales sin sofocar la innovación tecnológica».
El caso de Johansson no es aislado. En los últimos años, la proliferación de videos deepfake ha generado preocupación en diversos sectores. Un informe reciente del Instituto de Tecnología de Massachusetts (MIT) reveló que, en 2023, los casos de deepfakes aumentaron un 65%, afectando tanto a figuras públicas como a ciudadanos comunes.
Estos videos, creados mediante sofisticados algoritmos de IA, son capaces de imitar de manera realista la apariencia y voz de las personas, lo que plantea serios desafíos en términos de privacidad y seguridad.
Ante este panorama, las empresas tecnológicas están adoptando diferentes estrategias. Microsoft, por ejemplo, ha desarrollado herramientas que detectan y marcan contenido manipulado, mientras que OpenAI ha propuesto un enfoque más proactivo, sugiriendo la creación de un registro centralizado de videos legítimos que pueda utilizarse para verificar la autenticidad de los contenidos.
La postura de Johansson en este debate ha sido clara. En una reciente entrevista, la actriz declaró: «No se trata solo de proteger a las celebridades. Cualquier persona puede ser víctima de un deepfake, y necesitamos leyes que nos protejan a todos». Sus declaraciones han resonado en la opinión pública, aumentando la presión sobre los legisladores para que actúen con rapidez y eficacia.
Además del lobby corporativo, diversas organizaciones de derechos civiles han alzado la voz. La Electronic Frontier Foundation (EFF) ha instado al Congreso a considerar el impacto de los deepfakes en la libertad de expresión y la privacidad. Según la EFF, cualquier regulación debe equilibrar la protección de los derechos individuales con la necesidad de no restringir excesivamente el uso legítimo de la tecnología.
En resumen, el caso de Scarlett Johansson ha puesto de manifiesto la urgencia de regular los deepfakes y el uso de la IA en general. Mientras las empresas tecnológicas y las asociaciones de la industria presionan para influir en la legislación, la opinión pública y las organizaciones de derechos civiles demandan un enfoque equilibrado que proteja tanto la innovación como los derechos fundamentales.
El Congreso de EE.UU. enfrenta ahora el desafío de crear una regulación que aborde estos complejos problemas de manera integral y justa.