Más de 500 ciudadanos se unen en una acción legal sin precedentes contra DeepClone, acusando a la startup de violar la privacidad y los derechos de imagen. El caso podría sentar un precedente crucial en la regulación de la inteligencia artificial en Argentina.
En un giro inesperado que sacude al mundo tecnológico y legal de Argentina, más de 500 residentes de la Ciudad Autónoma de Buenos Aires (CABA) han presentado una demanda colectiva contra la startup de inteligencia artificial DeepClone.
La empresa es acusada de haber clonado los rostros y voces de miles de ciudadanos sin su consentimiento, desatando un debate sobre los límites éticos y legales de la IA en el país.
La demanda, interpuesta ante el Juzgado en lo Contencioso Administrativo y Tributario N°15 de CABA, alega que DeepClone utilizó ilegalmente datos biométricos recolectados de redes sociales y cámaras de seguridad para entrenar sus algoritmos de inteligencia artificial.
Estos algoritmos, según los demandantes, son capaces de generar réplicas casi perfectas de rostros y voces humanas.
«Es una violación flagrante de nuestros derechos más básicos», declaró Martín Rodríguez, uno de los principales demandantes y portavoz del grupo.
«Descubrimos que nuestras imágenes y voces estaban siendo utilizadas en anuncios, videos y hasta en llamadas telefónicas fraudulentas, todo sin nuestro conocimiento o consentimiento».
La abogada Lucía Fernández, representante legal del colectivo, explicó la gravedad del caso: «Estamos ante un vacío legal en Argentina en lo que respecta a la regulación de la inteligencia artificial. Esta demanda busca no solo compensar a las víctimas, sino también establecer un precedente que proteja a todos los ciudadanos de futuros abusos tecnológicos».
DeepClone, por su parte, ha negado todas las acusaciones. En un comunicado oficial, la empresa afirmó: «Nuestros procesos de recolección y uso de datos cumplen con todas las normativas vigentes. Siempre hemos priorizado la privacidad y la ética en el desarrollo de nuestras tecnologías».
Sin embargo, expertos en derecho tecnológico señalan que el caso pone de manifiesto las lagunas existentes en la legislación argentina sobre IA y protección de datos.
El Dr. Carlos Martínez, especialista en derecho digital de la Universidad de Buenos Aires, comentó: «Este caso podría ser un punto de inflexión para la regulación de la IA en Argentina.
Estamos viendo cómo la tecnología avanza más rápido que nuestras leyes, y es crucial que adaptemos nuestro marco legal para proteger los derechos de los ciudadanos en la era digital».
La demanda solicita una compensación económica para los afectados, así como la eliminación inmediata de todos los datos biométricos recolectados sin autorización. Además, exige que se establezcan protocolos más estrictos para el uso de tecnologías de IA en el futuro.
El caso ha llamado la atención de organizaciones de derechos digitales en todo el país.
El impacto de esta demanda podría extenderse más allá de las fronteras de Argentina. Expertos internacionales están siguiendo de cerca el caso, considerando que podría sentar un precedente importante para la regulación de la IA en América Latina y otros países en desarrollo.
Mientras tanto, la comunidad tecnológica local se encuentra dividida. Algunos argumentan que regulaciones demasiado estrictas podrían frenar la innovación, mientras que otros insisten en la necesidad de establecer límites claros para proteger los derechos individuales.
A medida que el caso avanza, queda claro que la resolución de esta demanda colectiva no solo determinará el futuro de DeepClone, sino que también podría redefinir cómo se desarrolla y regula la inteligencia artificial en Argentina en los próximos años.