Un revolucionario estudio de Stanford y Google DeepMind logró replicar con 85% de precisión los valores y preferencias de las personas mediante entrevistas con inteligencia artificial.
La ciencia ficción se acerca cada vez más a la realidad. Investigadores de Stanford y Google DeepMind han desarrollado una tecnología que permite crear réplicas virtuales de personas mediante entrevistas de dos horas con sistemas de inteligencia artificial, según revela un nuevo estudio publicado en arXiv.
METODOLOGÍA Y ALCANCE
El equipo, liderado por el estudiante de doctorado Joon Sung Park, reclutó a 1,000 participantes diversos en edad, género, raza, región, educación e ideología política, ofreciéndoles hasta $100 por su participación.
«Si puedes tener un montón de pequeños ‘tús’ corriendo por ahí y tomando las decisiones que tú habrías tomado, ese es, creo, el futuro final», explica Park, quien destaca la eficiencia de las entrevistas para capturar la esencia de una persona.
RESULTADOS SORPRENDENTES
Los «agentes de simulación» -como se denominan estas réplicas digitales- completaron las mismas pruebas de personalidad, encuestas sociales y juegos lógicos que sus contrapartes humanas. Los resultados mostraron una similitud del 85% entre las respuestas humanas y las de la IA.
APLICACIONES POTENCIALES
Los investigadores visualizan estas réplicas como herramientas valiosas para estudios sociales que serían costosos, imprácticos o éticamente cuestionables con participantes reales. Podrían utilizarse para:
- Evaluar intervenciones contra la desinformación en redes sociales
- Analizar comportamientos que causan embotellamientos de tráfico
- Realizar investigaciones sociales a gran escala
ADVERTENCIAS Y RIESGOS
Expertos advierten sobre los peligros potenciales, similares a los deepfakes:
- Posible suplantación de identidad
- Uso no autorizado de personalidades
- Manipulación de declaraciones o autorizaciones
LIMITACIONES ACTUALES
John Horton, profesor asociado del MIT Sloan School of Management, señala que aunque prometedora, la tecnología aún tiene limitaciones. Las evaluaciones utilizadas son básicas y los agentes mostraron deficiencias en pruebas conductuales complejas como el «juego del dictador», que mide valores como la equidad.
FUTURO Y DESARROLLO
Empresas como Tavus ya exploran la creación de «gemelos digitales» mediante el análisis de correos electrónicos y otros datos.
Según su CEO, Hassaan Raza, este nuevo enfoque podría revolucionar el campo: «¿Qué tal si solo hablas con un entrevistador de IA durante 30 minutos hoy, 30 minutos mañana? Y luego usamos eso para construir este gemelo digital tuyo».