El desarrollo de Life2Vec, un algoritmo creado por el científico danés Sune Lehmann, promete predecir eventos cruciales en la vida de las personas, incluyendo la fecha de su muerte, reabriendo el debate sobre los límites éticos de la inteligencia artificial.
La inteligencia artificial (IA) ha alcanzado un nuevo hito con Life2Vec, un proyecto liderado por el científico danés Sune Lehmann. Este algoritmo, capaz de predecir grandes eventos en la vida de una persona, incluyendo la fecha de su muerte, ha generado tanto fascinación como preocupación en la comunidad científica y en el público en general.
Un proyecto de investigación sin precedentes
Sune Lehmann, profesor de Redes y Ciencias de la Complejidad en la Universidad Técnica de Dinamarca y de Ciencias de Datos Sociales en la Universidad de Copenhague, ha desarrollado este proyecto con el objetivo de comprender mejor el papel de las redes sociales en los resultados de vida de las personas. En una entrevista con Infobae, Lehmann describió cómo su equipo utilizó un algoritmo alimentado con datos masivos para lograr predicciones con una sorprendente precisión.
«Mi idea fue lograr la mejor predicción posible para los grandes eventos individuales», explicó Lehmann. Para ello, su equipo utilizó datos anonimizados de unos seis millones de daneses proporcionados por Statistics Denmark. El algoritmo analiza una secuencia de acontecimientos en la vida de una persona, desde el peso al nacer hasta cambios de residencia, para predecir eventos futuros con una precisión notable: un 78% de acierto en la predicción de muertes y un 73% en mudanzas.
El debate ético
El avance de Life2Vec ha reavivado el debate sobre los principios éticos que deberían regir el desarrollo de la IA. Simon Kolstoe, profesor de Bioética en la Universidad de Portsmouth, sugiere que los desarrollos en IA deben seguir principios similares a los de la ética médica: beneficencia, no maleficencia, autonomía y justicia. Estos principios buscan asegurar que los beneficios de la IA no se obtengan a costa del bienestar humano.
David Weitzner, filósofo y profesor en la Universidad de York en Canadá, argumenta que la transparencia debe ser el principio rector en el desarrollo de la IA. «Nuestra sociedad debería tener un gran problema con los modelos de negocio que explotan lagunas en la infracción de derechos de autor para generar textos o imágenes», comentó Weitzner. En su próximo libro, «Thinking Like a Human: The Power of Your Mind in the Age of AI», enfatiza la importancia de mantener la elección humana en el centro del desarrollo tecnológico.
Aplicaciones y riesgos futuros
Aunque Life2Vec es actualmente un proyecto de investigación sin aplicaciones comerciales inmediatas, Lehmann reconoce que su potencial podría ser inmenso, especialmente en el sector de la salud. «Hay oportunidades en el sector de la salud en los que creo que el modelo podría ser muy útil una vez que enfrentemos los prejuicios», afirmó.
Sin embargo, el uso de la IA para predicciones tan personales como la fecha de muerte también plantea riesgos significativos. Dennis Hirsch, profesor de Derecho y Ciencias de la Computación en la Universidad Estatal de Ohio, advierte que las predicciones basadas en IA pueden perpetuar desigualdades existentes, como sesgos de raza o género. Hirsch aboga por regulaciones que obliguen a las organizaciones a considerar seriamente los impactos de sus tecnologías antes de implementarlas.
En última instancia, la dirección futura de la IA dependerá de cómo la sociedad y las regulaciones aborden estos desafíos éticos y prácticos. Mientras tanto, Life2Vec sigue siendo un testimonio del poder y el potencial de la inteligencia artificial para transformar nuestra comprensión de la vida y la muerte.