Un grupo de expertos de OpenAI exige que las empresas de inteligencia artificial sean mucho más transparentes sobre los “graves riesgos” de la IA y que protejan a los empleados que expresen preocupaciones sobre la tecnología que están desarrollando.
“Las empresas de inteligencia artificial tienen fuertes incentivos financieros para evitar una supervisión efectiva”, se lee en la carta abierta publicada el martes y firmada por empleados actuales y anteriores de empresas de inteligencia artificial, incluido OpenAI, el creador detrás de la famosa herramienta ChatGPT.
También pidieron a las empresas de inteligencia artificial que fomenten “una cultura de crítica abierta” que dé la bienvenida, en lugar de castigar, a las personas que expresan sus preocupaciones, especialmente cuando la ley lucha por ponerse al día con el rápido avance de la tecnología.
Las empresas han reconocido los «graves riesgos» que plantea la IA –desde la manipulación hasta una pérdida de control, conocida como «singularidad, que podría resultar potencialmente en la extinción humana–, pero deberían hacer más para educar al público sobre los riesgos y las medidas de protección, escribió el grupo.
Tal como está vigente la ley, dijeron los empleados de IA, no creen que las empresas de IA compartan información clave sobre la tecnología de forma voluntaria.
Es esencial, entonces, que los empleados actuales y anteriores hablen y que las empresas no apliquen acuerdos de “descrédito” ni tomen represalias contra quienes expresan preocupaciones relacionadas con el riesgo. «Las protecciones ordinarias a los denunciantes son insuficientes porque se centran en actividades ilegales, mientras que muchos de los riesgos que nos preocupan aún no están regulados», escribió el grupo.
Su carta llega en un momento en que las empresas se apresuran a implementar herramientas de IA generativa en sus productos, mientras los reguladores gubernamentales, las empresas y los consumidores luchan por un uso responsable. Mientras tanto, muchos expertos en tecnología, investigadores y líderes han pedido una pausa temporal en la carrera de la IA, o que el gobierno intervenga y cree una moratoria.
La respuesta de OpenAI
En respuesta a la carta, el portavoz de OpenAI dijo a CNN que está «orgulloso de nuestro historial proporcionando los sistemas de IA más capaces y seguros y cree en nuestro enfoque científico para abordar el riesgo”, y agregó que la compañía está de acuerdo en que «un debate riguroso es crucial dada la importancia de esta tecnología”.
OpenAI señaló que tiene una línea directa de integridad anónima y un Comité de Seguridad dirigido por miembros de su junta directiva y líderes de seguridad de la empresa. La empresa no vende información personal, no crea perfiles de usuario ni utiliza esos datos para dirigirse a nadie ni vender nada.
Sin embargo, Daniel Ziegler, uno de los organizadores detrás de la carta y uno de los primeros ingenieros de aprendizaje automático que trabajó en OpenAI entre 2018 y 2021, dijo a CNN que es importante permanecer escéptico sobre el compromiso de la empresa con la transparencia.
«Es realmente difícil decir desde fuera qué tan en serio están tomando sus compromisos de aumentar la seguridad y determinar los daños sociales, especialmente porque existen fuertes presiones comerciales para actuar muy rápido», dijo. «Es realmente importante tener la cultura y los procesos adecuados para que los empleados puedan expresarse de manera específica cuando tengan inquietudes».
Espera que más profesionales de la industria de la IA hagan públicas sus preocupaciones como resultado de la carta.
Mientras tanto, se espera que Apple anuncie una asociación con OpenAI en su Conferencia Mundial de Desarrolladores anual para llevar la IA generativa al iPhone.
«Vemos la IA generativa como una oportunidad clave en todos nuestros productos y creemos que tenemos ventajas que nos diferencian en eso», dijo el director ejecutivo de Apple, Tim Cook, en la conferencia telefónica sobre resultados más reciente de la compañía a principios de mayo.
OpenAI sigue en el centro del debate sobre la seguridad de la IA
OpenAI ha sido criticado por cláusulas mordaza que impiden que los empleados salientes digan cosas negativas al respecto. La empresa dice que está en proceso de eliminar estas cláusulas .
OpenAI también disolvió su equipo de riesgo de IA a largo plazo apenas un año después de su creación, después de que muchos investigadores en el campo abandonaran la empresa . El líder del equipo, Jan Leike, explicó su renuncia diciendo que la cultura y los procesos de seguridad de OpenAI se habían quedado atrás de los «productos brillantes». Desde entonces se ha unido al competidor Anthropic .
El despido y posterior recontratación de Sam Altman en noviembre de 2023 también se debió en última instancia a motivos de seguridad, que los responsables del despido justificaron con supuestos defectos de carácter de Altman . Pero la junta actual de OpenAI y las investigaciones de un bufete de abogados han absuelto a Altman .