El ChatGPT de Sam Altman promete transformar la economía global, pero también plantea una enorme amenaza. En este artículo, un científico que compareció con Altman ante el Senado de Estados Unidos para hablar sobre la seguridad de la IA advierte sobre el peligro que entraña la IA y el propio Altman.
El 16 de mayo de 2023, Sam Altman , el encantador, amable y eternamente optimista director ejecutivo multimillonario de OpenAI, y yo nos encontramos ante la reunión del subcomité judicial del Senado de Estados Unidos sobre supervisión de la IA . Estábamos en Washington DC, y era el apogeo de la manía de la IA. Altman, que entonces tenía 38 años, era el ejemplo perfecto de todo ello.
Altman, que se crió en San Luis (Misuri), abandonó sus estudios en Stanford y se convirtió en presidente de la exitosa incubadora de empresas emergentes Y Combinator antes de cumplir los 30 años. Unos meses antes de la audiencia, el producto de su empresa, ChatGPT, había conquistado el mundo. Durante todo el verano de 2023, Altman fue tratado como un Beatle, pasó por Washington como parte de una gira mundial y se reunió con primeros ministros y presidentes de todo el mundo. La senadora estadounidense Kyrsten Sinema se deshizo en elogios: “Nunca he conocido a nadie tan inteligente como Sam… Es introvertido, tímido y humilde… Pero… muy bueno para entablar relaciones con la gente del Congreso y… puede ayudar a la gente del gobierno a entender la IA”. Los retratos brillantes de la época retrataban al joven Altman como sincero, talentoso, rico y sin ningún interés más que en fomentar la humanidad. Sus frecuentes sugerencias de que la IA podría transformar la economía global hicieron que los líderes mundiales salivaran.
El senador Richard Blumenthal nos había convocado a los dos (y a Christina Montgomery, de IBM) a Washington para hablar sobre lo que se debía hacer con la IA, una tecnología de “doble uso” que era muy prometedora, pero que también tenía el potencial de causar un daño enorme, desde tsunamis de desinformación hasta la proliferación de nuevas armas biológicas. El tema del día era la política y la regulación de la IA. Juramos decir toda la verdad y nada más que la verdad.
Altman representaba a una de las principales empresas de inteligencia artificial; yo estaba allí como científico y autor, conocido por mi escepticismo sobre muchas cuestiones relacionadas con la inteligencia artificial. Altman me pareció sorprendentemente interesante. Hubo momentos en los que eludió las preguntas (la más notable fue la de Blumenthal: “¿Qué es lo que más le preocupa?”, a la que le pedí que respondiera con más franqueza), pero en general parecía sincero, y recuerdo que se lo dije a los senadores en ese momento. Ambos defendimos firmemente la regulación de la inteligencia artificial. Sin embargo, poco a poco me di cuenta de que probablemente me habían engañado a mí, al Senado y, en última instancia, al pueblo estadounidense.
* * *
En verdad, siempre había tenido algunas dudas sobre OpenAI. Las campañas de prensa de la empresa, por ejemplo, a menudo eran exageradas e incluso engañosas, como su elegante demostración de un robot que “resolvía” un cubo de Rubik que resultó tener sensores especiales en su interior. Recibió toneladas de prensa, pero al final no llegó a ninguna parte.
Durante años, el nombre OpenAI (que implicaba una especie de transparencia sobre la ciencia detrás de lo que hacía la empresa) me había parecido una mentira, ya que en realidad se ha vuelto cada vez menos transparente con el tiempo. Las frecuentes insinuaciones de la empresa de que la AGI (inteligencia artificial general, IA que al menos puede igualar las capacidades cognitivas de cualquier humano) estaba a la vuelta de la esquina siempre me parecieron una exageración injustificada . Pero en persona, Altman deslumbró; me pregunté si había sido demasiado duro con él anteriormente. En retrospectiva, había sido demasiado blando.
Empecé a reconsiderar mi postura después de que alguien me enviara un dato, sobre algo pequeño pero revelador. En el Senado, Altman se presentó como mucho más altruista de lo que realmente era. El senador John Kennedy le había preguntado: “Está bien. Usted gana mucho dinero. ¿Lo hace?”. Altman respondió : “No gano… Me pagan lo suficiente para el seguro médico. No tengo acciones en OpenAI”, y agregó: “Estoy haciendo esto porque me encanta”. Los senadores se lo tragaron.
Altman no estaba diciendo toda la verdad. No poseía acciones de OpenAI, pero sí de Y Combinator, y Y Combinator poseía acciones de OpenAI. Lo que significaba que Sam tenía una participación indirecta en OpenAI, un hecho reconocido en el sitio web de OpenAI . Si esa participación indirecta valiera solo el 0,1% del valor de la empresa, lo que parece plausible, valdría casi 100 millones de dólares.
Esa omisión fue una señal de advertencia. Y cuando el tema volvió a surgir, podría haberlo corregido. Pero no lo hizo. A la gente le encantó su mito desinteresado. (En un artículo para
Fortune redobló la apuesta , afirmando que no necesitaba acciones en OpenAI porque tenía
«suficiente dinero» ). No mucho después de eso, descubrí que OpenAI había hecho un
trato con una empresa de chips de la que Altman poseía una parte . La parte desinteresada comenzó a sonar hueca.
En retrospectiva, el debate sobre el dinero no fue lo único que no pareció del todo sincero durante nuestra estancia en el Senado. Mucho más importante fue la postura de OpenAI sobre la regulación de la IA. Altman le dijo públicamente al Senado que la apoyaba. La realidad es mucho más complicada.
Por un lado, quizá una pequeña parte de Altman realmente quiere que se regule la IA. Le gusta parafrasear a Oppenheimer (y es muy consciente de que comparte cumpleaños con el líder del Proyecto Manhattan) y reconoce que, al igual que las armas nucleares, la IA plantea graves riesgos para la humanidad. En sus propias palabras, pronunciadas en el Senado (aunque después de que yo le insistiera un poco): “Miren, hemos tratado de ser muy claros sobre la magnitud de los riesgos en este caso… Mis peores temores son que causemos un daño significativo –nosotros, el campo, la tecnología, la industria– al mundo”.
Es de suponer que Altman no quiere vivir en el arrepentimiento y la infamia. Pero a puertas cerradas, sus lobbistas siguen presionando para que se establezca una regulación más débil, o ninguna en absoluto. Un mes después de la audiencia del Senado, se supo que OpenAI estaba trabajando
para diluir la ley de IA de la UE . Cuando OpenAI lo despidió en noviembre de 2023 por
no ser «siempre sincero » con su junta directiva, no me sorprendió demasiado.
En aquel momento, pocas personas apoyaron la decisión de la junta directiva de despedir a Altman. Una gran cantidad de seguidores acudieron en su ayuda; muchos lo trataron como a un santo. La conocida periodista Kara Swisher (que se sabe que es bastante amiga de Altman) me bloqueó en Twitter por el mero hecho de sugerir que la junta directiva podría tener razón. Altman jugó bien con los medios de comunicación. Cinco días después fue restituido, con la ayuda del principal inversor de OpenAI, Microsoft, y una petición de apoyo de los empleados a Altman.
Pero mucho ha cambiado desde entonces. En los últimos meses, las preocupaciones sobre la franqueza de Altman han pasado de heréticas a estar de moda. El periodista Edward Zitron escribió que Altman era “un falso profeta, un estafador sórdido que usa su notable habilidad para impresionar y manipular a la élite de Silicon Valley”. Ellen Huet de Bloomberg News, en el podcast Foundering, llegó a la conclusión de que “cuando [Altman] dice algo, no puedes estar seguro de que realmente lo diga en serio”. Paris Marx ha advertido sobre “ la visión egoísta de Sam Altman ”. El pionero de la inteligencia artificial Geoffrey Hinton cuestionó recientemente los motivos de Altman. Yo mismo escribí un ensayo llamado Sam Altman Playbook , en el que diseccionaba cómo había logrado engañar a tanta gente durante tanto tiempo, con una mezcla de exageración y aparente humildad.
Muchas cosas han llevado a este colapso de la fe. Para algunos, el momento detonante fueron las interacciones de Altman a principios de este año con Scarlett Johansson, quien le pidió explícitamente que no hiciera un chatbot con su voz. Altman procedió a utilizar un actor de voz diferente, pero uno que obviamente era similar a ella en voz, y tuiteó «Her» (una referencia a una película en la que Johansson proporcionó la voz para una IA). Johansson estaba furiosa. Y el fiasco de ScarJo fue emblemático de un problema mayor: las grandes empresas como OpenAI insisten en que sus modelos no funcionarán a menos que estén capacitados en toda la propiedad intelectual del mundo, pero las empresas han dado poca o ninguna compensación a muchos de los artistas, escritores y otros que los han creado. La actriz Justine Bateman lo describió como «el robo más grande en la [historia de] Estados Unidos, punto».
Mientras tanto, OpenAI lleva mucho tiempo alabando el valor de desarrollar medidas para la seguridad de la IA, pero varios miembros clave del personal relacionado con la seguridad se marcharon recientemente, alegando que no se habían cumplido las promesas. El ex investigador de seguridad de OpenAI, Jan Leike, dijo que la empresa priorizaba las cosas brillantes por encima de la seguridad , al igual que otro empleado que se fue recientemente, William Saunders . El cofundador Ilya Sutskever se fue y llamó a su nueva empresa Safe Superintelligence, mientras que el ex empleado de OpenAI, Daniel Kokotajlo, también advirtió que se estaban haciendo caso omiso de las promesas en torno a la seguridad . Por muy malas que hayan sido las redes sociales para la sociedad, la IA errante, que OpenAI podría desarrollar accidentalmente, podría (como señala el propio Altman) ser mucho peor.
El desprecio que ha demostrado OpenAI por la seguridad se ve agravado por el hecho de que la empresa parece estar en una campaña para mantener a sus empleados callados. En mayo, la periodista Kelsey Piper descubrió documentos que permitían a la empresa recuperar acciones adquiridas de antiguos empleados que no estaban dispuestos a no hablar mal de la empresa, una práctica que muchos expertos de la industria encontraron chocante. Poco después, muchos antiguos empleados de OpenAI firmaron una carta en righttowarn.ai exigiendo protección para los denunciantes y, como resultado, la empresa dio marcha atrás y declaró que no haría cumplir estos contratos.
Incluso la junta directiva de la empresa se sintió engañada. En mayo, Helen Toner, exmiembro de la junta directiva de OpenAI, dijo en el podcast Ted AI Show : “Durante años, Sam le hizo las cosas muy difíciles a la junta directiva… reteniendo información, tergiversando lo que estaba sucediendo en la empresa y, en algunos casos, mintiendo abiertamente a la junta directiva”.
A fines de mayo, la mala prensa para OpenAI y su CEO se había acumulado de manera tan constante que el capitalista de riesgo Matt Turck publicó una caricatura en X : “días desde la última controversia fácilmente evitable sobre OpenAI: 0”.
* * *
Sin embargo, Altman sigue ahí y sigue siendo increíblemente poderoso. Sigue dirigiendo OpenAI y, en gran medida, sigue siendo el rostro público de la IA. Ha reconstruido la junta directiva de OpenAI en gran medida a su gusto. Incluso en abril de 2024, el secretario de Seguridad Nacional, Alejandro Mayorkas, viajó a visitar a Altman para reclutarlo para la junta de seguridad y protección de la IA de Seguridad Nacional.
Hay mucho en juego. La forma en que se desarrolle la IA ahora tendrá consecuencias duraderas. Las decisiones de Altman podrían afectar fácilmente a toda la humanidad (no solo a los usuarios individuales) de manera duradera. Como ya reconoció OpenAI, Rusia y China ya han utilizado sus herramientas para generar desinformación , presumiblemente con la intención de influir en las elecciones. Las formas más avanzadas de IA, si se desarrollan, podrían plantear riesgos aún más graves. Sea lo que sea lo que hayan hecho las redes sociales en términos de polarizar la sociedad e influir sutilmente en las creencias de la gente, las grandes empresas de IA podrían empeorarlo.
Además, la IA generativa, popularizada por OpenAI, está teniendo un impacto ambiental enorme, medido en términos de consumo de electricidad, emisiones y uso de agua. Como dijo recientemente Bloomberg : “La IA ya está causando estragos en los sistemas energéticos globales”. Ese impacto podría crecer, tal vez considerablemente, a medida que los modelos se hagan más grandes (el objetivo de todos los actores más importantes). En gran medida, los gobiernos están siguiendo la promesa de Altman de que la IA dará sus frutos al final (ciertamente no lo ha hecho hasta ahora), lo que justifica los costos ambientales. Sinceramente, no creo que lleguemos a una IA en la que podamos confiar si seguimos por el camino actual.
Mientras tanto, OpenAI ha asumido una posición de liderazgo y Altman está en la junta de seguridad de la patria. Su consejo debe tomarse con escepticismo. Altman estaba tratando al menos brevemente de atraer inversores para una inversión de 7 billones de dólares en infraestructura en torno a la IA generativa, que podría resultar un tremendo desperdicio de recursos que tal vez podrían ser mejor gastados en otra cosa, si (como yo y muchos otros sospechamos) la IA generativa no es el camino correcto hacia la IAG [inteligencia artificial general].
Por último, sobrestimar la inteligencia artificial actual podría conducir a una guerra. Por ejemplo, la “guerra de chips” entre Estados Unidos y China por los controles de exportación (en la que Estados Unidos limita la exportación de chips GPU críticos diseñados por Nvidia y fabricados en Taiwán) está afectando la capacidad de China para avanzar en el campo de la inteligencia artificial y aumentando las tensiones entre las dos naciones . La batalla por los chips se basa en gran medida en la idea de que la inteligencia artificial seguirá mejorando exponencialmente, aunque los datos sugieren que los enfoques actuales pueden haber llegado recientemente a un punto de rendimientos decrecientes .
Es posible que Altman haya empezado con buenas intenciones. Tal vez realmente quería salvar al mundo de las amenazas de la IA y guiarla hacia el bien. Tal vez la codicia se apoderó de él, como suele suceder.
Lamentablemente, muchas otras empresas de IA parecen estar siguiendo el camino de la exageración y los atajos que Altman trazó. Anthropic, formada a partir de un grupo de refugiados de OpenAI que estaban preocupados de que la seguridad de la IA no se tomara lo suficientemente en serio, parece estar compitiendo cada vez más directamente con la nave nodriza, con todo lo que eso implica. La startup Perplexity, valorada en mil millones de dólares, parece ser otra lección objetiva de codicia, ya que se entrena con datos que no se supone que deba usar . Microsoft, por su parte, pasó de defender la «IA responsable» a lanzar rápidamente productos con problemas graves, presionando a Google para que hiciera lo mismo. El dinero y el poder están corrompiendo la IA, del mismo modo que corrompieron las redes sociales.
Sencillamente, no podemos confiar en que las gigantescas empresas privadas de inteligencia artificial se gobiernen a sí mismas de manera ética y transparente. Y si no podemos confiar en que se gobiernen a sí mismas, ciertamente no deberíamos permitirles que gobiernen el mundo.
* * *
Sinceramente, no creo que lleguemos a una IA en la que podamos confiar si seguimos por el camino actual. Aparte de la influencia corruptora del poder y el dinero, también hay un problema técnico profundo: es poco probable que los grandes modelos de lenguaje (la técnica central de la IA generativa) inventados por Google y popularizados por la empresa de Altman sean seguros. Son recalcitrantes y opacos por naturaleza: las llamadas «cajas negras» que nunca podremos controlar por completo. Las técnicas estadísticas que las impulsan pueden hacer cosas asombrosas, como acelerar la programación informática y crear personajes interactivos que suenen plausibles al estilo de seres queridos fallecidos o figuras históricas. Pero esas cajas negras nunca han sido fiables y, como tales, son una base pobre para una IA en la que podamos confiar nuestras vidas y nuestra infraestructura.
Dicho esto, no creo que debamos abandonar la IA. Desarrollar una mejor IA (para la medicina, la ciencia de los materiales, la ciencia del clima, etc.) realmente podría transformar el mundo. Es poco probable que la IA generativa dé resultado, pero alguna forma futura de IA que aún no se haya desarrollado podría hacerlo.
La ironía es que la mayor amenaza para la IA hoy en día pueden ser las propias empresas de IA; su mal comportamiento y sus exageradas promesas están alejando a mucha gente. Muchos están listos para que el gobierno tome una postura más dura. Según una encuesta realizada en junio por el Artificial Intelligence Policy Institute, el 80% de los votantes estadounidenses prefieren “una regulación de la IA que imponga medidas de seguridad y supervisión gubernamental de los laboratorios de IA en lugar de permitir que las empresas de IA se autorregulen”.
Para lograr una IA en la que podamos confiar, he abogado durante mucho tiempo por un esfuerzo transnacional , similar al consorcio de física de alta energía del CERN. El momento para ello es ahora. Un esfuerzo de ese tipo, centrado en la seguridad y la fiabilidad de la IA en lugar de en las ganancias, y en el desarrollo de un nuevo conjunto de técnicas de IA que pertenezcan a la humanidad (en lugar de a un puñado de empresas codiciosas), podría ser transformador.
Más que eso, los ciudadanos necesitan alzar la voz y exigir una IA que sea buena para la mayoría y no solo para unos pocos. Una cosa que puedo garantizar es que no llegaremos a la tierra prometida de la IA si dejamos todo en manos de Silicon Valley. Los jefes de la tecnología han ocultado la verdad durante décadas. ¿Por qué deberíamos esperar que Sam Altman, visto por última vez conduciendo por Napa Valley en un superdeportivo Koenigsegg de 4 millones de dólares , sea diferente?
Por Gary Marcus *
*es un científico, empresario y autor de bestsellers. Fue fundador y director ejecutivo de la empresa de aprendizaje automático Geometric Intelligence, que fue adquirida por Uber, y es autor de seis libros, incluido el próximo Taming Silicon Valley (MIT Press).
Este artículo fue publicado originalmente en The Guardian, el 3 de agosto de 2024.