La startup de Ilya Sutskever, cofundador de OpenAI, recauda U$S 1.000 millones para desarrollar sistemas de inteligencia artificial seguros, enfocándose en superar las capacidades humanas con responsabilidad.
Safe Superintelligence (SSI), una nueva startup cofundada por el ex científico jefe de OpenAI, Ilya Sutskever, ha asegurado una inversión monumental de U$S 1,000 millones. Este capital se destinará a avanzar en el desarrollo de sistemas de inteligencia artificial que no solo superen las capacidades humanas, sino que lo hagan de manera segura.
Enfocándose en la seguridad de la IA, SSI tiene como objetivo construir un equipo de investigadores y ingenieros de confianza repartido entre Palo Alto, California, y Tel Aviv, Israel.
Aunque la empresa no ha revelado su valoración oficial, fuentes cercanas indican que se sitúa en U$S 5.000 millones.
Esta financiación refleja que, a pesar de una disminución general en el interés por financiar empresas de investigación de IA, todavía hay inversores dispuestos a apostar por talentos excepcionales.
Entre los inversores se encuentran importantes firmas de capital de riesgo como Andreessen Horowitz, Sequoia Capital, DST Global y SV Angel. Además, NFDG, una sociedad de inversión dirigida por Nat Friedman y el CEO de SSI, Daniel Gross, también participó en la ronda de financiación.
Enfoque en la Seguridad y el Talento
La misión de SSI es clara: avanzar hacia una superinteligencia segura, dedicando varios años a la investigación y desarrollo antes de lanzar su producto al mercado.
Gross enfatiza la importancia de contar con inversores que comprendan y apoyen esta misión, especialmente en un momento en que la seguridad de la IA es un tema candente, dado el temor de que una IA descontrolada pueda actuar en contra de los intereses de la humanidad.
Ilya Sutskever, reconocido como uno de los tecnólogos más influyentes en IA, cofundó SSI en junio junto con Gross y Daniel Levy, un ex investigador de OpenAI. Sutskever, quien desempeña el papel de científico jefe, menciona que su nueva iniciativa se centra en abordar desafíos diferentes a los que enfrentaba en OpenAI.
Tras su salida de OpenAI, donde su equipo «Superalignment» fue desmantelado, Sutskever busca ahora establecer una estructura corporativa tradicional para SSI, a diferencia del modelo atípico de OpenAI.
Contratación y Visión a Futuro
SSI está enfocado en contratar personas que encajen con su cultura, priorizando el carácter y la capacidad extraordinaria sobre las credenciales tradicionales. Gross señala la importancia de encontrar personas interesadas en el trabajo en sí, más que en la escena o el «hype».
La empresa planea asociarse con proveedores de servicios en la nube y empresas de chips para satisfacer sus necesidades de poder de cómputo, aunque aún no ha decidido con cuáles trabajará.
Sutskever, quien fue un defensor temprano de la hipótesis de escalabilidad en IA, planea abordar este concepto de manera diferente a su antiguo empleador, sugiriendo un enfoque innovador en el desarrollo de IA.
En resumen, Safe Superintelligence busca no solo avanzar en el campo de la inteligencia artificial, sino hacerlo de manera que garantice la seguridad y alineación con los valores humanos, marcando un nuevo capítulo en la carrera por la superinteligencia.