ZeroGPU ofrece a emprendedores y científicos la posibilidad de crear aplicaciones de IA facilitándoles el acceso a las costosas GPU necesarias para el desarrollo de nuevas tecnologías relacionadas a la IA.
Hugging Face, uno de los grandes nombres del aprendizaje automático, va a destinar U$S 10 millones en GPU compartidas gratuitas para ayudar a los desarrolladores a crear nuevas tecnologías de IA. El objetivo es ayudar a pequeños desarrolladores, académicos y startups a contrarrestar la centralización de los avances en IA.
«Tenemos la suerte de estar en una posición en la que podemos invertir en la comunidad», declaró al portal tecnológico The Verge el CEO de Hugging Face, Clem Delangue.
El mismo Delangue agregó que la inversión es posible porque Hugging Face es «rentable, o casi rentable» y recientemente recaudó U$S 235 millones en financiación, valorando la empresa en U$S 4.500 millones.
A Delangue le preocupa la capacidad de las nuevas empresas de inteligencia artificial para competir con los gigantes tecnológicos. La mayoría de los avances significativos en inteligencia artificial -como el GPT-4, los algoritmos de búsqueda de Google, y el sistema de conducción autónoma de Tesla- permanecen ocultos dentro de los confines de las grandes empresas tecnológicas.
Estas corporaciones no solo tienen incentivos económicos para mantener sus modelos en propiedad, sino que, además, con miles de millones de dólares a su disposición para recursos computacionales, pueden agravar esos avances y adelantarse a sus competidores, haciendo imposible que las startups les sigan el ritmo.
Hugging Face pretende poner las tecnologías de IA más avanzadas al alcance de todos, no sólo de los gigantes tecnológicos. Hablé con Delangue durante Google I/O, la conferencia estrella del gigante tecnológico, donde los ejecutivos de Google presentaron numerosas funciones de IA para sus productos patentados e incluso una familia de modelos de código abierto llamada Gemma. Para Delangue, el enfoque propietario no es el futuro que él imagina.
«Si se opta por el código abierto, se avanza hacia un mundo en el que la mayoría de las empresas, la mayoría de las organizaciones, la mayoría de las organizaciones sin ánimo de lucro, los responsables políticos, los reguladores, también pueden hacer IA. Por tanto, una forma mucho más descentralizada sin demasiada concentración de poder que, en mi opinión, es un mundo mejor», afirma Delangue.
Cómo funciona
El acceso a la computación plantea un reto importante a la hora de construir grandes modelos lingüísticos, lo que a menudo favorece a empresas como OpenAI y Anthropic, que aseguran acuerdos con proveedores de cloud computing para obtener importantes recursos informáticos. Hugging Face pretende igualar las condiciones donando estas GPU compartidas a la comunidad a través de un nuevo programa denominado ZeroGPU.
Las GPU compartidas son accesibles para múltiples usuarios o aplicaciones de forma simultánea, lo que elimina la necesidad de que cada usuario o aplicación disponga de una GPU dedicada. ZeroGPU estará disponible a través de Hugging Face’s Spaces, una plataforma de alojamiento para la publicación de aplicaciones, que cuenta con más de 300.000 demostraciones de IA creadas hasta la fecha en CPU o GPU de pago, según la compañía.
El acceso a las GPU compartidas se determina en función del uso, de modo que si una parte de la capacidad de la GPU no se utiliza activamente, esa capacidad pasa a estar disponible para que la utilice otra persona. Esto las hace rentables, energéticamente eficientes e ideales para su utilización por toda la comunidad. Para ello, ZeroGPU utiliza GPU Nvidia A100, que ofrecen aproximadamente la mitad de velocidad de cálculo que las populares y más caras H100.
«Es muy difícil conseguir suficientes GPU de los principales proveedores de la nube, y la forma de conseguirlas -lo que está creando una gran barrera de entrada- es comprometerse con cifras muy grandes durante largos periodos de tiempo», explica Delangue.
Normalmente, una empresa se compromete con un proveedor de servicios en la nube como Amazon Web Services durante uno o varios años para asegurarse recursos de GPU. Este acuerdo perjudica a las pequeñas empresas, los desarrolladores independientes y los académicos que construyen a pequeña escala y no pueden predecir si sus proyectos ganarán tracción. Independientemente del uso, tienen que pagar por las GPU.
«Además, saber cuántas GPU se necesitan y con qué presupuesto es una pesadilla», explica Delangue.
La IA de código abierto se pone al día
Mientras la IA avanza rápidamente a puerta cerrada, el objetivo de Hugging Face es permitir que la gente construya más tecnología de IA en abierto.
«Si unas pocas organizaciones acaban dominando demasiado, será más difícil luchar contra ellas más adelante», afirma Delangue.
Andrew Reed, ingeniero de aprendizaje automático de Hugging Face, incluso ha creado una aplicación que visualiza el progreso de los LLM propietarios y de código abierto a lo largo del tiempo, según la puntuación de LMSYS Chatbot Arena.
Más de 35.000 variaciones del modelo de IA de código abierto Llama de Meta se han compartido en Hugging Face desde la primera versión de Meta hace un año, desde «modelos cuantizados y fusionados hasta modelos especializados en biología y mandarín», según la empresa.
««»La IA no debe estar en manos de unos pocos. Con este compromiso con los desarrolladores de código abierto, estamos impacientes por ver qué es lo próximo que prepara cada uno en un espíritu de colaboración y transparencia», afirma Delangue en un comunicado de prensa.
Fuente: The Verge