Inicio » Educación » Desde Cero: los modelos de IA no pueden aprender andando como los humanos

Desde Cero: los modelos de IA no pueden aprender andando como los humanos

Después de su fase de entrenamiento inicial, los algoritmos de IA no pueden actualizarse ni aprender de nuevos datos, lo que significa que las empresas tecnológicas tienen que seguir entrenando nuevos modelos desde cero y eso genera costos no estimados en el negocio.

Los algoritmos que sustentan los sistemas de inteligencia artificial como ChatGPT no pueden aprender sobre la marcha, lo que obliga a las empresas tecnológicas a gastar miles de millones de dólares para entrenar nuevos modelos desde cero.

Si bien esto ha sido una preocupación en la industria durante algún tiempo, un nuevo estudio sugiere que existe un problema inherente con la forma en que se diseñan los modelos pero puede haber una manera de resolverlo.

La mayoría de las IA actuales son las llamadas redes neuronales inspiradas en el funcionamiento del cerebro, con unidades de procesamiento conocidas como neuronas artificiales. Por lo general, pasan por distintas fases en su desarrollo.

Primero, se entrena a la IA, lo que permite que sus neuronas artificiales se ajusten mediante un algoritmo para reflejar mejor un conjunto de datos determinado.

Luego, la IA se puede utilizar para responder a nuevos datos, como entradas de texto como las que se introducen en ChatGPT. Sin embargo, una vez que las neuronas del modelo se han configurado en la fase de entrenamiento, no pueden actualizarse ni aprender de los nuevos datos.

Esto significa que la mayoría de los modelos de IA de gran tamaño deben volver a entrenarse si hay nuevos datos disponibles, lo que puede resultar prohibitivamente costoso, especialmente cuando esos nuevos conjuntos de datos consisten en grandes porciones de todo Internet.

Los investigadores se han preguntado si estos modelos pueden incorporar nuevos conocimientos después del entrenamiento inicial, lo que reduciría costes, pero no está claro si son capaces de hacerlo.

Ahora, Shibhansh Dohare, de la Universidad de Alberta (Canadá), y sus colegas han probado si los modelos de IA más comunes pueden adaptarse para aprender continuamente.

El equipo descubrió que pierden rápidamente la capacidad de aprender algo nuevo, y una gran cantidad de neuronas artificiales se quedan estancadas en un valor de cero después de ser expuestas a nuevos datos.

“Si lo piensas como si fuera tu cerebro, entonces es como si el 90 por ciento de las neuronas estuvieran muertas”, dice Dohare. “Simplemente no queda suficiente para que aprendas”.

Dohare y su equipo entrenaron primero los sistemas de IA a partir de la base de datos ImageNet, que consta de 14 millones de imágenes etiquetadas de objetos simples, como casas o gatos.

Pero en lugar de entrenar la IA una vez y luego probarla intentando distinguir entre dos imágenes varias veces, como es habitual, volvieron a entrenar el modelo después de cada par de imágenes.

Probaron de esta manera una variedad de algoritmos de aprendizaje diferentes y descubrieron que después de un par de miles de ciclos de reentrenamiento, las redes parecían incapaces de aprender y tenían un desempeño deficiente, y muchas neuronas parecían “muertas” o con un valor de cero.

El equipo también entrenó a las IA para simular el aprendizaje de una hormiga a través del aprendizaje por refuerzo, un método común en el que se le enseña a una IA cómo es el éxito y descubre las reglas mediante ensayo y error.

Cuando intentaron adaptar esta técnica para permitir el aprendizaje continuo mediante el reentrenamiento del algoritmo después de caminar sobre diferentes superficies, descubrieron que también conduce a una incapacidad significativa para aprender.

Este problema parece inherente a la forma en que estos sistemas aprenden, dice Dohare, pero hay una forma posible de evitarlo.

Los investigadores desarrollaron un algoritmo que activa aleatoriamente algunas neuronas después de cada ronda de entrenamiento, y pareció reducir el bajo rendimiento. “Si una neurona ha muerto, simplemente la revivimos”, dice Dohare. “Ahora es capaz de aprender de nuevo”.

El algoritmo parece prometedor, pero será necesario probarlo en sistemas mucho más grandes antes de que podamos estar seguros de que ayudará, dice Mark van der Wilk de la Universidad de Oxford.

“La solución al aprendizaje continuo es una pregunta de mil millones de dólares”, afirma. “Una solución real e integral que permitiera actualizar continuamente un modelo reduciría significativamente el costo de entrenamiento de estos modelos”.

Fuente: New Scientist

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP to LinkedIn Auto Publish Powered By : XYZScripts.com