Meta FAIR lanza investigaciones y modelos innovadores, destacando el compromiso con la apertura y la colaboración en el desarrollo de IA responsable.
Meta, a través de su equipo de Investigación Fundamental de IA (FAIR), continúa liderando en el ámbito de la inteligencia artificial (IA) con la reciente publicación de varios modelos y conjuntos de datos innovadores.
Estos lanzamientos subrayan los principios clave de Meta: apertura, colaboración, excelencia y escala.
Meta Chameleon
Uno de los modelos destacados es Meta Chameleon, una familia de modelos que puede combinar texto e imágenes tanto como entradas como salidas.
Este enfoque unificado simplifica el diseño y escalabilidad de los modelos, permitiendo, por ejemplo, generar subtítulos creativos para imágenes.
Actualmente, se lanzan componentes clave de los modelos Chameleon 7B y 34B bajo una licencia de uso exclusivo para investigación.
Predicción de Múltiples Tokens
Otro avance es el modelo de predicción de múltiples tokens, que permite predecir varias palabras futuras a la vez, mejorando la eficiencia y velocidad del entrenamiento de modelos de lenguaje. Este modelo se lanza bajo una licencia no comercial, promoviendo su estudio independiente por parte de la comunidad investigadora.
Generación de Música Controlada
Meta también presenta el modelo JASCO, que genera música a partir de texto, incorporando controles específicos como acordes o ritmos.
Este enfoque permite una mayor versatilidad y control sobre los resultados generados, comparándose favorablemente con los modelos existentes en términos de calidad y control.
AudioSeal
Con un enfoque en la detección responsable de contenido generado por IA, Meta lanza AudioSeal, una técnica de watermarking de audio que facilita la detección de segmentos generados por IA dentro de audios más largos.
Esta tecnología mejora significativamente la velocidad de detección y es adecuada para aplicaciones a gran escala y en tiempo real.
Conjunto de Datos PRISM
Meta apoya la liberación del conjunto de datos PRISM, que captura preferencias y retroalimentación detallada de 1,500 participantes de 75 países.
Este conjunto de datos se utilizó en estudios de diversidad en diálogos y resultados de bienestar, resaltando la importancia de considerar normas de alineación humana en el desarrollo de IA.
Evaluación de Desigualdades Geográficas en Modelos de Imagen
Para abordar las disparidades geográficas en los modelos de generación de imágenes, Meta desarrolla indicadores automáticos llamados “DIG In” y realiza estudios de anotación a gran escala para entender mejor las percepciones regionales.
Además, se introduce la guía de puntuación Vendi contextualizada para mejorar la diversidad de las salidas de los modelos de imagen.
Estos desarrollos reflejan el compromiso de Meta con la creación de un ecosistema de IA abierto y responsable, fomentando la innovación y el diálogo con la comunidad global de IA.
Al compartir estos avances, Meta espera inspirar nuevas iteraciones y continuar las importantes conversaciones sobre el uso responsable de la IA.