Otro paso enorme de la tecnología. Colocaron un termino muy importante que es Omnimodal. Hoy se hablaba de multimodalidad pero omni es todo y todo, es todo de verdad. Sorprende, tiene el doble de rendimiento que su versión anterior.
El esperado lanzamiento de ChatGPT 4o por OpenAI marca un hito en la interacción entre humanos y asistentes virtuales. Este avanzado modelo de lenguaje no solo comprende el texto, sino también la voz y las emociones del usuario.
Con la capacidad de entender la tonalidad y los patrones en la voz, ChatGPT 4o puede adaptar su respuesta al estado de ánimo del interlocutor, creando una experiencia más natural y personalizada.
Además, ChatGPT 4o puede funcionar como un traductor en tiempo real, permitiendo a personas que hablan diferentes idiomas comunicarse sin barreras. Simplemente colocando un dispositivo entre ellos, la conversación será traducida simultáneamente, facilitando la interacción y el entendimiento mutuo.
Pero las capacidades de este modelo no se limitan al lenguaje. ChatGPT 4o también puede procesar imágenes, dibujos, objetos e incluso ecuaciones matemáticas.
Al interactuar con el usuario a través de la cámara, el asistente puede reconocer expresiones faciales y gestos, adaptando aún más su respuesta para lograr un diálogo fluido y contextualizado.
Este avance en la multimodalidad, que permite a ChatGPT 4o procesar y generar contenido en múltiples formatos, lo convierte en una herramienta poderosa para la comunicación, la educación y la resolución de problemas.
A medida que la inteligencia artificial continúa evolucionando, es emocionante imaginar cómo ChatGPT 4o y modelos futuros transformarán la forma en que interactuamos con la tecnología y entre nosotros.
Ahora GPT-4o estará disponible en la aplicación y el sitio web ChatGPT, y no cuesta ni un centavo.
«Lo especial de GPT-4o es que ofrece inteligencia de nivel GPT-4 a todos, incluidos nuestros usuarios gratuitos», dijo Mira Murati, directora de tecnología de ChatGPT.
Puede cargar imágenes y obtener comentarios sobre esas fotos según lo que ve la IA.
Por ejemplo, puedes compartir una foto de una planta, una araña o un punto de referencia para obtener más información al respecto.
O puede pedirle que traduzca la información de una foto de un letrero o menú en un idioma extranjero.
Incluso puedes compartir una selfie con la aplicación y ChatGPT podrá describir las emociones que cree que estás sintiendo. Y, ojo, puede recordar cosas que dijiste antes, incluso en diferentes conversaciones.
ChatGPT también puede usar GPT-4o para conversaciones de voz.
Esta actualización de ciencia ficción nos acerca a la película Her, donde los humanos pueden construir lo que parecen relaciones cercanas con la IA a través de una conversación hablada real.
La aplicación ahora también puede funcionar como un traductor en vivo entre dos personas que hablan idiomas diferentes.
Además, sus propios creadores han compartido en las redes sociales las distintas capacidades de esta IA. Para ello, han mostrado un benchmark en LMSys arena en el que han demostrado que en algunos aspectos esta IA es superior hasta en 100 puntos por encima del modelo anterior, GPT-4 Ultra.
Fecha de lanzamiento GPT-4o para ChatGPT: en las próximas semanas
De momento, desde OpenAI no han dado una fecha de lanzamiento exacta, pero han asegurado que estará disponible en unas pocas semanas. De esta manera, aunque es una ventana bastante incierta, suena cercana, por lo que es posible que esté disponible más pronto de lo que nos imaginamos.