Clases particulares, traducción simultánea… todo lo que ofrece GPT-4o, la nueva Siri de OpenAI>

OpenAI anunció este lunes un nuevo nivel de ChatGPT. Ahora será un poco más inteligente, capaz de funcionar por primera vez con capacidad nativa para ver, hablar y escuchar. Contará con un sistema multimodal, lo que permitirá a los usuarios utilizarlo como asistente virtual. Sí, será será un Siri dopado con inteligencia artificial (IA).Esta nueva versión se llamará GPT-4o (la ‘o’ viene de omnimodal) y será gratuita para todos los usuarios de la aplicación, tanto en la web como en la aplicación de móvil. De hecho, algunos usuarios, en su mayoría premium, ya cuentan con la nueva actualización. Durante el evento del anuncio, la directora de tecnología de OpenAI, Mira Murati, mostró varias de las funcionalidades y novedades que tiene este nuevo modelo de IA. Se mejora su capacidades de texto, audio e imagen, y lleva a otro nivel la forma en la que se comunica con los humanos, con conversaciones más naturales y fluidas. Noticias Relacionadas estandar No La IA marca un antes y un después en las estrategias SEO Iciar Miner estandar No «Maestra del juego sucio»: la IA ya es capaz de engañar y manipular a los humanos Javier PalomoPor ejemplo, ahora puede responder a entradas de audio en apenas 232 milisegundos, similar al tiempo de respuesta humano en una conversación. Antes, el modo de voz de GPT-3,5 ofrecía respuestas con una latencia media de 2,8 segundos y en GPT-4 de 5,4 segundos. Un salto bastante grande. La nueva versión consigue esta rapidez gracias a que ha sido entrenado de extremo a extremo en texto, imagen y audio, lo que significa que todas las entradas y salidas son procesadas por la misma red neuronal.Esto permite, si lo desea el usuario, hacerle una pregunta a la IA e interrumpirla mientras responde. El modelo ofrece una capacidad de respuesta en «tiempo real», como si fuera una persona a la que estás hablando, e incluso puede captar matices en la voz de un usuario, generando en respuesta voces con una tonalidad similar y «una variedad de estilos emotivos diferentes».Traducción en tiempo realOtra novedad que ha sorprendido a los usuarios por redes sociales es su nueva capacidad de traducción en tiempo real. Murati lo ha demostrado mediante una conversación que ha mantenido ella en italiano y su compañero en inglés. La IA ha sido capaz de entender y traducir en milisegundos los idiomas, lo que ha sido muy aplaudido durante la presentación y después de esta.Además, el modelo no solo responde al instante, sino que también brinda respuestas en diferentes tonos de voz e incluso puede reír, cantar o tener diferentes estados de ánimo.Clases particulares También es capaz, como si se tratase de una profesora particular, de ayudar en tiempo real a resolver problemas matemáticos. En la presentación se ha puesto de ejemplo a un estudiante que compartía su pantalla del iPad a la IA, para que pudiera ver el ejercicio. Tras observar el problema, ChatGPT iba haciéndole preguntas y consejos al joven, y resolviendo cuestiones nuevas que el chico se planteaba mientras descifraba el problema. Con infinita paciencia, y a coste cero. Como decimos, este nuevo modelo también mejora en sus capacidades de visión. En este sentido, podremos darle una foto o una captura de pantalla para que la analice y nos brinde información al respecto. Desde qué modelo es tal coche hasta si tiene errores el código de un lenguaje de programación.Ahora tendrá memoriaOtra novedad importante es que el nuevo ChatGPT contará con una función llamada ‘Memory’. Permitirá que la IA pueda recordar el contenido con el que ha interactuado el usuario —siempre que se lo indique—. Es decir, será capaz de acordarse de todo lo que ha estado aprendiendo con nosotros, naturalizando las conversaciones y facilitando las próximas peticiones. Esta funcionalidad ya estaba disponible para los usuarios que pagaran por la versión plus de ChatGPT.

Sé el primero en comentar

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.


*