OpenAI lanza GPT-4: su nuevo modelo de lenguaje avanzado, con mejoras en velocidad y capacidad para procesar texto, video y audio.

En un paso más hacia el futuro de la inteligencia artificial, OpenAI anuncia el lanzamiento de GPT-4, su nuevo modelo de lenguaje avanzado que revoluciona la forma en que interactuamos con la tecnología. Con un enfoque en la velocidad y la capacidad de procesamiento, este innovador modelo es capaz de manejar no solo texto, sino también video y audio, abriendo las puertas a nuevas posibilidades en el ámbito de la comunicación y el análisis de datos.

Index

OpenAI lanza GPT-4o: El modelo de lenguaje más avanzado y rápido para texto, video y audio

OpenAI, la compañía de Sam Altman, ha presentado novedades en su evento de hoy, destacando la presentación de su nuevo modelo de lenguaje, el GPT-4o, que es más rápido y soporta texto, video y audio, permitiendo darle instrucciones a través de voz.

Características del GPT-4o

Características del GPT-4o

El nuevo modelo de lenguaje GPT-4o ofrece una inteligencia equiparable al nivel GPT-4, pero con una notable mejora en velocidad y capacidades en texto, visión y audio. Posee el doble de rapidez, un límite de velocidad 5 veces mayor que GPT4-Turbo y un precio reducido en un 50% para más funciones.

Además, el GPT-4o es capaz de llevar la conversación a un nivel completamente nuevo con su modalidad de voz, ofreciendo una voz conversacional en tiempo real con un amplio rango dinámico. Esto permite a los usuarios disfrutar de una experiencia de conversación más natural.

El GPT-4o puede responder a entradas de audio en tan solo 232 milisegundos, con un promedio de 320 milisegundos, que es similar al tiempo de respuesta humano en una conversación. Gracias a una reducción significativa en la latencia entre servicios, la interacción con el GPT-4o es más fluida con 50 idiomas disponibles.

Accesibilidad y características adicionales

Este servicio es gratuito para los usuarios, lo que significa que todos pueden disfrutar de las increíbles capacidades del GPT-4 sin ningún coste. Con voz, texto y visión, todo en un solo modelo, el GPT-4o es claramente un paso adelante.

Además, ChatGPT activará una función para todos los usuarios llamada Memory, con la que podrá recordar el contenido con el que ha interactuado con el usuario para que las tareas no sean tan repetitivas.

Demostración del GPT-4o

En la presentación, OpenAI ha puesto a prueba al nuevo modelo de lenguaje pidiéndole que realice un código de programación. Lo que más llama la atención es que ahora lo hace todo a través de los comandos de voz, pero tiene la misma capacidad que el chatbot actual.

También le han pedido que cuente una historia y que la relate con diferentes tonos, con voz de robot e incluso cantando. El resultado es verdaderamente impresionante.

Otro punto a destacar es que, en la conversación, el chatbot transforma todo directamente a través de voz, nada a texto. Incluso le han mostrado una gráfica para que la analice y ha dado sus conclusiones en relación con lo que ve en la imagen.

Lucía García

Hola, soy Lucía, un apasionado escritor y experto en actualidad nacional e internacional en el periódico independiente El Noticiero. Mi dedicación por la objetividad y la rigurosidad en mis artículos me permite ofrecer a nuestros lectores las últimas novedades de manera imparcial y detallada. Mi compromiso es informar con veracidad y transparencia, para que nuestros lectores estén siempre bien informados. ¡Descubre conmigo las historias más relevantes del momento en El Noticiero!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir