Título de lasprovincias.es - 15/05/2024 09:00:48

Imagen

Las novedades del nuevo ChatGPT-4o: gratis para todos, con traductor simultáneo y capaz de leer las …

Open AI ha lanzado este 13 de mayo de 2024 GPT-4o («o» de «omni»), la última versión de Chat GPT con nuevas funcionalidades, acceso gratuito para todos los usuarios y novedades que acercan la interacción persona-computadora hasta límites insospechados. El nuevo modelo será desplegado en los productos de OpenAI en las próximas semanas, según la compañía. Acepta como entrada cualquier combinación de texto, audio e imagen y genera cualquier combinación de salidas de texto, audio e imagen. El asistente de IA de OpenAI, que los usuarios pueden interrumpir fácilmente, es capaz de leer las emociones en sus rostros a través de la cámara de su teléfono inteligente, guiarlos para que hagan ejercicios de respiración, contarles una historia o ayudarlos a resolver un problema matemático, entre otras cosas.GPT-4o permite realizar traducciones simultáneas en otros idiomas , como desvelaron durante la presentación con una demostración real, y realiza complejas operaciones matemáticas, al alcance de cualquier usuario. «Estamos muy, muy entusiasmados de presentar GPT-4o a todos nuestros usuarios gratuitos», declaró en una conferencia de prensa virtual Mira Murati, directora tecnológica de la start-up con sede en California, Estados Unidos. «Con GPT-4o, entrenamos un único modelo nuevo de extremo a extremo en texto, visión y audio, lo que significa que todas las entradas y salidas son procesadas por la misma red neuronal. Debido a que GPT-4o es nuestro primer modelo que combina todas estas modalidades, todavía estamos apenas rascando la superficie de la exploración de lo que el modelo puede hacer y sus limitaciones», señalan.Al presentar esta nueva versión, OpenAI mostró un asistente accionado por voz, capaz de reproducir de forma asombrosa la fluidez de discusiones entre humanos . «Están la transcripción, la inteligencia y la capacidad de hablar reunidas para aportarles el modo vocal», resumió Murati, quien mostró junto a dos colegas cómo los usuarios pueden interactuar con ChatGPT.Puede responder a entradas de audio en tan solo 232 milisegundos, con un promedio de 320 milisegundos, que es similar al tiempo de respuesta humano en una conversación.Gratis de forma escalonada para todos los usuariosSegún anuncian desde Open AI, las capacidades de GPT-4o se implementarán de forma iterativa (con acceso ampliado al equipo rojo a partir de hoy). De hecho, las capacidades de texto e imagen de GPT-4o están comenzando a implementarse hoy en ChatGPT. «Estamos haciendo que GPT-4o esté disponible en el nivel gratuito y para usuarios Plus con límites de mensajes hasta 5 veces mayores. Lanzaremos una nueva versión del Modo de Voz con GPT-4o en alfa dentro de ChatGPT Plus en las próximas semanas», anuncian..Los desarrolladores ahora también pueden acceder a GPT-4o en la API como modelo de texto y visión. GPT-4o es 2 veces más rápido, la mitad de precio y tiene límites de velocidad 5 veces más altos en comparación con GPT-4 Turbo. Planeamos lanzar soporte para las nuevas capacidades de audio y video de GPT-4o a un pequeño grupo de socios confiables en la API en las próximas semanas.Antes de GPT-4o, podías usar el modo de voz para hablar con ChatGPT con latencias de 2,8 segundos (GPT-3.5) y 5,4 segundos (GPT-4) en promedio. Para lograr esto, Voice Mode es una canalización de tres modelos separados: un modelo simple transcribe audio a texto, GPT-3.5 o GPT-4 toma texto y genera texto, y un tercer modelo simple convierte ese texto nuevamente en audio. Este proceso significa que la principal fuente de inteligencia, GPT-4, pierde mucha información: no puede observar directamente el tono, varios parlantes o ruidos de fondo, y no puede emitir risas, cantar ni expresar emociones.Google relanza GeminiEsta nueva versión del programa de OpenAI llega un día antes de una también esperada presentación de Google sobre su motor de búsqueda Gemini, su herramienta de IA que compite con ChatGPT.

Ver noticia completa