Esta pasada semana OpenAi presentaba su Spring Update en el que Mira Murati actuó como anfitriona principal del evento. Murati es la Directora de Tecnología (Chief Technology Officer, CTO) en OpenAI y es la responsable de supervisar los desarrollos tecnológicos y de investigación en la empresa.
Asimismo participaron Mark Chen, investigador principal quién mostró las capacidades de voz y visión a través de demostraciones en vivo y Barrett Zoph, otro de sus investigadores, participó en las demostraciones prácticas y en la interacción en tiempo real con ChatGPT.
En este evento se presentó en sociedad el lanzamiento de GPT-4o, su nuevo modelo insignia. GPT-4o representa un avance significativo en la interacción natural entre humanos y computadoras, al permitir el procesamiento y generación de respuestas a partir de texto, audio, imágenes y videos en tiempo real.
Características Principales de GPT-4o
GPT-4o, donde la “o” representa “omni”, lleva la interacción multimodal a otro nivel. Este modelo puede aceptar cualquier combinación de entradas en texto, audio, imagen y video, y generar respuestas en texto, audio e imagen. Con tiempos de respuesta tan rápidos como 232 milisegundos, GPT-4o se acerca mucho más a la velocidad de una conversación humana.
Avances en el Procesamiento de Lenguaje Natural
GPT-4o no solo iguala el rendimiento de GPT-4 Turbo en inglés y código, sino que ofrece mejoras significativas en otros idiomas, siendo más rápido y un 50% más económico en la API. Además, el nuevo modelo reduce considerablemente la tokenización de múltiples idiomas, facilitando una comprensión más eficiente y precisa. Por ejemplo, en idiomas como Gujarati, el número de tokens se ha reducido de 145 a 33, lo que representa una mejora de 4.4 veces.
Mejora la experiencia de usuario en comparación con modelos anteriores:
La interacción con GPT-4o es más intuitiva, rápida y accesible para un público más amplio. Algunas características:
- Velocidad y eficiencia: GPT-4o es más rápido que los modelos anteriores, mejorando la experiencia de usuario al reducir el tiempo de espera durante las interacciones.
- Disponibilidad ampliada:: A diferencia de los modelos anteriores, GPT-4o ofrece sus capacidades avanzadas a usuarios gratuitos, democratizando el acceso a la inteligencia artificial.
- Mejoras en la interfaz de usuario (UI):: La UI ha sido renovada para hacer la interacción más natural y sin fricciones, permitiendo a los usuarios centrarse en la colaboración en lugar de en la tecnología.
- Modo de voz nativo: GPT-4o integra la transcripción, la inteligencia y la conversión de texto a voz de manera nativa, eliminando la latencia y mejorando la fluidez en la comunicación.
- Capacidades de visión y análisis de datos:: Ahora es posible subir imágenes y documentos para análisis y conversación, y se ha mejorado la capacidad de análisis de datos en tiempo real, lo que ofrece una experiencia más rica y útil.
Ejemplos específicos de uso de visión y análisis de datos
El nuevo modelo puede facilitar tanto la comprensión visual de problemas complejos como el análisis de datos en tiempo real, integrándose en flujos de trabajo y ayudando a los usuarios en tareas académicas, profesionales y cotidianas. Algunas características:
1- Uso de Visión en ChatGPT
- Resolución de problemas matemáticos:: Un ejemplo mostrado fue el uso de la capacidad de visión para resolver una ecuación lineal. Un usuario escribió una ecuación en una hoja de papel, la mostró a ChatGPT, y el modelo identificó la ecuación y proporcionó pistas para resolverla paso a paso.
- Análisis de imágenes y documentos:: Los usuarios pueden subir capturas de pantalla, fotos y documentos que contienen tanto texto como imágenes. ChatGPT puede analizar este contenido y entablar conversaciones sobre él. Esto incluye la capacidad de interpretar gráficos y anotaciones en imágenes.
2. Análisis de Datos Avanzado:
- Generación y análisis de gráficos:: En la demostración, se mostró cómo ChatGPT puede generar gráficos a partir de datos y analizarlos. Un ejemplo fue la creación de un gráfico de temperaturas a partir de datos meteorológicos, donde ChatGPT describió las tendencias y eventos significativos, como una gran lluvia en septiembre.
- Uso de funciones personalizadas:: Se ejemplificó cómo una función personalizada puede suavizar datos de temperatura aplicando una media móvil. ChatGPT explicó cómo esta función afecta los datos y cómo se visualizan en el gráfico resultante.
Implementación de nuevas capacidades de voz y visión en aplicaciones prácticas:
GPT-4o es una herramienta poderosa y versátil, capaz de integrarse en diversas aplicaciones prácticas, mejorando la eficiencia y la accesibilidad en múltiples sectores. Algunos ejemplos:
1. Capacidades de Voz:
- Interacción Conversacional: La integración de capacidades de voz permite que GPT-4o participe en conversaciones naturales. Un ejemplo en el video muestra cómo un usuario puede hablar directamente con ChatGPT, recibir respuestas verbales y continuar la conversación sin interrupciones.
- Asistencia en Tiempo Real: En aplicaciones prácticas, esto puede ser útil para asistentes personales digitales, donde los usuarios pueden dictar comandos, hacer preguntas y recibir respuestas sin necesidad de escribir. Esto mejora la accesibilidad para personas con discapacidades y optimiza la eficiencia en entornos donde las manos están ocupadas, como en cocinas o talleres.
2. Capacidades de Visión:
- Análisis de Imágenes y Documentos: Los usuarios pueden subir imágenes de documentos, gráficos o incluso escenas cotidianas. GPT-4o puede analizar estas imágenes, extraer información relevante y proporcionar resúmenes o interpretaciones útiles. Por ejemplo, un profesional de la salud podría subir una imagen de una radiografía para recibir una interpretación preliminar de ChatGPT.
- Resolución de Problemas Visuales: En el video se muestra cómo un usuario puede subir una imagen de un problema matemático escrito a mano, y GPT-4o puede interpretar la imagen, identificar la ecuación y proporcionar una guía paso a paso para resolverla. Esto es especialmente útil en contextos educativos, donde los estudiantes pueden necesitar ayuda con problemas complejos presentados en formatos no digitales.
3. Aplicaciones en el Mundo Real::
- Mejora en el Servicio al Cliente: Empresas pueden utilizar GPT-4o para mejorar la interacción con clientes a través de chatbots que entienden y responden a consultas verbales y visuales. Esto puede incluir la interpretación de capturas de pantalla de errores o problemas técnicos y proporcionar soluciones inmediatas.
- Automatización de Procesos: Las capacidades de visión y análisis de datos permiten automatizar procesos complejos que antes requerían intervención humana. Por ejemplo, en el campo de la logística, GPT-4o puede analizar imágenes de inventarios y generar informes automáticos sobre el estado de los productos.
Otra de las características presentadas e ha sido la disponibilidad de su versión de escritorio, también para iPad en la que será posible invocar a la IA para que esta nos ayude en nuestras tareas del día a día, con diferentes aplicaciones, gracias a su capacidad para “ver” lo que estamos haciendo. Os dejo con un video muy interesante relacionado con un caso de uso relativo a la formación que es simplemente espectacular.
Dos modelos conversacionales muy avanzados GPT-4o y PI de Inflection AI
GPT-4o de OpenAI y PI de Inflection AI son dos avanzados modelos de inteligencia artificial que han transformado la interacción por voz. GPT-4o se destaca por su capacidad multimodal que incluye texto, audio, imagen y video, ofreciendo respuestas ultrarrápidas y una interpretación avanzada de tono y ruidos de fondo, lo cual es ideal para aplicaciones en tiempo real como asistentes virtuales y servicios automatizados de atención al cliente. En contraste, PI se enfoca en la personalización y la empatía, soportando interacciones por voz en plataformas como WhatsApp y Messenger, y es especialmente útil para aplicaciones de soporte emocional y coaching personal, gracias a su capacidad para adaptarse a las emociones y necesidades del usuario .
Apasionante ¿verdad? Y estamos solo al principio de esta película…
¿Y tú qué piensas, cómo ves estos avances? Déjame tus reflexiones en los comentarios 🙂
¿Buena semana!