Openai introdujo GPT-4O, un poderoso modelo de inteligencia artificial (AI) con un poderoso moderno multimod para las soluciones de desarrolladores y de consumo en las próximas semanas. El "O", llamado GPT-4O, significa Omni (integral) y muestra que el GPT-4O está multimodado.
Operai CTO Mira Murati dijo que durante una presentación de productos en la oficina de Operai en San Francisco (EE. UU.), GPT-4O tiene inteligencia en la inteligencia del "nivel GPT-4", pero el texto tiene mayores habilidades en visuales y también sonidos. Murati, "GPT-4O Sound, Text and Visual Images entiende", dijo. "Y cuando pensamos que vendrá la interacción entre nosotros y las máquinas, esto es extremadamente importante".
El modelo anterior, GPT-4 Turbo, fue entrenado con combinación visual y de texto. Puede analizar imágenes y texto para realizar tareas como producir texto a partir de imágenes e incluso definir el contenido de estas imágenes. En contraste, el GPT-4O se agregó a estos talentos. El GPT-4O recibió una ventana de contexto de 128,000 monedas.
GPT-4O aumentará significativamente el rendimiento del chatgpt de inteligencia artificial. En segundo lugar, las respuestas del robot de chat han admitido durante mucho tiempo un modo de sonido en el que la respuesta al texto se usa utilizando el modelo de conversación, pero el GPT-4O fortalecerá esta función y permitirá a los usuarios interactuar con el robot de chat más como un asistente. Por ejemplo, puede hacerle una pregunta y detener su promesa cuando responde. Según Openai, el modelo GPT-4O proporciona "VE en tiempo real genera un sonido en respuesta en" diferentes estilos emocionales "
El GPT-4O también mejorará las capacidades visuales de ChatGPT. Chatgpt, según una foto o pantalla de escritorio propuesta, "¿Qué está pasando en este código" de "¿Qué camisa de marca lleva puesto?" Podrá responder rápidamente las preguntas relevantes.
En el futuro, las capacidades del modelo se ampliarán. Si el GPT-4O ahora permite, por ejemplo, un menú que ha sido fotografiado, Murati dice que puede "mirar"
A partir de hoy, el GPT-4O estará disponible para los usuarios de ChatGPT pagados y gratuitos, pero el límite de mensajes para los suscriptores de ChatGPT Plus y los planes de equipo "5 veces más alto" . Si se excede el límite, CATGPT cambiará automáticamente a GPT-3.5 para usuarios gratuitos y GPT-4 para usuarios pagados.
Los usuarios gratuitos de ChatGPT interactúan con el GPT-4O, mientras que solo disponible para los suscriptores pagados podrán acceder a algunas características. El chatbot actualizado podrá buscar información no solo en el modelo de inteligencia artificial sino también en Internet; analizar datos y crear gráficos; Funcionará con imágenes y archivos especiales; Y también recordará mejor las interacciones del usuario anteriores. Los usuarios gratuitos también podrán acceder a la tienda GPT.
Operai dijo que GPT-4O admite más idiomas con rendimiento avanzado en 50 idiomas diferentes En la API de OpenAI, el GPT-4O tiene el doble de límites de velocidad rápidos, a mitad y más altos que GPT-4 (especialmente GPT-4 Turbo).
El soporte de sonido actualmente no está incluido en la API GPT-4O para todos los clientes. OpenAi, debido al riesgo de abuso, el nuevo soporte de capacidades de sonido GPT-4O por primera vez en las próximas semanas "Un pequeño grupo común confiable" anunció que planea presentar.