OpenAI CTO Mira Murati sagte, dass GPT-4O während einer Produktpräsentation im OpenAI-Büro in San Francisco (USA) Intelligenz auf der Intelligenz „GPT-4-Ebene“ hat, aber der Text hat mehr Fähigkeiten in visueller und auch solid. Murati, "GPT-4O-Sound, Text und visuelle Bilder versteht", sagte er. "Und wenn wir der Meinung sind, dass die Interaktion zwischen uns und den Maschinen kommen wird, ist dies äußerst wichtig."

Das Vorgängermodell, GPT-4 Turbo, wurde mit visueller und Textkombination trainiert. Er kann Bilder und Text analysieren, um Aufgaben wie das Erstellen von Text aus Bildern und sogar das Definieren des Inhalts dieser Bilder auszuführen. Im Gegensatz dazu fügte der GPT-4O diese Talente hinzu. Der GPT-4O erhielt ein Kontextfenster von 128.000 Münzen.

GPT-4O wird die Leistung von Chatgpt künstlicher Intelligenz erheblich erhöhen. Zweitens unterstützt die Chat-Roboter-Antworten seit langem einen Klangmodus, in dem die Antwort auf den Text mit dem Konversationsmodell verwendet wird. Der GPT-4O stärkt diese Funktion und ermöglicht es den Benutzern, mit dem Chat-Roboter eher wie ein Assistent zu interagieren. Zum Beispiel können Sie ihm eine Frage stellen und sein Versprechen stoppen, wenn er antwortet. Laut OpenAI bietet „Echtzeit erzeugt je nach aktueller Situation einen Sound in„ verschiedenen emotionalen Stilen “

Der GPT-4O wird auch die visuellen Funktionen von ChatGPT verbessern. Chatgpt, laut einem vorgeschlagenen Foto- oder Desktop -Bildschirm "Was ist in diesem Code los" von "Welches Brand -Shirt trägt?" Es wird in der Lage sein, die entsprechenden Fragen schnell zu beantworten.

In Zukunft werden die Fähigkeiten des Modells erweitert. Wenn der GPT-4O zum Beispiel ein Menü erlaubt, das fotografiert wurde, sagt Murati, dass er in Zukunft die Regeln mithilfe von Chatgpt „ansehen“ und erklären kann

Ab heute steht der GPT-4O sowohl bezahlten als auch kostenlosen ChatGPT-Benutzern zur Verfügung, aber das Nachrichtenlimit für Abonnenten von bezahlten Chatgpt Plus und Teamplänen „5-mal höher“ . Wenn das Limit überschritten wird, wechselt CatGPT automatisch zu GPT-3,5 für kostenlose Benutzer und GPT-4 für bezahlte Benutzer.

Die kostenlosen Benutzer von ChatGPT interagieren mit dem GPT-4O, während nur für bezahlte Abonnenten auf einige Funktionen zugreifen können. Aktualisierter Chatbot kann nicht nur im Modell für künstliche Intelligenz, sondern auch im Internet nach Informationen suchen. Daten analysieren und Grafiken erstellen; Es wird mit speziellen Grafiken und Dateien funktionieren. Und wird auch besser an die vorherigen Benutzerinteraktionen erinnern. Kostenlose Benutzer können auch auf den GPT -Store zugreifen.

OpenAI unterstützt GPT-4O mehr Sprachen mit fortgeschrittener Leistung in 50 verschiedenen Sprachen In der OpenAI-API hat der GPT-4O doppelt so schnelle, halbpreisige und höhere Geschwindigkeitsgrenzen wie GPT-4 (insbesondere GPT-4-Turbo).

Sound Support ist derzeit nicht in der GPT-4O-API für alle Clients enthalten. OpenAI, aufgrund des Missbrauchsrisikos, unterstützte die neue GPT-4O-Klangfunktionen zum ersten Mal in den kommenden Wochen "eine kleine zuverlässige gemeinsame Gruppe" , dass sie vorgestellt werden soll.