Games Music Hörbücher Gymondo MyTone Alle Services
vodafone.de

GPT-4o von OpenAI: Das musst Du zum neuen KI-Modell wissen

Am 13. Mai hat das Tech-Unternehmen OpenAI mit GPT-4o sein neues und verbessertes KI-Modell vorgestellt. Was die Erweiterung von ChatGPT kann und warum der Launch von OpenAIs GPT-4o für Aufsehen gesorgt hat, erfährst Du bei uns. 
GPT-4o von OpenAI: Das musst Du zum neuen KI-Modell wissen
GPT-4o von OpenAI: Das musst Du zum neuen KI-Modell wissen

Dir steht ein Vorstellungsgespräch bevor. Dein Kleiderschrank gibt nicht besonders viel her und auch Dein:e Mitbewohner:in ist nicht da, um Dir Feedback zu geben. Sitzen die Haare? Sollte es lieber ein ausgefallener Blazer oder doch ein schlichter Pulli sein? Die Lösung von OpenAI ist: Kamera an und GPT-4o fragen.

Über mediale Grenzen hinweg verbindet das neue KI-Modell Text, Bild und Audio und interagiert auf verblüffend menschlicher Ebene mit Dir. Siehe selbst, wie die Vorbereitung auf ein Vorstellungsgespräch mit GPT-4o aussehen kann:

Bitte akzeptieren Sie die Nutzung von Drittanbieter-Einbindungen mit einem Klick auf den folgenden Button:

Doch das ist noch lange nicht alles, was GPT-4o von OpenAI kann. Mehr Details zum neuen KI-Modell liest Du jetzt.

GPT-4o kommuniziert multimodal: Das macht ChatGPTs kleiner Bruder anders 

Bestimmt fragst Du Dich, was sich hinter dem „o“ in der Bezeichnung des neuen KI-Modells verbirgt. Dem Buchstaben liegt der lateinische Begriff „omni“ zugrunde, was so viel wie „alles“ heißt. Der bedeutendste Fortschritt von GPT-4o liegt nämlich in seiner Multimodalität. Das heißt, dass das Modell über nur eine einzige Benutzeroberfläche Informationen aus Sprache, Text und Bildern verstehen und darauf reagieren kann. GPT-4 ist bereits einen Schritt in diese Richtung gegangen – hier hat sich die Anwendung jedoch nur auf die Analyse von Bildern beschränkt.

Während Du bei den vorherigen GPT-Versionen den Kontext Deines Problems nur text- und bildbasiert eingeben konntest, hast Du jetzt zum Beispiel die Möglichkeit, Deine Kamera einzuschalten und GPT-4o Dein Problem in Echtzeit zu zeigen. Kannst Du Deine Kamera nicht nutzen, kommunizierst Du über reines Audio mit der KI.

Egal, ob Du einen Text analysieren, ein Bild interpretieren oder eine Unterhaltung führen willst – alles soll nahtlos kombiniert und verarbeitet werden. GPT-4o eröffnet Dir damit ganz neue Anwendungsbereiche und kreative Möglichkeiten der Nutzung.

Tipp: Probier’s doch mal aus – denn GPT-4o ist für alle frei nutzbar!

GPT-4o: Diese Neuheiten hat OpenAI im Gepäck

Mit den folgenden Funktionen überholt GPT-4o nun ChatGPT-4 und ändert die Kommunikation mit dem KI-Assistenten:

1) Schnellere Geschwindigkeiten: Präzise Antworten in kürzester Zeit

Vermutlich kennst Du es von anderen Chat-Bots: Du stellst eine Frage und musst erst einmal warten, bis eine Antwort generiert wird. GPT-4o liefert im Vergleich zu GPT-4 deutlich schneller Antworten, die es Dir ermöglichen, Gespräche in Echtzeit zu führen. Das macht nicht nur Spaß, sondern Deine Kommunikation mit der KI auch wesentlich effizienter.

2) GPT-4o ist multilingual: Dolmetschen in bis zu 50 Sprachen

Mit dem Feature, in 50 verschiedenen Sprachen kommunizieren zu können, ist GPT-4o ein global einsetzbares Werkzeug. Egal, ob Du in Spanisch, Mandarin oder einer anderen Sprache kommunizieren möchtest – GPT-4o kann als Dolmetscher fungieren. Der nachfolgende Clip zeigt, wie eine etwaige Übersetzungssituation aussehen kann:

Bitte akzeptieren Sie die Nutzung von Drittanbieter-Einbindungen mit einem Klick auf den folgenden Button:

3) Desktop-App: Flexible Nutzung von GPT-4o

Mit der Einführung der Desktop-App von GPT-4o wird der Zugang zu den Funktionen flexibler. Du fragst Dich, wann Du die Anwendung herunterladen kannst? Mit dem Release für macOS kannst Du bereits zeitnah rechnen. Windows-Nutzer:innen dagegen müssen sich noch bis zum Herbst oder Winter gedulden.

4) Verbesserte Sprachfunktionen: GPT-4o klingt jetzt noch menschlicher

Die Entwickler:innen von OpenAI haben bei der neuen ChatGPT-Version die Sprachfunktion deutlich optimiert. Denn im Vergleich zum Vorgänger klingt GPT-4o nicht mehr monoton, sondern füllt das Gesagte mit menschlichen Emotionen. GPT-4o kann auch sarkastisch und humorvoll sein.

Bitte akzeptieren Sie die Nutzung von Drittanbieter-Einbindungen mit einem Klick auf den folgenden Button:

ChatGPT: Diese Befehle musst Du kennen

Aufruhr um GPT-4o: Hat OpenAI unerlaubt die Stimme von Schauspielerin Scarlett Johansson kopiert?

In einem Blogpost erklärt OpenAI, dass sie für GPT-4o fünf verschiedene Stimmen einführen – Breeze, Cove, Ember, Juniper und Sky – die aus über 400 Einsendungen von Synchronsprecher:innen ausgewählt wurden. Eine Stimme darunter sorgte bei Release für besonders viel Aufsehen: Sky soll der „Her“-Darstellerin Scarlett Johansson verblüffend ähnlich klingen, sodass die Frage aufkam, ob OpenAI ohne ihre Erlaubnis ihre Stimme kopiert hat. Daraufhin hat die betroffene Schauspielerin wenige Tage nach dem GPT-4o-Launch über ihre Vertreter:innen folgendes Statement veröffentlicht:

„Im September vergangenen Jahres erhielt ich ein Angebot von (OpenAI-CEO) Sam Altman, der mich engagieren wollte, um das aktuelle ChatGPT 4.0-System zu vertonen. Er sagte, meine Stimme könne die Kluft zwischen Tech-Unternehmen und Kreativen überbrücken und den User:innen helfen, sich mit den Veränderungen durch KI wohlzufühlen.“

Johansson lehnte das Angebot damals aufgrund von persönlichen Gründen ab und drohte OpenAI nach Release von GPT-4o mit einer Klage. Das Tech-Unternehmen gab daraufhin bekannt, die Stimme nicht länger zu verwenden und veröffentlichte eine ausführliche Stellungnahme. Laut OpenAI handelt es sich bei Sky um keine Imitation von Johanssons Stimme – so soll eine professionelle Sprecher:in dahinterstecken, die der Schauspielerin nur ähnlich klingen soll. Die Namen der beteiligten Sprecher:innen wurden beim Statement aus Datenschutzgründen nicht veröffentlicht.

Zugriff auf GPT-4o: Das kostet der KI-Allrounder

Du wirst GPT-4o zukünftig kostenfrei verwenden können, allerdings wird OpenAI ein Limit für die Nutzung des Modells einführen. Sobald Du dieses noch unbekannte Limit erreicht hast, wird ein Upgrade auf einen kostenpflichtigen Plan notwendig sein – die genaue Anzahl der erlaubten Tokens ist jedoch noch unklar. Abonnent:innen hingegen werden mindestens das Fünffache an Kapazität erhalten. Aktuell zur Verfügung stehen zwei Versionen:

• ChatGPT Plus bekommst Du für etwa 18 euro monatlich und kannst das Fünffache an Kapazität nutzen

• ChatGPT Team bekommst Du für etwa 23 Euro pro Person monatlich und hast mit der Team-Version eine noch höhere Kapazität als ChatGPT Plus – auch für GPT-4 und den Bildgenerator DALL-E

• ChatGPT Team erlaubt Dir außerdem einen Arbeitsbereich zu nutzen, in der die Gruppe bis zu 149 Mitglieder haben kann und stellt verschiedene Verwaltungstools zur Verfügung

Übrigens: Im Podcast-Interview mit Bill Gates im Januar 2024 bestätigte Sam Altman, CEO von OpenAI, dass die Entwicklung von GPT-5 bereits in vollem Gange sei. Wir halten Dich bei Neuerungen wie immer up-to-date!

Dieser Artikel GPT-4o von OpenAI: Das musst Du zum neuen KI-Modell wissen kommt von Featured!

© Vodafone GmbH ⁄ Sarah Videla Acuña
Das könnte Dich auch interessieren
Empfehlungen der Redaktion
Harald Schmidt
People news
Harald Schmidt bleibt Scholz-Fan
Lena Klenke
People news
Lena Klenke über AfD-Stimmen junger Wähler enttäuscht
William und Kate
People news
Royale Rückkehr: Lächelnde Kate bei Geburtstagsparade
Meta-Logo
Internet news & surftipps
Meta verzögert Start von KI-Software in Europa
Fußball-EM schauen
Das beste netz deutschlands
Fußball im TV: Warum jubeln die Nachbarn früher?
watchOS 11 angekündigt: Neue Funktionen & unterstützte Modelle
Handy ratgeber & tests
watchOS 11 angekündigt: Neue Funktionen & unterstützte Modelle
Edmonton Oilers
Sport news
NHL-Finals: Furios aufspielende Oilers verkürzen auf 1:3
Gestresster Mann
Gesundheit
Psychische Belastung? 5 Signale, dass alles zu viel wird