OpenAIs „PhD-level“ ChatGPT 5 stolpert, hat Schwierigkeiten, sogar eine Karte zu kennzeichnen.
Als revolutionären Durchbruch vermarktet, sieht sich GPT-5 stattdessen Spott wegen grundlegender Fehler, einer verringerten Persönlichkeit und der Ruhestellung beliebter älterer Modelle ausgesetzt, was zu einer schnellen Gegenreaktion und hastigen Lösungen von OpenAI-CEO Sam Altman führte.
Sam Altman, der lange für seine hohen Versprechungen bezüglich künstlicher Intelligenz bekannt war, bemüht sich nun, die Folgen einzudämmen.
Die neueste Version von OpenAIs gefeiertem Chatbot sollte einen historischen Fortschritt darstellen — ein Modell, das so fortschrittlich ist, dass es wie ein „Doktorand“ kommunizieren kann.
Investoren hatten Milliarden in die Vision gesteckt.
Doch als GPT-5 schließlich erschien, offenbarte es schnell eine verkrampfte, hölzerne Persönlichkeit und eine Unfähigkeit, selbst die einfachsten Aufgaben zuverlässig zu bewältigen.
Der öffentliche Rückschlag war schnell, was das Unternehmen in eine unangenehme Entschuldigung führte, während es gleichzeitig auf das angebliche Genie des Modells bestand.
Kurz gesagt: Es fiel durch.
Das Versagen von GPT-5 sticht aus zwei Gründen hervor.
Erstens unterstrich es die bestehenden Grenzen der generativen KI — Mängel, die Kritiker bereitwillig hervorhoben, oft mit Humor.
Zweitens warf es ernsthafte Zweifel an der Fähigkeit von OpenAI auf, Konsumgüter zu schaffen, für die Menschen bezahlen werden, eine beunruhigende Realität für ein Unternehmen, das mit rund 500 Milliarden Dollar bewertet wird, obwohl es nie einen Gewinn erzielt hat.
Die Veröffentlichung des Modells am vergangenen Donnerstag — bereits ein Jahr hinter dem Zeitplan — wurde als Meilenstein angepriesen.
Altman versprach in einem Livestream, dass GPT-5 sich anfühlen würde wie ein Gespräch mit einem Experten in jedem Fachgebiet.
Er verglich es mit dem Moment, als das iPhone von klobigen, verpixelten Bildschirmen zu klaren Retina-Displays wechselte, und beschrieb es als ein Upgrade, das so bedeutend sei, dass niemand wieder zurückwollen würde.
Dann kam das Publikum in den Genuss.
Fast sofort begannen die Nutzer, die Grenzen zu testen und über die Fehler zu spotten.
Bei der Aufforderung, Porträts der ersten zwölf US-Präsidenten mit ihren Namen zu erzeugen, produzierte GPT-5 nur neun Figuren, versehen mit Rechtschreibfehlern wie „Gearge Washingion“ und „William Henry Harrtson“.
Eine weitere Anfrage für die letzten zwölf Präsidenten lieferte zwei Versionen von George W. Bush, von denen eine wie ein zufälliger Fremder aussah.
Andere teilten noch absurdere Fehler.
Einfache Karten der Vereinigten Staaten kamen fehlerhaft zurück und bezeichneten Staaten als „Tonnessee“, „Mississipo“, „West Wigina“ und sogar das nicht existierende „Yirginia“.
Zunächst wurde die schlampige Ausgabe von Technikenthusiasten als Unterhaltung betrachtet.
Aber viele normale ChatGPT-Nutzer wurden frustriert, insbesondere über die reduzierte Persönlichkeit, die die lebhaftere GPT-4o ersetzt hatte.
Da OpenAI frühere Versionen zugunsten des neuen Modells deaktivierte, fanden sogar langjährige Fans, dass sie aus den bevorzugten Tools ausgeschlossen waren.
Mehr als 4.000 unterzeichneten eine Petition, die die Rückkehr von GPT-4o forderte.
„Ich habe genug von ChatGPT 5“, schrieb ein Reddit-Nutzer und beschrieb, wie der Bot einen einfachen Workflow versaubeutelte, Aufgaben löschte und Fristen zufällig verschob.
Innerhalb von 24 Stunden war Altman bereits im Schadensbegrenzungsmodus.
Er kündigte auf Social Media eine Reihe von Korrekturen an, darunter die Wiederherstellung von GPT-4o für zahlende Kunden.
„Wir haben mit einigen Unebenheiten gerechnet“, gab er zu, „aber es war ein wenig holpriger als wir gehofft hatten.“
Die schnelle Umkehrung zeigte ein größeres Problem: Altman und sein Team schienen unvorbereitet auf die Tatsache, dass 700 Millionen wöchentliche Nutzer tatsächlich auf das Produkt angewiesen sind.
Berichterstattung in großen Medien hat lange die tiefen persönlichen Bindungen dokumentiert, die Menschen zu Chatbots entwickeln, während Foren wie Reddit mit Beispielen gefüllt sind, in denen Nutzer diese in ihren Alltag integrieren.
Einfache Marktanalysen hätten offenbaren müssen, dass das plötzliche Abstellen älterer Modelle Empörung hervorrufen würde.
Auf Rückfragen zum Rückschlag verwies OpenAI lediglich auf Altmans öffentliche Aussagen und einen Blogbeitrag, in dem versprochen wurde, GPT-5 zu verfeinern.
Dennoch hob der Launch eine tiefere Spannung in der KI-Industrie hervor: Unternehmen vermarkten sich als „Labore“, verhüllt in wissenschaftlichem Gewicht, während sie letztendlich als gewinnorientierte Unternehmen agieren, die darum rennen, Konsumgüter zu liefern.
Benchmark-Tests können zeigen, dass GPT-5 in Mathe oder Logik hervorragend abschneidet, aber diese Erfolge sind wenig wert, wenn die Benutzererfahrung unter dem Gewicht überhöhter Erwartungen zusammenbricht.
Indem OpenAI GPT-5 als einen einmaligen Fortschritt anpries, ließ es sich keinen Raum für Fehler.
„Ich hätte ehrlich gesagt nicht gedacht, dass OpenAI den Markennamen für etwas so Mittelmäßiges verbrennen würde“, schrieb der Forscher Gary Marcus und bemerkte, dass das Unternehmen bisher keinen Gewinn erzielt hat, die Preise gesenkt hat, um die Nutzung aufrechtzuerhalten, und Talente verliert, während der Wettbewerb wächst.
Für Kritiker war der Rückschlag eine Bestätigung, ein Zeichen dafür, dass die KI-Blase sich einem Wendepunkt nähern könnte.
Das Gesamtbild ist drastisch: Wenn Menschen von KI sprechen, stellen sie sich oft zwei verschiedene Dinge vor.
Auf der einen Seite steht die KI, die tatsächlich existiert — Chatbots mit engen, ungleichen Fähigkeiten.
Auf der anderen Seite steht die KI, die Unternehmen versprechen — Systeme, die Menschen überdenken, Krankheiten heilen, den Klimawandel lösen und uns alle gleichzeitig unterhalten können.
Mit jeder neuen Veröffentlichung scheint die Kluft zwischen Hype und Realität nur zu wachsen.
CNNs Lisa Eadicicco hat zur Berichterstattung beigetragen.
Newsletter
Related Articles