
Schöne Worte, leerer Inhalt – GPT-5s Sprachproblem Klingt wie Kunst, ist aber Kauderwelsch: GPT-5 erzeugt Texte, die vor allem Maschinen gefallen. Wie gefährlich ist das für Nutzer? Kurzfassung | Andreas Becker, 31.08.25
gpt-image-1 | All-AI.de EINLEITUNG GPT-5 soll laut OpenAI Texte mit „literarischer Tiefe und Rhythmus“ schreiben können. Das klingt nach Fortschritt, fast nach einem Autor mit künstlicher Intelligenz. Doch ein Test zeigt: Was auf den ersten Blick poetisch wirkt, ist beim zweiten Hinsehen oft sinnfreies Geschwafel. Besonders seltsam: Andere KI-Modelle halten genau diesen Unsinn für echte Literatur. Offenbar hat GPT-5 gelernt, eine Sprache zu sprechen, die nicht für Menschen gedacht ist – sondern für andere KIs. NEWS Literarisch? Nur auf den ersten Blick Christoph Heilig, Forscher aus München, hat GPT-5 auf die Probe gestellt. Er ließ die KI etwa den Anfang einer Satire im Stil von Ephraim Kishon schreiben. Heraus kam ein Satz wie: „Ich richtete den Pop-Schutz, als wollte ich höflich die Zähne der deutschen Sprache zählen.“ Klingt erstmal kreativ. Aber was soll das bedeuten? Der Satz wirkt poetisch, ergibt aber inhaltlich wenig Sinn. Auch andere Textbeispiele bleiben bei genauerem Lesen unklar. GPT-5 trifft den Ton, aber nicht den Punkt. Das Problem: Das Modell baut schöne Sätze, die nach Bedeutung klingen – ohne wirklich etwas auszusagen. Solche Prosa nennt man oft „blumig“ oder „überladen“. Sie wirkt gebildet, trägt aber wenig Inhalt. Für kreative Texte wie Satire oder Poesie ist das ein echtes Problem, denn dort zählt nicht nur Klang, sondern auch Präzision.
Andere KIs lassen sich täuschen Noch kurioser: Andere Sprachmodelle, etwa Claude von Anthropic, bewerten genau solche Texte sehr positiv. Sie halten sie sogar für menschlich geschrieben. Wie kann das sein? Eine mögliche Erklärung: Beim Training wurde GPT-5 nicht nur von Menschen, sondern auch von anderen KIs bewertet. Wenn diese „Richter-KIs“ auf bestimmte Textmerkmale anspringen – etwa komplexe Wörter oder bestimmte Satzmuster – lernt GPT-5, genau das zu liefern. Auch wenn es für Menschen keinen Sinn ergibt. Studien zeigen: Viele KI-Bewertungssysteme lassen sich leicht austricksen. Schon kleine stilistische Änderungen können ihre Meinung kippen. GPT-5 scheint das gezielt auszunutzen. Es produziert Texte, die anderen KIs gefallen – selbst wenn sie für Menschen wie Kauderwelsch wirken. Heilig nennt das eine „Geheimsprache“, die unter KIs funktioniert, aber Menschen ausschließt. Was das für Nutzer bedeutet Für normale Nutzer heißt das: Wer GPT-5 kreativ einsetzt, sollte genau hinschauen. Literarisch klingende Texte wirken beeindruckend, sind aber nicht automatisch sinnvoll. Vor allem bei satirischen, künstlerischen oder tiefgründigen Aufgaben stößt GPT-5 an Grenzen. Der Klang stimmt – der Inhalt oft nicht. Für Entwickler und Firmen ist das ein Hinweis: Bewertungssysteme, die auf anderen KIs basieren, haben blinde Flecken. Sie erkennen nicht immer, ob ein Text wirklich gut ist – oder nur gut klingt. Wer also neue KI-Funktionen testet oder einsetzt, sollte sich nicht allein auf automatisierte Bewertungen verlassen. Sonst wird aus scheinbarer Intelligenz schnell schöner Unsinn. DEIN VORTEIL - DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube - Kanal PayPal - Kaffee KURZFASSUNG
GPT-5 erzeugt literarisch klingende Texte, die oft keinen klaren Sinn ergeben.
Andere KIs halten diese Texte dennoch für hochwertige Literatur.
Grund dafür könnten Trainingsprozesse sein, bei denen KIs andere KIs bewerten.
Nutzer sollten bei kreativen Inhalten genau hinsehen und nicht blind auf die Qualität vertrauen.
QUELLEN
Futurism
Christoph Heilig
OpenAI
arXiv
ACL Anthology
Weiterlesen...