
Nano Banana
Kurzfassung
▾
Quellen
▾
OpenAI behauptet in einer neuen Studie, die politische Voreingenommenheit in den GPT-5-Modellen um 30 Prozent reduziert zu haben.
Ein internes Testverfahren mit 500 Fragen zu 100 Themen zeigte, dass die neuen Modelle widerstandsfähiger gegenüber ideologisch aufgeladenen Anfragen sind.
Die Veröffentlichung erfolgt unter politischem Druck der US-Regierung, während Experten die mangelnde Transparenz der Studie kritisieren.
Während die EU mit dem AI Act auf Regulierung setzt, bleibt die vollständige Neutralität von KI eine ungelöste Herausforderung.
The Verge
OpenAI Official Blog
CryptoRank
TechEDT
The Register
OpenAI hat eine neue Studie veröffentlicht, die eine signifikante Reduzierung politischer Voreingenommenheit in seinen neuesten KI-Modellen belegen soll. Laut dem Unternehmen zeigen die GPT-5-Modelle eine um 30 Prozent geringere politische Schlagseite. Diese Ankündigung fällt in eine Zeit hitziger Debatten um KI-Neutralität. Neutralität auf dem Prüfstand Das KI-Unternehmen hat ein internes Testverfahren entwickelt, um politische Tendenzen zu messen. Das zuständige "Model Behaviour"-Team prüfte die Reaktionen der KI auf rund 500 verschiedene Anfragen. Diese deckten 100 politische und kulturelle Themen ab und wurden aus verschiedenen ideologischen Perspektiven formuliert, von neutral bis emotional aufgeladen. Die Forscher identifizierten dabei fünf Arten von Verzerrungen, darunter das Äußern persönlicher Meinungen oder die einseitige Darstellung von Sachverhalten. Die neuen Modelle, GPT-5 Instant und GPT-5 Thinking, schnitten im Vergleich zu den Vorgängern GPT-4o und o3 deutlich besser ab. Sie zeigten sich widerstandsfähiger gegenüber provokanten Anfragen. Laut OpenAI weisen Analysen von realen Nutzerdaten darauf hin, dass weniger als 0,01 Prozent aller ChatGPT-Antworten Anzeichen politischer Voreingenommenheit enthalten. Eine interessante Beobachtung war, dass stark liberal formulierte Anfragen tendenziell mehr Voreingenommenheit hervorriefen als konservative. Politischer Gegenwind und Expertenzweifel Die Veröffentlichung der Studie erfolgt vor dem Hintergrund eines wachsenden politischen Drucks in den USA. Die Trump-Administration fordert von KI-Unternehmen ideologisch neutrale Modelle. Eine entsprechende Executive Order aus dem Juli 2025 verbietet US-Behörden die Beschaffung von KI-Systemen, die als "woke" eingestuft werden könnten. OpenAI steht damit vor der Herausforderung, die Neutralität seiner Modelle zu beweisen. Gleichzeitig äußern unabhängige Experten Kritik. Sie bemängeln die fehlende Transparenz der internen Studie, da OpenAI weder die genutzten Testfragen noch die vollständige Methodik offengelegt hat. Kritiker argumentieren, dass interne Bewertungen oft nicht das messen, was sie zu messen vorgeben. Die Frage bleibt, ob eine KI, die auf von Menschen erstellten Daten trainiert wurde, jemals vollständig neutral sein kann. Regulierung und die offene Zukunftsfrage Während in den USA der politische Druck wächst, schafft die Europäische Union mit dem AI Act einen rechtlichen Rahmen. Artikel 10 des Gesetzes verpflichtet Anbieter von Hochrisiko-KI-Systemen, Voreingenommenheit in ihren Datensätzen zu erkennen und zu minimieren. OpenAI selbst räumt ein, dass die Beseitigung ideologischer Tendenzen in Sprachmodellen eine ungelöste Forschungsaufgabe bleibt. Das Unternehmen hat weitere Ergebnisse für die kommenden Monate angekündigt. Die Debatte um die Definition von Fairness und Neutralität in der KI hat damit erst begonnen.
Weiterlesen...