Anthropic gegen Trump - So wehrt sich der KI-Entwickler gegen Woke-Vorwürfe

Einklappen
X
 
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge
  • master
    Administrator
    • 02.09.2024
    • 5522

    #1

    Anthropic gegen Trump - So wehrt sich der KI-Entwickler gegen Woke-Vorwürfe


    Nano Banana












    Kurzfassung





    Quellen








    Anthropic veröffentlichte am 13. November 2025 ein Open-Source-Tool zur Messung politischer Ausgewogenheit bei KI-Modellen. Claude Sonnet 4.5 erreicht dabei eine Neutralitäts-Quote von 95 Prozent und schlägt damit GPT-5 sowie Llama 4 deutlich. Die Offenlegung erfolgt als Reaktion auf den Druck durch US-Präsident Trumps Erlass gegen politisch einseitige KI in Behörden.







    Anthropic Blog - Measuring political bias in Claude The Verge - Anthropic details how it measures Claude's wokeness TechBuzz - Anthropic Claims Claude Beats GPT-5 in Political Neutrality Score Axios - Anthropic tries to measure bot bias Blockchain News - Anthropic Open-Sources Political Bias Evaluation for Claude AI


    Anthropic reagiert auf den wachsenden politischen Druck aus den USA. Das Unternehmen veröffentlichte am Donnerstag Details zur Messung der politischen Ausrichtung seines KI-Modells Claude. Mit einem neuen Tool will der KI-Entwickler beweisen, dass seine Algorithmen objektiver arbeiten als die Konkurrenz von OpenAI und Meta. Reaktion auf staatliche Vorgaben Die Debatte um politische Voreingenommenheit bei Künstlicher Intelligenz spitzt sich weiter zu. US-Präsident Donald Trump unterzeichnete bereits im Juli einen Erlass, der den Einsatz sogenannter „woke AI“ in Regierungsbehörden untersagt. Tech-Firmen stehen seitdem unter Zugzwang. Sie müssen belegen, dass ihre Systeme keine ideologische Schlagseite haben und für staatliche Aufgaben taugen. Anthropic wählt nun die Flucht nach vorn. Der Konzern legte offen, wie er die politische Balance seiner KI misst. Statt vager Versprechen liefert das Unternehmen harte Zahlen und stellt das Bewertungswerkzeug sogar als Open Source zur Verfügung. Jeder Entwickler kann die Methode überprüfen und für eigene Modelle anwenden. Damit setzt Anthropic einen neuen Standard für Transparenz in der Branche. + Quelle: Anthropic Claude schlägt GPT-5 und Llama 4 Die veröffentlichten Daten zeichnen ein klares Bild zugunsten von Anthropic. Claude Sonnet 4.5 erreicht laut internen Messungen einen Ausgeglichenheitswert von 95 Prozent. Das Modell verhält sich bei politischen Fragen demnach fast vollständig neutral und vermeidet einseitige Positionierungen. Die Konkurrenz schneidet in diesem Vergleich schlechter ab. OpenAI kommt mit GPT-5 auf einen Wert von 89 Prozent. Metas Llama 4 liegt mit lediglich 66 Prozent deutlich dahinter. Mark Zuckerbergs offenes Modell zeigt damit die größte politische Färbung im Testfeld. Diese Zahlen dürften besonders für Unternehmenskunden relevant sein, die neutrale Analysen benötigen. + Quelle: Anthropic Relevanz für den deutschen Markt Das Testverfahren konfrontiert die KI mit Fragen zu kontroversen Themen. Das System muss Argumente für verschiedene politische Lager liefern, ohne eine Seite zu bevorzugen. Anthropic trainiert Claude gezielt darauf, Fakten sauber von Meinungen zu trennen. Diese Neutralität wird auch in Europa wichtiger. In Deutschland achtet die Regierung unter Kanzler Friedrich Merz verstärkt auf digitale Souveränität und neutrale Informationsquellen in der Verwaltung. Ein KI-Modell mit starker US-amerikanischer Schlagseite stößt hierzulande oft auf Skepsis. Der Schritt von Anthropic schafft Vertrauen bei Firmenkunden und Behörden, die Wert auf objektive Datenverarbeitung legen.

    Weiterlesen...
Lädt...