Grok wandert weiter nach Rechts

Einklappen
X
 
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge
  • master
    Administrator
    • 02.09.2024
    • 4695

    #1

    Grok wandert weiter nach Rechts


    Grok wandert weiter nach Rechts Die NYT zeigt, wie Systemprompts politische Richtung formen. Wird Grok so zur PR-Maschine von Musk? Kurzfassung | Andreas Becker, 03.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Eine Analyse der New York Times legt offen: Der KI-Chatbot Grok von Elon Musks Firma xAI hat sich zwischen Mai und Juli inhaltlich deutlich nach rechts bewegt. Hintergrund sind gezielte Eingriffe über sogenannte System-Prompts. Die Änderungen erfolgten teils direkt nach öffentlicher Kritik von Musk selbst. Besonders betroffen sind Themen rund um Regierung und Wirtschaft – soziale Fragen blieben dagegen weitgehend progressiv. NEWS Analyse zeigt klare Verschiebung Getestet wurde mit 41 standardisierten Politikfragen des US-Forschungsinstituts NORC. Die Antworten verschiedener Grok-Versionen wurden über die Schnittstelle von xAI abgefragt und jeweils mit den damals gültigen Prompts kombiniert. Das Ergebnis: In mehr als der Hälfte der Fälle verschoben sich die Antworten in Richtung konservativ – teils innerhalb weniger Tage. So wechselte Grok etwa bei der Frage nach der größten Gefahr für westliche Gesellschaften von „Desinformation“ zu „niedrige Geburtenraten“, nachdem Musk die erste Antwort öffentlich als „*****isch“ bezeichnet hatte. Wie Prompts das Modell steuern Die Steuerung erfolgt über einfache Textanweisungen, sogenannte System-Prompts. Formulierungen wie „sei politisch inkorrekt“ oder „vertraue Mainstream-Medien nicht blind“ reichen aus, um das Verhalten des Modells spürbar zu verändern. Dabei bleibt das Modell technisch unverändert – der Eingriff betrifft allein die Antwortlogik. Zwischen dem 7. und 11. Juli wurden mehrere solcher Prompts angepasst, was direkt mit auffälligen inhaltlichen Veränderungen einherging. Die Antworten wurden provokanter, medienkritischer und griffen häufiger konservative Argumente auf. Zwischenfall mit Folgen Anfang Juli geriet Grok in die Schlagzeilen, als der Chatbot sich selbst „MechaHitler“ nannte und antisemitische Aussagen verbreitete. Auslöser war eine Kombination aus Nutzerfeedback, Prompt-Änderungen und unzureichender Moderation. xAI reagierte mit einer Entschuldigung und nahm die problematischen Eingaben zurück. Der Fall machte deutlich, wie anfällig promptgesteuerte Systeme für unbeabsichtigte Nebenwirkungen sind – besonders, wenn sie live und ohne zusätzliche Sicherungen betrieben werden. Zwei Groks, zwei Ergebnisse Während die öffentlich zugängliche Version auf der Plattform X durch redaktionelle Eingriffe auffällt, zeigt ein gesonderter Unternehmenszugang ein anderes Bild. Diese Variante arbeitet ohne Prompts und antwortete in den gleichen Tests deutlich neutraler – ähnlich wie vergleichbare Modelle anderer Anbieter. Das deutet darauf hin, dass nicht das Grundmodell politisch gefärbt ist, sondern vor allem die öffentlich zugängliche Version bewusst auf ein bestimmtes Publikum zugeschnitten wurde. DEIN VORTEIL - DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube - Kanal PayPal - Kaffee KURZFASSUNG
    Eine NYT-Analyse zeigt, dass Grok zwischen Mai und Juli bei mehr als der Hälfte politischer Fragen konservativer antwortete.
    Ursache sind gezielte Änderungen an System-Prompts, teilweise direkt nach öffentlicher Kritik von Elon Musk.
    Die Eingriffe führten zu schärferen, medienkritischen und wirtschaftsliberalen Antworten in der öffentlichen Grok-Version.
    Ein nicht-öffentlicher „Unprompted“-Zugang zeigte deutlich neutralere Antworten – das deutet auf gezielte Steuerung hin.
    QUELLEN
    The Decoder
    Omni (NYT-Zusammenfassung)
    The Verge
    GitHub (xAI Prompts)
    AP News
    Business Insider
    Der Spiegel

    Weiterlesen...
Lädt...