Anthropic nutzt deine Daten für KI-Training - einfach so!

Einklappen
X
 
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge
  • master
    Administrator
    • 02.09.2024
    • 4695

    #1

    Anthropic nutzt deine Daten für KI-Training - einfach so!


    Anthropic nutzt deine Daten für KI-Training - einfach so! Warum du jetzt aktiv handeln musst, wenn du deine Daten schützen willst Kurzfassung | Andreas Becker, 29.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Anthropic ändert den Umgang mit Chat-Daten in seiner Plattform Claude. Wer den neuen Bedingungen bis zum 28. September nicht widerspricht, erlaubt dem Unternehmen, seine Chats künftig zum Training neuer KI-Modelle zu verwenden. Die Inhalte können dann bis zu fünf Jahre gespeichert werden. Betroffen sind alle privaten Nutzer – von Claude Free bis Claude Max. Unternehmen, Behörden und API-Zugänge sind ausgenommen. Brisant ist dabei vor allem die Art, wie Anthropic die Zustimmung einholt. NEWS Stillschweigende Zustimmung statt freiwilliger Auswahl Zum ersten Mal will Anthropic Daten aus Chats gezielt fürs KI-Training nutzen. Bisher war das nicht der Fall. Die neue Regelung betrifft nur neue oder erneut geöffnete Gespräche. Wer nichts tut, stimmt automatisch zu. Diese Zustimmung verlängert auch die Speicherzeit deutlich – von bisher 30 Tagen auf bis zu fünf Jahre. Nur durch aktives Deaktivieren der Trainingsfreigabe bleibt es bei der kurzen Frist. Laut Anthropic soll das helfen, die Entwicklung neuer Modelle verlässlicher zu gestalten. Denn wenn sich die Datengrundlage nicht ständig verändert, können die Modelle über Jahre hinweg konsistenter reagieren. Wer später seine Meinung ändert, kann das Training wieder abschalten. Bereits verwendete Inhalte lassen sich jedoch nicht mehr aus früheren Modellen entfernen. Kritik an der Benutzerführung Besonders heftig wird das neue Pop-up kritisiert, mit dem Anthropic die Umstellung umsetzt. Der „Akzeptieren“-Button ist auffällig gestaltet und lädt zum schnellen Klicken ein. Der ent*******nde Schalter, der über die Nutzung der Daten fürs KI-Training ent*******t, ist dagegen klein, unauffällig platziert und bereits aktiviert. Solche Methoden werden als „Dark Patterns“ bezeichnet – also Designs, die Nutzer bewusst in eine Richtung lenken. Laut europäischem Recht gilt eine Zustimmung nur dann als gültig, wenn sie freiwillig, eindeutig und gut informiert erfolgt. Vorausgewählte Optionen oder versteckte Hinweise reichen dafür nicht. Ob Datenschützer aktiv werden, ist noch offen – aber der Vorwurf steht im Raum. Vergleich mit anderen Anbietern Anthropic orientiert sich mit dieser Änderung an einem Vorgehen, das bei anderen KI-Diensten längst Standard ist. Auch bei ChatGPT sind persönliche Daten standardmäßig für das Training freigegeben, wenn man das nicht selbst ändert. Allerdings war dort die Regel von Anfang an bekannt. Bei Anthropic ist es eine neue Richtlinie – und betrifft daher auch bestehende Nutzer. Geschäftskunden sind in beiden Fällen außen vor. Chats über Claude for Work, API-Zugänge oder Bildungsangebote werden nicht für das Training verwendet. Für Privatanwender bedeutet das aber: Wer Claude weiter nutzen will, muss aktiv handeln. DEIN VORTEIL - DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube - Kanal PayPal - Kaffee KURZFASSUNG
    Anthropic will künftig Chatverläufe privater Claude-Nutzer zum Training neuer KI-Modelle nutzen – stillschweigende Zustimmung vorausgesetzt.
    Wer bis zum 28. September nicht widerspricht, erlaubt die Speicherung und Nutzung der Inhalte für bis zu fünf Jahre.
    Kritik gibt es vor allem wegen manipulativer Benutzerführung und versteckter Voreinstellungen.
    Nur durch aktives Abschalten des Trainingsopt-ins bleiben die alten Datenschutzbedingungen erhalten.

    QUELLEN
    Anthropic Consumer Terms
    The Verge Bericht zu Anthropic
    heise online Meldung
    TechCrunch Analyse
    EDPB Leitlinien zu Dark Patterns
    OpenAI Trainingsdaten-Opt-out

    Weiterlesen...
Lädt...