ChatGPT scannt dich – und ruft notfalls die Polizei

Einklappen
X
 
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge
  • master
    Administrator
    • 02.09.2024
    • 4695

    #1

    ChatGPT scannt dich – und ruft notfalls die Polizei


    ChatGPT scannt dich – und ruft notfalls die Polizei OpenAI will mit neuen Regeln Leben retten – aber wie viel Privatsphäre bleibt dabei auf der Strecke? Kurzfassung | Andreas Becker, 28.08.25
    gpt-image-1 | All-AI.de EINLEITUNG ChatGPT soll Nutzer schützen – notfalls auch mit Polizei. OpenAI prüft seit Kurzem automatisiert die Inhalte von Gesprächen mit seinem KI-Chatbot auf mögliche Gefährdungen. Droht jemand anderen ernsthaft zu verletzen, schaltet das Unternehmen in Ausnahmefällen die Behörden ein. Selbstverletzendes Verhalten bleibt davon zunächst ausgenommen. Der Schritt kommt nach wachsendem Druck durch tragische Einzelfälle und juristische Klagen. NEWS Wie OpenAI gefährliche Chats erkennen will OpenAI setzt auf ein zweistufiges System: Künstliche Intelligenz analysiert alle Eingaben auf verdächtige Inhalte. Wenn ein Gespräch potenziell auf Gewalt gegen andere hindeutet, landet es bei einem kleinen Team speziell geschulter Mitarbeiter. Diese prüfen, ob eine echte Gefahr vorliegt. Bei akuter Bedrohung kann OpenAI den Fall an die Polizei weitergeben. Droht sich ein Nutzer selbst etwas anzutun, will das Unternehmen aus Gründen der Privatsphäre keine Strafverfolgung einschalten. Stattdessen soll ChatGPT in solchen Fällen Hinweise auf Hilfsangebote geben. Neben diesen Sofortmaßnahmen plant OpenAI neue Funktionen, die speziell Jugendliche schützen sollen. Geprüft wird zum Beispiel, ob Eltern in bestimmten Situationen informiert werden können. Außerdem soll ChatGPT in Zukunft besser erkennen, wenn Gespräche in eine gefährliche Richtung abgleiten – besonders bei sehr langen Unterhaltungen, in denen die bisherigen Schutzmechanismen oft an ihre Grenzen stoßen. Was hinter der Entscheidung steckt Der Auslöser für die aktuellen Änderungen ist eine Klage in den USA: Die Eltern eines 16-Jährigen machen ChatGPT mitverantwortlich für den Suizid ihres Sohnes. Laut den veröffentlichten Chatverläufen soll die KI suizidale Gedanken nicht gestoppt, sondern sogar unterstützt haben. OpenAI äußerte sich bislang nicht zu den Details, kündigte aber umgehend technische und organisatorische Verbesserungen an. Gleichzeitig steht das Unternehmen in der Öffentlichkeit unter Druck, weil es Datenschutz und Sicherheit nicht immer glaubwürdig in Einklang bringt. Einerseits betont OpenAI den Schutz persönlicher Daten, zum Beispiel in einem laufenden Rechtsstreit mit Medienhäusern. Andererseits räumt der Chef Sam Altman offen ein, dass Gespräche mit der KI nicht dieselbe Vertraulichkeit genießen wie etwa bei Psychologen oder Anwälten. Was Nutzer jetzt wissen sollten Wer ChatGPT nutzt, sollte sich bewusst sein: Die Inhalte der Unterhaltungen können automatisiert geprüft und in Einzelfällen von Menschen gelesen werden – vor allem bei Anzeichen für Gewalttaten. Das betrifft zwar nur sehr wenige Fälle, zeigt aber, dass KI-Systeme wie ChatGPT keine geschützten Räume sind. Das System muss dabei eine schwierige Balance halten: Es soll früh genug eingreifen, wenn Gefahr besteht – aber nicht überreagieren. Denn jedes Wort zählt. Schon kleine Veränderungen im Text können darüber ent*******n, ob ein Chat auffällt oder nicht. OpenAI will deshalb die Schwellenwerte anpassen und die Reaktionen besser auf verschiedene Situationen abstimmen. Ziel ist, Risiken früh zu erkennen – und Menschen in echten Krisen schneller zu helfen. DEIN VORTEIL - DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube - Kanal PayPal - Kaffee KURZFASSUNG
    OpenAI prüft nun automatisiert alle ChatGPT-Gespräche auf potenzielle Gewaltandrohungen.
    Bei ernsthafter Gefahr kann das Unternehmen die Polizei informieren – Selbstgefährdung ist davon ausgenommen.
    Der Schritt folgt auf öffentliche Kritik und eine Klage nach dem Suizid eines Teenagers.
    ChatGPT soll künftig besser auf Jugendliche abgestimmt und bei langen Gesprächen sensibler reagieren.
    QUELLEN
    OpenAI
    The Verge
    heise online
    ZEIT ONLINE
    CBS News

    Weiterlesen...
Lädt...