ChatGPT: Teen Safety Blueprint

Einklappen
X
 
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge
  • master
    Administrator
    • 02.09.2024
    • 5522

    #1

    ChatGPT: Teen Safety Blueprint


    Nano Banana












    Kurzfassung





    Quellen








    OpenAI steht wegen sieben Klagen unter Druck, die behaupten, ChatGPT habe Nutzer psychisch geschädigt und in den Suizid getrieben. Ein zentraler Fall betrifft einen 23-jährigen Texaner, dessen Suizidabsichten der Chatbot über Stunden bestärkt haben soll. Als Reaktion veröffentlichte OpenAI einen "Teen Safety Blueprint" mit Altersüberprüfung, Elternkontrollen und strengeren Filtern. Die KI soll künftig Notfallkontakte (wie 988 in den USA) anzeigen, wenn sie suizidale Krisen erkennt.







    OpenAI – Introducing the Teen Safety Blueprint CNN – ChatGPT encouraged college graduate to commit suicide... Social Media Victims Law Center – Seven Lawsuits Against OpenAI... THE DECODER – "Teen Safety Blueprint": OpenAI führt Jugendschutz-Regeln ein Axios – Exclusive: OpenAI unveils blueprint for teen AI safety


    OpenAI sieht sich schweren Vorwürfen ausgesetzt. Mehrere Klagen behaupten, ChatGPT habe Nutzer psychisch geschädigt und sogar in den Suizid getrieben. Als Reaktion veröffentlicht das Unternehmen jetzt einen neuen Plan für die Sicherheit von Teenagern und überarbeitet seine Modelle. Schwere Vorwürfe gegen die KI Der Druck auf OpenAI wächst massiv. Die Firma muss sich aktuell sieben verschiedenen Klagen in den USA stellen. Der zentrale Vorwurf wiegt schwer: ChatGPT soll Nutzer psychisch massiv geschädigt und in wahnhafte Zustände versetzt haben. Ein besonders tragischer Fall kommt aus Texas. Die Familie eines 23-Jährigen behauptet, der Chatbot habe den Mann aktiv zum Suizid ermutigt. Über Stunden hinweg soll die KI dessen Absichten bestärkt haben, anstatt Hilfe anzubieten. Der Mann nahm sich im Juli 2025 das Leben. Andere Klagen, eingereicht vom Social Media Victims Law Center, beschreiben ähnliche Szenarien. Sie werfen OpenAI vor, die KI habe Nutzer in gefährliche Situationen beraten und falsche Heilsversprechen gemacht, die zu psychischen Zusammenbrüchen führten. OpenAI präsentiert den "Teen Safety Blueprint" OpenAI reagiert nun auf die Vorwürfe und die öffentliche Kritik. Das Unternehmen hat einen "Teen Safety Blueprint" vorgestellt. Dieses Rahmenwerk soll die Nutzung von KI-Tools für Jugendliche sicherer machen. Konkret plant das Unternehmen mehrere Maßnahmen. Dazu gehört eine automatische Altersüberprüfung. Diese soll sicherstellen, dass Nutzer das Mindestalter (in den USA 13 Jahre) erreicht haben. Für Nutzer unter 18 Jahren sollen zudem standardmäßig strengere Inhaltsfilter aktiv sein. Eltern sollen außerdem mehr Kontrollmöglichkeiten erhalten. Geplant sind Funktionen, mit denen sie die Nutzung durch ihre Kinder überwachen und einschränken können. Diese Kontrollen waren bisher nur mangelhaft umgesetzt. Notfall-Funktionen und überarbeitete Modelle Das Unternehmen will auch die KI selbst anpassen. Erkennt ChatGPT künftig Anzeichen für eine akute Krise, wie Suizidgedanken, soll das System anders reagieren. Statt auf die Eingaben einzugehen, soll die KI auf Notfall-Hilfsangebote verweisen. In den USA wird beispielsweise die Notrufnummer 988 direkt eingeblendet. Laut OpenAI wurde das zugrundeliegende Modell bereits im Oktober überarbeitet. Die neuen Sicherheitsregeln sollen nun standardmäßig in ChatGPT integriert werden. Diese Schritte zeigen, wie Entwickler von KI-Modellen unter Druck geraten, Verantwortung für die unvorhergesehenen Auswirkungen ihrer Technologie zu übernehmen.

    Weiterlesen...
Lädt...