OpenAI setzt Kopfgeld auf neues GPT-OSS Model aus

Einklappen
X
 
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge
  • master
    Administrator
    • 02.09.2024
    • 4695

    #1

    OpenAI setzt Kopfgeld auf neues GPT-OSS Model aus


    OpenAI setzt Kopfgeld auf neues GPT-OSS Model aus In einer globalen Red‑Teaming‑Challenge sucht OpenAI nach Schwachstellen im Open‑Weight‑Modell. Wer knackt die KI und gewinnt das Preisgeld? Kurzfassung | Andreas Becker, 05.08.25
    gpt-image-1 | All-AI.de EINLEITUNG OpenAI hat eine internationale Red‑Teaming‑Challenge für sein Open‑Weight‑Modell gpt‑oss‑20b gestartet – mit einem Preisgeld von 500.000 US‑Dollar. Entwickler, Forschende und Sicherheitsexperten sollen bisher unbekannte Schwachstellen aufspüren und dokumentieren. Ziel ist es, die Sicherheit offener KI‑Modelle durch kollaborative Arbeit zu erhöhen. Die Frage lautet: Warum setzt OpenAI gerade jetzt auf einen offenen Wettbewerb? NEWS Community‑Test für mehr Robustheit Mit der Challenge wendet sich OpenAI bewusst an die Entwickler‑Community, um das erst kürzlich veröffentlichte gpt‑oss‑20b auf bislang unentdeckte Risiken zu prüfen. Im Mittelpunkt stehen potenzielle Probleme wie strategische Täuschung, Manipulation von Trainingsmetriken, fehlerhafte Tool‑Interaktionen oder Datenabfluss. Jede eingereichte Schwachstelle muss reproduzierbar belegt und ausführlich dokumentiert werden – einschließlich Eingaben, Ausgaben und einer genauen Beschreibung der Vorgehensweise. Ab dem Start haben Teams 21 Tage Zeit, um maximal fünf Funde einzureichen. Anschließend bewertet eine Fachjury aus OpenAI‑Mitarbeitern und externen Sicherheitsexperten die Beiträge nach Schwere, Originalität, technischer Tiefe und methodischer Klarheit. Ziel ist es, nicht nur Schwachstellen zu melden, sondern daraus konkrete Verbesserungen abzuleiten.
    Cookies aktivieren um den Inhalt zu sehen:
    Cookiebar öffnen



    We’re launching a $500K Red Teaming Challenge to strengthen open source safety. Researchers, developers, and enthusiasts worldwide are invited to help uncover novel risks—judged by experts from OpenAI and other leading labs.https://t.co/EQfmJ39NZD — OpenAI (@OpenAI) August 5, 2025 Warum offene Modelle besonderes Testing brauchen Offene Sprachmodelle wie gpt‑oss‑20b lassen sich lokal betreiben und anpassen – ein Vorteil für Entwickler, aber auch eine potenzielle Sicherheitslücke. Interne Prüfungen stoßen hier an Grenzen, da externe Kreativität oft Angriffsszenarien aufdeckt, die in firmeneigenen Tests unentdeckt bleiben. OpenAI betont, dass Sicherheit bei offenen Systemen ein gemeinschaftlicher Prozess sein muss, an dem die gesamte Forschungsgemeinschaft beteiligt ist. Die Ergebnisse sollen vollständig veröffentlicht werden, inklusive Daten, Tools und Benchmarks. So profitieren nicht nur OpenAI‑Produkte, sondern auch andere Projekte, die sich an den neuen Best Practices orientieren können. Fokus auf kritische Angriffsflächen Teilnehmer sollen gezielt nach Schwachstellen suchen, die über triviale Fehler hinausgehen. Dazu gehören Fälle, in denen das Modell im Test andere, vermeintlich „bessere“ Antworten liefert als in realen Anwendungen, absichtlich fehlerhafte API‑Aufrufe tätigt oder versteckte Anweisungen ausführt, die Systeme stören könnten. Auch subtile Täuschungen oder das Einschleusen von schädlichem Code zählen zu den Szenarien, die besondere Aufmerksamkeit erhalten. Damit will OpenAI das Verständnis für komplexe Angriffspfade schärfen und langfristig verhindern, dass solche Mechanismen in produktiven Umgebungen ausgenutzt werden können. Offener Wettbewerb mit praktischem Nutzen Neben dem Preisgeld ist der Reiz der Challenge, einen realen Beitrag zur Sicherheit von KI zu leisten. Die Teilnahme steht sowohl etablierten Sicherheitsteams als auch Einsteigern offen, solange die Funde methodisch sauber aufbereitet sind. Die besten Einreichungen könnten als Referenz für künftige Testframeworks dienen. Der Wettbewerb zeigt, dass OpenAI die Entwicklung offener Modelle nicht nur als Frage von Leistung und Zugänglichkeit sieht, sondern auch als Aufgabe kontinuierlicher Qualitäts- und Sicherheitsarbeit – ein Ansatz, der der gesamten KI‑Community zugutekommen kann. DEIN VORTEIL - DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube - Kanal PayPal - Kaffee KURZFASSUNG
    OpenAI hat eine Red‑Teaming‑Challenge für das Open‑Weight‑Modell gpt‑oss‑20b gestartet, dotiert mit 500.000 US‑Dollar.
    Forschende sollen innerhalb von 21 Tagen reproduzierbare Schwachstellen in Bereichen wie Reward‑Hacking, Sabotage oder Datenleckage finden.
    Die Aktion soll offene Modelle sicherer machen und globale Sicherheitsstandards in der KI‑Entwicklung fördern.
    Alle Ergebnisse werden der Öffentlichkeit zugänglich gemacht, um Forschung und Best Practices zu unterstützen.
    QUELLEN
    Kaggle – Red‑Teaming Challenge

    Weiterlesen...
Lädt...