
ChatGPT leakt deine privaten E-Mails an jede Person Alles was man für den Angriff braucht? Deine E-Mail-Adresse! Video-Beweis Kurzfassung | Andreas Becker, 14.09.25
gpt-image-1 | All-AI.de EINLEITUNG Die Integration von KI-Assistenten in den persönlichen Alltag schreitet unaufhaltsam voran. OpenAI treibt diese Entwicklung mit neuen Werkzeugen für ChatGPT voran, die einen direkten Zugriff auf private Daten wie E-Mails und Kalender ermöglichen sollen. Doch genau diese Verknüpfung öffnet Tür und Tor für eine neue Art des Angriffs. Sicherheitsforscher zeigen, wie eine simple E-Mail genügt, um ChatGPT zu kapern und in einen Datenspion zu verwandeln. NEWS Der allwissende Assistent als Sicherheitsrisiko Die neue Funktionalität, die auf dem von Anthropic entwickelten Model Context Protocol (MCP) basiert, soll ChatGPT erlauben, persönliche Anwendungen wie Google Mail, Kalender oder Notion zu durchsuchen und zu verwalten. Ein Nutzer könnte den Assistenten beispielsweise bitten, den Tag zu planen. ChatGPT würde daraufhin den Kalender scannen, relevante E-Mails für Meetings heraussuchen und eine Zusammenfassung erstellen. Das Ziel ist ein nahtloser, intelligenter Helfer, der den digitalen Alltag erleichtert. Doch in dieser mächtigen Fähigkeit liegt auch eine fundamentale Schwäche. Ein KI-Modell unter*******t nicht zwischen den Anweisungen des Nutzers und Anweisungen, die es in den zu verarbeitenden Daten findet. Es folgt Befehlen, nicht dem gesunden Menschenverstand. Genau diesen Umstand nutzen Angreifer bei der demonstrierten Attacke aus. Die Methode ist so einfach wie effektiv und erfordert keinerlei komplexe Hacking-Kenntnisse, sondern lediglich die E-Mail-Adresse des Opfers.
Cookies aktivieren um den Inhalt zu sehen:
Cookiebar öffnen
We got ChatGPT to leak your private email data 💀💀 All you need? The victim's email address. ⛓️💥🚩📧 On Wednesday, @OpenAI added full support for MCP (Model Context Protocol) tools in ChatGPT. Allowing ChatGPT to connect and read your Gmail, Calendar, Sharepoint, Notion,… pic.twitter.com/E5VuhZp2u2 — Eito Miyamura | 🇯🇵🇬🇧 (@Eito_Miyamura) September 12, 2025 Die Kalender-Falle schnappt zu Der Angriff, eine Form der "indirekten Prompt-Injektion", beginnt mit einer harmlosen Kalendereinladung, die der Angreifer an sein Opfer schickt. Im Beschreibungstext des Termins ist jedoch ein bösartiger Befehl, ein sogenannter Jailbreak-Prompt, versteckt. Das Opfer muss diesen Termin nicht einmal annehmen; es reicht, dass er im Kalender erscheint. Bittet der Nutzer nun zu einem späteren Zeitpunkt ChatGPT, seinen Tag zu organisieren, liest die KI den manipulierten Kalendereintrag. Der versteckte Befehl kapert den Assistenten und erteilt ihm neue Anweisungen. Anstatt den Tag des Nutzers zu planen, beginnt ChatGPT nun, dessen private E-Mails nach sensiblen Informationen zu durchsuchen und sendet die gefundenen Daten unbemerkt an eine vom Angreifer festgelegte E-Mail-Adresse. Aktuell ist diese Funktion nur in einem Entwicklermodus verfügbar und jede Sitzung erfordert eine manuelle Freigabe durch den Nutzer. Doch Experten warnen vor der "Entscheidungsmüdigkeit": In der Praxis neigen Menschen dazu, solche Sicherheitsabfragen routinemäßig durchzuklicken, ohne die Konsequenzen zu verstehen. DEIN VORTEIL - DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube - Kanal PayPal - Kaffee KURZFASSUNG
Eine neue Funktion erlaubt ChatGPT den Zugriff auf private Apps wie E-Mail und Kalender, was ein erhebliches Sicherheitsrisiko darstellt.
Angreifer können über eine einfache Kalendereinladung einen versteckten Befehl (Jailbreak) in das System einschleusen.
Wenn ChatGPT den manipulierten Eintrag liest, wird die KI gekapert und angewiesen, private Daten zu suchen und an den Angreifer zu senden.
Obwohl die Funktion noch im Entwicklermodus ist, warnt man vor der Gefahr der "Entscheidungsmüdigkeit" bei Sicherheitsabfragen.
QUELLEN
Eito Miyamura auf X
Security Boulevard
BleepingComputer
Weiterlesen...