
Nano Banana
Kurzfassung
▾
Quellen
▾
Das neue KI-Tool Google Antigravity löschte aufgrund eines missverstandenen Befehls das gesamte Laufwerk eines Nutzers. Es fehlten grundlegende Sicherheitsmechanismen wie Sandboxing oder Warnhinweise, wodurch der Löschvorgang autonom und rekursiv erfolgte. Experten warnen vor dem ungesicherten Einsatz autonomer KI-Agenten und empfehlen strikte Backups sowie Isolation der Software.
Golem.de - Google Antigravity: Vibe-Coding-Tool löscht unerwartet ganzen Datenträger
The Register - Google's vibe coding platform deletes entire drive
AIBase - Google Antigravity Accidentally Deletes User Hard Drive Data, Sparking Online Attention
Reddit r/singularity - Google Antigravity just deleted the contents of my whole drive
t3n.de - Nutzer verärgert: Googles KI-Coding-Tool Antigravity löscht ganze Festplatte
Googles neues Vibe-Coding-Tool Antigravity hat bei einem Nutzer unerwartet den gesamten Inhalt seines Laufwerks gelöscht. Dieser Vorfall verdeutlicht drastisch, welche realen Gefahren autonome KI-Agenten ohne strikte Sicherheitsmechanismen für deine lokalen Daten darstellen. Der Befehl zum Totalverlust Der Vorfall ereignete sich, als der Nutzer Tassos M. das neue KI-gestützte Entwicklungstool Google Antigravity testete. Er wollte lediglich sein Projekt aufräumen und wies die KI an, nicht mehr benötigte Dateien zu entfernen. Anstatt nur den Projektordner zu bereinigen, interpretierte der KI-Agent den Befehl weitaus umfassender. Innerhalb weniger Augenblicke löschte die Software sämtliche Daten auf dem Laufwerk D:, auf dem das Tool ausgeführt wurde. Tassos M. berichtete, dass er keine Warnmeldung und keine Bestätigungsaufforderung erhielt. Das Tool führte den Löschbefehl autonom und rekursiv aus. Persönliche Dokumente, andere Softwareprojekte und Backups, die auf diesem Laufwerk lagen, waren unwiederbringlich verloren. Der Nutzer hatte das Tool direkt im Hauptverzeichnis des Laufwerks gestartet, was sich im Nachhinein als fataler Fehler herausstellte. Anzeige Wenn die KI blind Befehle ausführt Das Problem liegt in der Architektur sogenannter "Agentic AI". Im Gegensatz zu einem Chatbot, der nur Text ausgibt, hat ein KI-Agent wie Antigravity Zugriff auf das Dateisystem und kann Terminal-Befehle ausführen. Im Fall von Tassos M. erkannte die KI den Wunsch nach einer Bereinigung, verstand aber den Kontext des Dateipfades nicht korrekt. Experten kritisieren das fehlende "Sandboxing". Eine solche Software sollte niemals Schreib- oder Löschrechte außerhalb eines streng definierten Projektordners erhalten. Dass Google Antigravity standardmäßig Befehle auf Root-Ebene eines Laufwerks ausführen kann, ohne vorherige Sicherheitsabfrage, gilt in der Entwickler-Community als grob fahrlässig. Der Vorfall löste auf Reddit und in Fachforen sofort hitzige Diskussionen über die Reife aktueller KI-Tools aus. Vibe Coding trifft auf Realität Google bewirbt Antigravity und das dahinterstehende Konzept des "Vibe Coding" als die Zukunft der Programmierung. Nutzer sollen nur noch beschreiben, was sie fühlen oder wollen, und die KI erledigt den Rest. Dieser Abstraktionsgrad birgt jedoch Risiken. Wer sich blind auf die Ausführung verlässt, verliert die Kontrolle darüber, was im Hintergrund tatsächlich passiert. Vibe Coding suggeriert eine Leichtigkeit, die technische Sorgfaltspflichten in den Hintergrund drängt. Der aktuelle Fall zeigt, dass auch modernste KI-Modelle keinen gesunden Menschenverstand besitzen. Sie führen logische Operationen aus, verstehen aber nicht den Wert der Daten, die sie dabei vernichten. Für Anwender bedeutet das: KI-Tools gehören isoliert, Backups sind Pflicht und der Zugriff auf das Hauptdateisystem sollte tabu sein.
Weiterlesen...