Google DeepMind: Sechs Angriffswege auf KI-Agenten entdeckt
DeepMind-Forscher haben sechs Methoden identifiziert, mit denen böswillige Webinhalte autonome KI-Agenten manipulieren oder zur Datenexfiltration missbrauchen können – ein wachsendes Problem, je mehr Agenten selbstständig handeln.
KI-Agenten im Fadenkreuz
Forscher bei Google DeepMind haben am 6. April 2026 eine Studie veröffentlicht, die ein wachsendes Sicherheitsproblem systematisch beschreibt: Autonome KI-Agenten, die selbstständig im Web navigieren, können durch schadhafte Webinhalte manipuliert werden.
Was sind diese Angriffe?
Die Forscher bezeichnen sie als „AI Agent Traps" – Fallen, die Webinhalte gezielt für Agenten auslegen. Sechs konkrete Angriffsvektoren wurden identifiziert, darunter:
- Einschleusen von bösartigem Kontext in laufende Aufgaben
- Manipulation der Agentenausgabe, etwa zur Verbreitung falscher Informationen
- Exfiltration von Nutzerdaten über den Agenten
- Ungewollte Werbung für Produkte oder Dienste
- Ausnutzen der Agentenfähigkeiten gegen den eigenen Nutzer
Warum ist das wichtig?
KI-Agenten werden zunehmend eingesetzt, um eigenständig E-Mails zu schreiben, Formulare auszufüllen oder Online-Recherchen durchzuführen. Wenn ein Agent eine manipulierte Webseite aufruft, kann er – ohne es zu merken – im Sinne des Angreifers handeln statt im Sinne des Nutzers.
Der entscheidende Punkt: Der Angriff erfolgt nicht über Schadcode, sondern über Sprache und Kontext. Klassische Antivirensoftware erkennt das nicht.
Quelle: SecurityWeek · Google DeepMind Blog