Zum Hauptinhalt springen

Google DeepMind: Sechs Angriffswege auf KI-Agenten entdeckt

Google DeepMind

DeepMind-Forscher haben sechs Methoden identifiziert, mit denen böswillige Webinhalte autonome KI-Agenten manipulieren oder zur Datenexfiltration missbrauchen können – ein wachsendes Problem, je mehr Agenten selbstständig handeln.

KI-Agenten im Fadenkreuz

Forscher bei Google DeepMind haben am 6. April 2026 eine Studie veröffentlicht, die ein wachsendes Sicherheitsproblem systematisch beschreibt: Autonome KI-Agenten, die selbstständig im Web navigieren, können durch schadhafte Webinhalte manipuliert werden.

Was sind diese Angriffe?

Die Forscher bezeichnen sie als „AI Agent Traps" – Fallen, die Webinhalte gezielt für Agenten auslegen. Sechs konkrete Angriffsvektoren wurden identifiziert, darunter:

  • Einschleusen von bösartigem Kontext in laufende Aufgaben
  • Manipulation der Agentenausgabe, etwa zur Verbreitung falscher Informationen
  • Exfiltration von Nutzerdaten über den Agenten
  • Ungewollte Werbung für Produkte oder Dienste
  • Ausnutzen der Agentenfähigkeiten gegen den eigenen Nutzer

Warum ist das wichtig?

KI-Agenten werden zunehmend eingesetzt, um eigenständig E-Mails zu schreiben, Formulare auszufüllen oder Online-Recherchen durchzuführen. Wenn ein Agent eine manipulierte Webseite aufruft, kann er – ohne es zu merken – im Sinne des Angreifers handeln statt im Sinne des Nutzers.

Der entscheidende Punkt: Der Angriff erfolgt nicht über Schadcode, sondern über Sprache und Kontext. Klassische Antivirensoftware erkennt das nicht.

Quelle: SecurityWeek · Google DeepMind Blog