Google hat eine Sicherheitsanfälligkeit bestätigt, die einen neuen KI-gesteuerten Angriff beinhaltet, der Google Mail-Konten beeinträchtigen kann. Das Unternehmen stellte fest, dass die Bedrohung „nicht spezifisch für Google“ ist und die Notwendigkeit stärkerer Abwehrkräfte gegen schnelle Injektionsangriffe betrifft.
Wie der schnelle Injektionsangriff funktioniert
Der Angriff verwendet böswillige Anweisungen, die in scheinbar harmlosen Artikeln wie E -Mails, Anhängen oder Kalendereinladungen versteckt sind. Während diese Anweisungen für einen menschlichen Benutzer unsichtbar sind, kann ein AI -Assistent diese lesen und ausführen. Forscher Eito Miyamura Demonstrierte die Sicherheitsanfälligkeit in einem auf X geposteten Video.
Wir haben Chatgpt erhalten, um Ihre privaten E -Mail -Daten zu verletzen. Alles was du brauchst? Die E -Mail -Adresse des Opfers. KI -Agenten wie Chatgpt folgen Ihren Befehlen, nicht Ihrem gesunden Menschenverstand … mit nur Ihrer E -Mail haben wir es geschafft, alle Ihre privaten Informationen zu peelen.
https://twitter.com/eito_miyamura/status/1966541235306237985 Der Angriff kann durch einen speziell gestalteten Kalender ausgelöst werden, dass der Benutzer nicht einmal akzeptieren muss. Wenn der Benutzer seinen KI -Assistenten auffordert, eine Routineaufgabe wie die Überprüfung des Kalenders durchzuführen, liest die KI den versteckten Befehl in der Einladung. Der böswillige Befehl weist dann die KI an, die privaten E -Mails des Benutzers zu durchsuchen und die Daten an den Angreifer zu senden.
So schützen Sie Ihr Konto und die Antwort von Google
Google warnte zuvor im Juni vor dieser Art von Bedrohung und erklärte, dass Anweisungen, die in Dokumente oder Kalender eingebettete Einladungen eingebettet sind, KI anweisen könnten, „Benutzerdaten zu peeltrieren oder andere Schurkenaktionen auszuführen“. Das Unternehmen implementiert jetzt Verteidigung und berät Benutzer, wie sie sich selbst schützen können.
- Aktivieren Sie die Einstellung „Bekannter Absender“ im Google -Kalender: Google gibt an, dass dies ein effektiver Weg ist, um böswillige Einladungen daran zu hindern, automatisch in Ihrem Kalender zu erscheinen. Der Angriff funktioniert weniger wahrscheinlich, es sei denn, der Benutzer hat zuvor mit dem Angreifer interagiert oder diese Standardeinstellung geändert.
- Google trainiert seine KI -Modelle, um diesen Angriffen zu widerstehen: Das Unternehmen sagt, dass seine Schulung mit kontroversen Daten „unsere Abwehr gegen indirekte Einspritzangriffe in Gemini 2.5 -Modellen erheblich verbessert hat“.
- Neue Erkennungsmodelle werden bereitgestellt: Google setzt proprietäre Modelle für maschinelles Lernen ein, mit denen böswillige Eingabeaufforderungen in E -Mails und Dateien erfasst und neutralisieren können, bevor sie ausgeführt werden.
ErinnernKI mag super klug sein, kann aber auf unglaublich dumme Weise ausgetrickt und gerecht werden, um Ihre Daten zu verletzen.





