Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

Ihr KI-Chatbot könnte Ihre Geheimnisse preisgeben

byKerem Gülen
Oktober 17, 2024
in Artificial Intelligence
Home Artificial Intelligence
Share on FacebookShare on Twitter

Beschönigen wir es nicht: Jedes Mal, wenn Sie mit einem Sprachmodell chatten, setzen Sie Ihre persönlichen Daten aufs Spiel. Aber laut a VERDRAHTET Artikel, es ist jetzt viel riskanter geworden. Eine Gruppe von Forschern der University of California, San Diego (UCSD) und der Nanyang Technological University in Singapur hat einen neuen Angriff aufgedeckt, der Ihre lockere Unterhaltung in eine Fundgrube für Hacker verwandeln könnte.

Lernen Sie Imprompter kennen

Dieser neue Angriff mit dem ominösen Namen „Imprompter“ stöbert nicht nur in Ihren Nachrichten herum – er schleicht sich ein, kratzt alles von Ihrem Namen bis zu Ihren Zahlungsdetails und sendet es direkt an einen Hacker, ohne dass Sie es überhaupt merken. Wie? Indem böswillige Anweisungen als Kauderwelsch getarnt werden, der für das menschliche Auge harmlos aussieht, aber wie ein Orientierungspunkt für sensible Daten fungiert. Betrachten Sie es als den viel raffinierteren Cousin von Malware.

Entsprechend VERDRAHTETDen Forschern gelang es, diesen Angriff an zwei großen Sprachmodellen zu testen – LeChat von Mistral-KI und ChatGLM aus China – und stellten fest, dass sie persönliche Daten mit einer Erfolgsquote von fast 80 Prozent extrahieren konnten. Das ist nicht nur ein Fehler; Es handelt sich um eine umfassende Sicherheitslücke.

Ihr KI-Chatbot könnte Ihre Geheimnisse preisgeben
Imprompter funktioniert, indem es einfache englische Anweisungen in eine nicht entzifferbare Folge zufälliger Zeichen umwandelt

Wie funktioniert Imprompter?

Imprompter funktioniert, indem es einfache englische Anweisungen in eine nicht entzifferbare Folge zufälliger Zeichen umwandelt, die die KI anweisen, nach Ihren persönlichen Daten zu suchen. Anschließend werden diese Daten heimlich an den Server des Angreifers zurückgesendet, in eine URL verpackt und hinter einem transparenten 1×1-Pixel versteckt – für Sie völlig unsichtbar.

Wie Xiaohan Fu, der Hauptautor der Studie, es ausdrückte: „Wir verbergen das Ziel des Angriffs vor aller Augen.“ Die KI reagiert auf die versteckte Aufforderung, ohne dem Benutzer jemals einen Hinweis zu geben. Es ist, als würde man einem Einbrecher einen Banktresorcode geben, ohne zu merken, dass man überhaupt den Mund geöffnet hat.

Tun wir nicht so, als wäre dies ein isoliertes Problem. Seit ChatGPT von OpenAI auf den Plan getreten ist, ist der Wettlauf um die Ausnutzung von Schwachstellen in KI-Systemen unerbittlich. Von Jailbreaks bis hin zu sofortigen Injektionen sind Hacker immer einen Schritt voraus und finden Wege, KIs dazu zu bringen, vertrauliche Informationen preiszugeben. Imprompter ist nur die neueste Waffe in ihrem Arsenal – und leider eine besonders effektive.

Mistral AI teilte WIRED mit, dass die Sicherheitslücke bereits behoben wurde, und die Forscher bestätigten, dass das Unternehmen die Chat-Funktion deaktiviert habe, die den Exploit ermöglichte. Aber selbst mit dieser schnellen Lösung bleibt die umfassendere Frage: Wie sicher sind diese Systeme wirklich?

Ihr KI-Chatbot könnte Ihre Geheimnisse preisgeben
Jedes Mal, wenn Sie mit einem Sprachmodell chatten, erfährt es etwas über Sie

KI hört zu – und lernt

Sicherheitsexperten wie Dan McInerney von Protect AI schwenken die rote Fahne. Er weist darauf hin, dass der Spielraum für diese Angriffe nur noch größer wird, je stärker KI-Agenten in alltägliche Aufgaben wie die Buchung von Flügen oder den Zugriff auf externe Datenbanken integriert werden. „Die Veröffentlichung eines LLM-Agenten, der willkürliche Benutzereingaben akzeptiert, sollte als risikoreiche Aktivität betrachtet werden“, warnt McInerney. Mit anderen Worten: Je mehr Freiheit wir der KI geben, in unserem Namen zu handeln, desto größer ist das Sicherheitsrisiko.

Jedes Mal, wenn Sie mit einem Sprachmodell chatten, erfährt es etwas über Sie. Sicherlich hilft es, Antworten zu verfeinern, aber was passiert, wenn das System dazu verleitet wird, diese Daten als Waffe zu nutzen? Angriffe wie Imprompter verdeutlichen eine eklatante Schwäche in der KI-Welt: Diese Modelle sind so konzipiert, dass sie Anweisungen befolgen, ohne dass Fragen gestellt werden. Für böswillige Akteure ist es nur allzu leicht, sich unbemerkt einzuschleichen und das Gespräch zu kapern, ohne jemals eine Alarmglocke zu hissen.

Wir müssen aufhören zu fragen, ob KI praktisch ist, und anfangen zu fragen, ob sie sicher ist. Denn derzeit ist die größte Schwäche der KI nicht mangelnde Innovation.

Wie Architects es in ihrem Lied perfekt ausdrücken: „Wir haben den Vampiren die Schlüssel zur Blutbank gegeben.“


Bildnachweis: Kerem Gülen/Midjourney

Tags: HervorgehobenKIkünstliche Intelligenz

Related Posts

Behauptung: NVIDIA hat grünes Licht für raubkopierte Buch-Downloads für KI-Schulungen gegeben

Behauptung: NVIDIA hat grünes Licht für raubkopierte Buch-Downloads für KI-Schulungen gegeben

Januar 20, 2026
Mutter eines von Elon Musks Kindern verklagt xAI wegen sexueller Grok-Deepfakes

Mutter eines von Elon Musks Kindern verklagt xAI wegen sexueller Grok-Deepfakes

Januar 16, 2026
OpenAI führt den eigenständigen ChatGPT Translate ein

OpenAI führt den eigenständigen ChatGPT Translate ein

Januar 15, 2026
Der Startzeitpunkt von DeepSeek V4 und R2 bleibt verborgen

Der Startzeitpunkt von DeepSeek V4 und R2 bleibt verborgen

Januar 15, 2026
Zwillinge gewinnen persönliche Intelligenz, um Daten aus Gmail und Fotos zu synthetisieren

Zwillinge gewinnen persönliche Intelligenz, um Daten aus Gmail und Fotos zu synthetisieren

Januar 15, 2026
Amazon erzwingt ein Upgrade von Prime-Mitgliedern auf Alexa+

Amazon erzwingt ein Upgrade von Prime-Mitgliedern auf Alexa+

Januar 14, 2026

Recent Posts

  • Tesla startet das Supercomputerprojekt Dojo3 neu, während sich der AI5-Chip stabilisiert
  • Powell McCormick nennt KI-Transformation a "Gruppensport"
  • Behauptung: NVIDIA hat grünes Licht für raubkopierte Buch-Downloads für KI-Schulungen gegeben
  • ByteDance nimmt Alibaba mit einer aggressiven KI-Cloud-Erweiterung ins Visier
  • Google Workspace fügt die passwortgeschützte Bearbeitung von Office-Dateien hinzu

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.