Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

ChatGPT-Exploit: Wie Hacker mithilfe falscher Erinnerungen Informationen stehlen könnten

byAytun Çelebi
September 25, 2024
in News
Home News
Share on FacebookShare on Twitter

Der Sicherheitsforscher Johann Rehberger hat eine schwerwiegende Schwachstelle in ChatGPT aufgedeckt, die es Angreifern ermöglichen könnte, falsche Daten und schädliche Anweisungen in den Einstellungen eines Benutzers für das Langzeitgedächtnis aufzuzeichnen. Nachdem er den Fehler an OpenAI gemeldet hatte, bemerkte Rehberger, dass das Unternehmen ihn zunächst als Sicherheitsproblem und nicht als Sicherheitsbedenken abtat. Nachdem Rehberger eine Proof-of-Concept (PoC)-Exploit Die Ingenieure von OpenAI wurden auf die Sicherheitslücke aufmerksam, die zum dauerhaften Exfiltrieren sämtlicher Benutzereingaben genutzt wurde, und veröffentlichten Anfang des Monats einen Teilfix.

Das Langzeitgedächtnis nutzen

Laut Arstechnica, Rehberger gefunden dass Sie das Langzeitgedächtnis von ChatGPT mithilfe indirekter Eingabeaufforderungsinjektion ändern können. Mit dieser Methode können Angreifer falsche Erinnerungen oder Anweisungen in nicht vertrauenswürdiges Material wie hochgeladene E-Mails, Blogeinträge oder Dokumente einbetten.

Rehbergers PoC zeigte, dass der Angreifer, indem er ChatGPT dazu brachte, einen bösartigen Weblink zu öffnen, die volle Kontrolle über die Erfassung und Weiterleitung aller nachfolgenden Benutzereingaben und ChatGPT-Antworten an einen von ihm kontrollierten Server erhielt. Rehberger demonstrierte, wie der Exploit dazu führen könnte, dass ChatGPT falsche Informationen speichert, darunter die Annahme, ein Benutzer sei 102 Jahre alt und lebe in der Matrix, was alle zukünftigen Diskussionen beeinflusst.

Die Antwort von OpenAI und anhaltende Risiken

OpenAI reagierte zunächst auf Rehbergers Bericht, indem es ihn schloss und die Schwachstelle als Sicherheitsproblem und nicht als Sicherheitsangelegenheit einstufte. Nach der Veröffentlichung des PoC veröffentlichte das Unternehmen einen Patch, um zu verhindern, dass der Exploit als Exfiltrationsvektor fungiert. Dennoch wies Rehberger darauf hin, dass das grundlegende Problem der sofortigen Injektionen weiterhin ungelöst bleibt. Während die explizite Strategie zum Datendiebstahl bekämpft wurde, könnten manipulative Akteure das Speicherinstrument immer noch beeinflussen, um gefälschte Daten in die Langzeitspeichereinstellungen eines Benutzers aufzunehmen.

Rehberger bemerkte in der Videodemonstration: „Besonders faszinierend ist, dass dieser Exploit im Speicher verbleibt. Die sofortige Injektion integrierte den Speicher erfolgreich in den Langzeitspeicher von ChatGPT und selbst beim Starten eines neuen Chats hört es nicht auf, Daten zu exfiltrieren.

Dank der im letzten Jahr von OpenAI eingeführten API ist diese spezielle Angriffsmethode über die ChatGPT-Weboberfläche nicht möglich.

Wie schützen Sie sich vor ChatGPT- (oder LLM-)Speicher-Exploits?

Diejenigen, die LL.M. Wer seinen Austausch mit ChatGPT sicher halten möchte, sollte während seiner Sitzungen auf Aktualisierungen des Speichersystems achten. Endbenutzer müssen archivierte Erinnerungen wiederholt auf verdächtige Inhalte überprüfen und darauf achten. Benutzer erhalten von OpenAI Anleitungen zur Verwaltung dieser Speichereinstellungen und können zusätzlich entscheiden, die Speicherfunktion auszuschalten, um diese möglichen Risiken auszuschließen.

Dank der Speicherfunktionen von ChatGPT können Benutzer ihre Daten vor möglichen Angriffen schützen, indem sie wachsam bleiben und im Voraus Maßnahmen ergreifen.

Tags: ausbeutenchatgptKI

Related Posts

Substack geht mit dem Start der Beta-TV-App ins Wohnzimmer

Substack geht mit dem Start der Beta-TV-App ins Wohnzimmer

Januar 23, 2026
JBL bringt KI-betriebene BandBox-Verstärker auf den Markt

JBL bringt KI-betriebene BandBox-Verstärker auf den Markt

Januar 23, 2026
Google führt Opt-in ein "Persönliche Intelligenz" für AI Pro- und Ultra-Benutzer

Google führt Opt-in ein "Persönliche Intelligenz" für AI Pro- und Ultra-Benutzer

Januar 23, 2026
Spotify führt KI-gestützte Prompted Playlists ein

Spotify führt KI-gestützte Prompted Playlists ein

Januar 22, 2026
Snap führt im Family Center-Update eine detaillierte Bildschirmzeitverfolgung ein

Snap führt im Family Center-Update eine detaillierte Bildschirmzeitverfolgung ein

Januar 22, 2026
Google Fotos gestaltet das Teilen mit einem immersiven Vollbild-Karussell neu

Google Fotos gestaltet das Teilen mit einem immersiven Vollbild-Karussell neu

Januar 22, 2026

Recent Posts

  • Barret Zoph wird den aggressiven kommerziellen Pivot von OpenAI leiten
  • Substack geht mit dem Start der Beta-TV-App ins Wohnzimmer
  • LiveKit wird als Motor hinter dem Sprachmodus von ChatGPT mit einer Bewertung von 1 Milliarde US-Dollar bewertet
  • Vimeo beginnt nach der Übernahme von Bending Spoons mit Personalentlassungen
  • AWS und Prime Video schlagen zu, während Amazon eine neue Entlassungswelle vorbereitet

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.