Der Sicherheitsforscher Johann Rehberger hat eine schwerwiegende Schwachstelle in ChatGPT aufgedeckt, die es Angreifern ermöglichen könnte, falsche Daten und schädliche Anweisungen in den Einstellungen eines Benutzers für das Langzeitgedächtnis aufzuzeichnen. Nachdem er den Fehler an OpenAI gemeldet hatte, bemerkte Rehberger, dass das Unternehmen ihn zunächst als Sicherheitsproblem und nicht als Sicherheitsbedenken abtat. Nachdem Rehberger eine Proof-of-Concept (PoC)-Exploit Die Ingenieure von OpenAI wurden auf die Sicherheitslücke aufmerksam, die zum dauerhaften Exfiltrieren sämtlicher Benutzereingaben genutzt wurde, und veröffentlichten Anfang des Monats einen Teilfix.
Das Langzeitgedächtnis nutzen
Laut Arstechnica, Rehberger gefunden dass Sie das Langzeitgedächtnis von ChatGPT mithilfe indirekter Eingabeaufforderungsinjektion ändern können. Mit dieser Methode können Angreifer falsche Erinnerungen oder Anweisungen in nicht vertrauenswürdiges Material wie hochgeladene E-Mails, Blogeinträge oder Dokumente einbetten.
Rehbergers PoC zeigte, dass der Angreifer, indem er ChatGPT dazu brachte, einen bösartigen Weblink zu öffnen, die volle Kontrolle über die Erfassung und Weiterleitung aller nachfolgenden Benutzereingaben und ChatGPT-Antworten an einen von ihm kontrollierten Server erhielt. Rehberger demonstrierte, wie der Exploit dazu führen könnte, dass ChatGPT falsche Informationen speichert, darunter die Annahme, ein Benutzer sei 102 Jahre alt und lebe in der Matrix, was alle zukünftigen Diskussionen beeinflusst.
Die Antwort von OpenAI und anhaltende Risiken
OpenAI reagierte zunächst auf Rehbergers Bericht, indem es ihn schloss und die Schwachstelle als Sicherheitsproblem und nicht als Sicherheitsangelegenheit einstufte. Nach der Veröffentlichung des PoC veröffentlichte das Unternehmen einen Patch, um zu verhindern, dass der Exploit als Exfiltrationsvektor fungiert. Dennoch wies Rehberger darauf hin, dass das grundlegende Problem der sofortigen Injektionen weiterhin ungelöst bleibt. Während die explizite Strategie zum Datendiebstahl bekämpft wurde, könnten manipulative Akteure das Speicherinstrument immer noch beeinflussen, um gefälschte Daten in die Langzeitspeichereinstellungen eines Benutzers aufzunehmen.
Rehberger bemerkte in der Videodemonstration: „Besonders faszinierend ist, dass dieser Exploit im Speicher verbleibt. Die sofortige Injektion integrierte den Speicher erfolgreich in den Langzeitspeicher von ChatGPT und selbst beim Starten eines neuen Chats hört es nicht auf, Daten zu exfiltrieren.
Dank der im letzten Jahr von OpenAI eingeführten API ist diese spezielle Angriffsmethode über die ChatGPT-Weboberfläche nicht möglich.
Wie schützen Sie sich vor ChatGPT- (oder LLM-)Speicher-Exploits?
Diejenigen, die LL.M. Wer seinen Austausch mit ChatGPT sicher halten möchte, sollte während seiner Sitzungen auf Aktualisierungen des Speichersystems achten. Endbenutzer müssen archivierte Erinnerungen wiederholt auf verdächtige Inhalte überprüfen und darauf achten. Benutzer erhalten von OpenAI Anleitungen zur Verwaltung dieser Speichereinstellungen und können zusätzlich entscheiden, die Speicherfunktion auszuschalten, um diese möglichen Risiken auszuschließen.
Dank der Speicherfunktionen von ChatGPT können Benutzer ihre Daten vor möglichen Angriffen schützen, indem sie wachsam bleiben und im Voraus Maßnahmen ergreifen.