Stanford-Professor Jeff Hancock wird beschuldigt, in seiner Aussage zu Minnesotas vorgeschlagenem Deepfake-Gesetz eine nicht existierende Studie zitiert zu haben. Dieser Vorfall wurde von den Anwälten des Klägers in einem Verfahren gegen den konservativen YouTuber Christopher Kohls ans Licht gebracht. Der Kontext beinhaltet eine politische Debatte über freie Meinungsäußerung und die Rechtmäßigkeit von Deepfakes bei Wahlen.
Hancocks Aussage wurde vom Generalstaatsanwalt von Minnesota, Keith Ellison, zur Verteidigung des Gesetzesvorschlags genutzt und deutete an, dass Deepfakes die politische Integrität bedrohen.
In den Vorwürfen heißt es, dass Hancocks Erklärung einen Verweis auf eine gefälschte Studie mit dem Titel „Der Einfluss von Deepfake-Videos auf politische Einstellungen und Verhalten“ enthielt, die nach Angaben der Rechtsabteilung des Klägers in der Zeitschrift, in der sie angeblich veröffentlicht wurde, nicht existiert. Sie argumentieren, dass es sich bei diesem Zitat wahrscheinlich um die Schaffung eines KI-Sprachmodells handelt, was möglicherweise die Glaubwürdigkeit seiner gesamten Erklärung untergräbt.
Die Anwälte des Klägers stellten fest, dass das Zitat in keiner wissenschaftlichen Datenbank erscheint, was erhebliche Fragen hinsichtlich seiner Authentizität aufwirft. Sie abgeschlossen:
„Die Erklärung von Prof. Hancock sollte vollständig ausgeschlossen werden, da sie zumindest teilweise auf fabriziertem Material basiert, das wahrscheinlich von einem KI-Modell generiert wurde.“
Die Rolle der KI in diesem Gerichtsdrama
Die Auswirkungen dieser Behauptungen gehen über diesen Fall hinaus. Sie stellen die Zuverlässigkeit von KI-generierten Inhalten in rechtlichen Kontexten in Frage, eine Sorge, die an die jüngsten Ereignisse erinnert, bei denen Rechtsanwälte wegen der Verwendung erfundener Zitate in juristischen Dokumenten mit Sanktionen belegt wurden. Die Gerichtsakten unterstreichen, dass die Glaubwürdigkeit von Expertenaussagen durch das Potenzial der KI, Ungenauigkeiten zu erzeugen, die oft als „Ungenauigkeiten“ bezeichnet werden, stark beeinträchtigt werden kann.Halluzinationen.“
Hancock verfügt über einen gut dokumentierten Hintergrund in Fehlinformationsstudien, hat bedeutende Forschungsarbeiten auf diesem Gebiet geleistet und populäre öffentliche Vorträge zu diesem Thema gehalten. Allerdings hat er sich noch nicht öffentlich zu den Vorwürfen gegen seine Aussage geäußert.
Der virale Kamala Harris Deepfake und seine Auswirkungen
Die Untersuchungen zur Gültigkeit der in diesem Gerichtsverfahren verwendeten Erklärungen sind noch im Gange, was Bedenken hinsichtlich der künftigen Verwendung von Expertenaussagen aufwirft, die von KI-generierten Daten beeinflusst werden.
Die derzeit geprüfte Deepfake-Gesetzgebung in Minnesota zielt darauf ab, der Verbreitung und Erstellung von Deepfakes in Wahlperioden gesetzliche Beschränkungen aufzuerlegen. Gegner des Gesetzentwurfs argumentieren, dass der Rechtsrahmen das verfassungsmäßige Recht auf freie Meinungsäußerung verletzen könnte, und berufen sich auf Bedenken hinsichtlich der Zensur und der Auswirkungen auf die digitale Meinungsäußerung. Im weiteren Verlauf dieses Falles werden weitere Analysen hinsichtlich der Schnittstelle zwischen Technologie, rechtlichen Standards und Rechten auf freie Meinungsäußerung erwartet.
Es bleibt abzuwarten, wie das Gericht auf die Vorwürfe im Zusammenhang mit Hancocks Aussage reagieren wird und ob dies einen Präzedenzfall für die Behandlung von KI-generierten Inhalten in Gerichtsverfahren schaffen wird. Die Rechtsgemeinschaft beobachtet diesen Fall genau im Hinblick auf seine Auswirkungen auf kommende Gesetze im Zusammenhang mit digitalen Inhalten und Fehlinformationen im politischen Kontext.
Hervorgehobener Bildnachweis: Rorozoa/Freepik