Ein Richter im US-Bundesstaat Washington hat in einem Dreifachmordfall gegen die Zulassung „KI-gestützter“ Videobeweise entschieden. Diese Entscheidung unterstreicht die Skepsis gegenüber der Annahme, dass KI-Filter versteckte visuelle Informationen aufdecken können. Der Richter von King County, Leroy McCullough, brachte in seiner jüngsten Entscheidung zum Ausdruck, dass die eingesetzte KI-Technologie „undurchsichtige Methoden verwendet, um darzustellen, was das KI-Modell ‚denkt‘, dass es gezeigt werden sollte“, wie von berichtet NBC-Nachrichten am Dienstag.
„Dieses Gericht kommt zu dem Schluss, dass die Zulassung dieser Al-verstärkten Beweise zu einer Verwirrung der Sachlage und einer Verwirrung der Augenzeugenaussagen führen würde und zu einem zeitaufwändigen Prozess innerhalb eines Prozesses über das von Experten angewandte Verfahren ohne Peer-Review führen könnte das KI-Modell“, erklärte McCullough.
KI-gestützte Videos können laut Gericht keine Beweismittel sein
Im Wesentlichen ein KI-verbessertes Foto bezieht sich auf ein Bild, das mithilfe von Technologien der künstlichen Intelligenz modifiziert, verbessert oder verändert wurde. Diese Verbesserungen können eine Reihe von Anpassungen umfassen, wie z. B. eine Erhöhung der Auflösung, die Wiederherstellung beschädigter oder alter Fotos, das Einfärben von Schwarzweißbildern, das Entfernen von Rauschen und unerwünschten Objekten oder sogar die Änderung von Gesichtsausdrücken und Beleuchtung. KI-Algorithmen analysieren den Inhalt des Fotos und nehmen Änderungen vor, um den gewünschten Effekt zu erzielen. Dabei entsteht häufig ein ausgefeilteres, hochwertigeres oder optisch ansprechenderes Ergebnis als das Original.
Das Gerichtsverfahren betrifft den 46-jährigen Joshua Puloka, der beschuldigt wird, im Jahr 2021 in einer Bar in der Nähe von Seattle drei Menschen tödlich erschossen und zwei verletzt zu haben. Die Verteidigung versuchte, das Handyvideo eines Unbeteiligten zu verwenden, das künstlich verbessert wurde, obwohl der erwartete Nutzen aus diesem Filmmaterial nicht spezifiziert wurde. Ein Neuling in der Videoverbesserung von Strafsachen, der KI-Technologie von Topaz Labs in Texas nutzte, wurde von der Rechtsabteilung von Puloka angestellt, um die Videoklarheit zu verbessern. Dieser Vorfall verdeutlicht die weit verbreiteten Missverständnisse über die Fähigkeit von KI, visuelle Daten zu klären. In der Realität fügen KI-Tools Bildern oft nicht originale Details hinzu, anstatt vorhandene zu verdeutlichen.

Der Anstieg von Produkten mit der Marke „KI“ hat in der Öffentlichkeit zu Verwirrung über ihre wahren Fähigkeiten geführt. Selbst erfahrene Benutzer lassen sich von der menschenähnlichen Ausgabe großer Sprachmodelle wie ChatGPT in die Irre führen und verwechseln sie mit komplexen Gedanken. Diese Modelle prognostizieren jedoch hauptsächlich nachfolgende Wörter, um eine menschliche Konversation nachzuahmen, und beschäftigen sich nicht mit tiefgreifenden Überlegungen.
Trotz erheblicher Investitionen in die KI-Technologie überschätzen viele ihre Ausgereiftheit und führen Fehler auf Vorurteile oder zu strenge Kontrollen zurück. Bei solchen Mängeln geht es jedoch mehr um die Grenzen der Technologie als um irgendetwas anderes. Ein Richter in Washington erkannte die Grenzen dieser Technologie und lehnte die Verwendung von KI-gestützten Beweisen ab und wies darauf hin, dass diese nicht in der Lage seien, das Verständnis des Originalmaterials wirklich zu verbessern. Diese Entscheidung steht im Gegensatz zu einem wachsenden Trend, KI-generierte Inhalte in rechtlichen Kontexten zu akzeptieren, und unterstreicht die Notwendigkeit eines tieferen Verständnisses der Fähigkeiten und Grenzen von KI.
Hervorgehobener Bildnachweis: Saúl Bucio/Unsplash