OpenAI enthüllte Anfang dieser Woche zwei neue Argumentationsmodelle für sein Chatgpt -Tool und behauptete, sie könne „mit Bildern“ denken. Die O3- und O4-Mini-Modelle können Bilder interpretieren und manipulieren und Informationen abrufen, um die Ausgabe zu verbessern.
Die Modelle haben einen viralen Trend unter Expertennutzern ausgelöst, die festgestellt haben, dass sie Fotos mit begrenzten zusätzlichen Eingaben geolosieren können. Der O3 -ModellInsbesondere erscheint in der Identifizierung von Orten in Bildern auch bei Obstruktionen.
Es kann Bilder bearbeiten, indem es zuschneidern oder zoomt, um Informationen zu extrahieren, mit präzisen geografischen Koordinaten und dem Namen des Ortes zu reagieren. Diese Fähigkeit funktioniert sowohl mit Bildern im Freien als auch mit Innenbildern.
Experten, darunter Wharton Associate Professor Ethan Mollick, haben bestätigt Dass das Modell nicht einfach geotaggierte Informationen aus Fotos zieht, sondern stattdessen seine eigene Argumentation verwendet. Wie bei jedem KI -Modell ist es jedoch anfällig für falsche Antworten, insbesondere bei begrenzten Hinweisen.
Die Geolokationsfähigkeit des Modells hat Bedenken hinsichtlich potenzieller Missbrauchs ausgelöst, da der Prozess für jeden mit Zugriff mühelos macht. Ohne Hindernisse, um die nicht autorisierte Verwendung zu verhindern, kann die Bestimmung der Lage eines Menschen zu einem erheblichen Datenschutzrisiko werden.
Einige Beispiele für die Funktionen des Modells wurden in den sozialen Medien geteilt, wobei Benutzer die Fähigkeit demonstrieren, Standorte zu identifizieren. Als X -Benutzer Jason Barnes geteilt„Schön. Es war zu sagen, dass es in AZ war, könnte zu groß gewesen sein.
Während Geolocating unter Experten eine Nischenaktivität war, macht es das neueste Update von ChatGPT für ein breiteres Publikum zugänglich und macht Bedenken hinsichtlich der verantwortungsvollen Nutzung.