Sam Altman, CEO von OpenAI, erklärte kürzlich in einem Podcast, dass er negative Folgen von künstlicher Intelligenz, einschließlich Deepfakes, erwarte, da die neue Videoanwendung seines Unternehmens, Sora 2, nach der kürzlich erfolgten Einführung nur auf Einladung weit verbreitet sei. In einem Interview im a16z-Podcast, der von der Risikokapitalgesellschaft Andreessen Horowitz produziert wurde, äußerte Altman seine Erwartungen an die Technologie, die sein Unternehmen entwickelt. „Ich gehe davon aus, dass aufgrund der Technologie einige wirklich schlimme Dinge passieren werden“, sagte er und betonte insbesondere das Potenzial für „wirklich seltsame oder beängstigende Momente“. Diese Warnung des Chefs des für ChatGPT verantwortlichen Unternehmens kommt, da KI-gestützte generative Tools immer zugänglicher und ausgefeilter werden. Seine Kommentare liefern Kontext für den schnellen Einsatz leistungsstarker KI-Modelle im öffentlichen Raum und die damit einhergehenden gesellschaftlichen Risiken, die er erwartet. Die Veröffentlichung der neuen Videoanwendung von OpenAI, Sora 2Ende letzten Monats, hat gezeigt, wie schnell sich eine solche Technologie im Mainstream durchsetzen kann. Obwohl der Start zunächst nur auf Einladung möglich war, stieg die Anwendung schnell auf Platz eins im US App Store von Apple auf. Diese schnelle Einführung verdeutlicht ein erhebliches öffentliches Interesse an fortschrittlicher Videogenerierungstechnologie und deren Zugänglichkeit, mit der realistisch aussehende, aber vollständig erfundene Videoinhalte erstellt werden können. Die Popularität der App unterstreicht die unmittelbare Relevanz der Diskussionen über den möglichen Missbrauch solcher Tools. Kurz nach der Veröffentlichung der App tauchten auf Social-Media-Plattformen Fälle auf, in denen sie zur Erstellung von Deepfake-Videos genutzt wurde. In diesen Videos waren Persönlichkeiten des öffentlichen Lebens zu sehen, darunter der Bürgerrechtler Martin Luther King Jr. und Altman selbst. In den erfundenen Inhalten wurden diese Personen bei verschiedenen Formen krimineller Aktivitäten dargestellt. Als Reaktion auf die Verbreitung dieser DeepfakesOpenAI hat Maßnahmen ergriffen, um seine Benutzer daran zu hindern, Videos mit Beiträgen zu erstellen Martin Luther King Jr. nutzt die Sora-Plattform. Dieser Vorfall war ein direktes und unmittelbares Beispiel für die Art des Missbrauchs, den KI-Tools zur Videogenerierung ermöglichen können. Bedenken hinsichtlich eines Missbrauchs gingen über die Schaffung diffamierender Deepfakes von Persönlichkeiten des öffentlichen Lebens hinaus. Nach Angaben der Global Coalition Against Hate and Extremism sammelten mit Sora 2 erstellte Videos zur Leugnung des Holocaust innerhalb weniger Tage nach dem Start der Anwendung Hunderttausende Likes auf Instagram. Die Organisation hat darauf hingewiesen, dass die Nutzungsrichtlinien von OpenAI einen Faktor darstellen. Es wird argumentiert, dass es in den Richtlinien an konkreten Verboten gegen Hassreden mangelt, eine Lücke, die nach Ansicht der Koalition dazu beigetragen hat, dass sich extremistische Inhalte auf Online-Plattformen, die das neue Tool nutzen, verbreiten konnten. Altman lieferte eine Begründung dafür, trotz der offensichtlichen Risiken leistungsstarke KI-Modelle der Öffentlichkeit zugänglich zu machen. Er argumentierte, dass die Gesellschaft eine Art Probefahrt brauche, um sich auf das Kommende vorzubereiten. „Sehr bald wird sich die Welt mit unglaublichen Videomodellen auseinandersetzen müssen, die jeden per Fake fälschen oder alles zeigen können, was man will“, erklärte er während des Podcast-Interviews. Sein Ansatz basiert auf der Überzeugung, dass sich Gesellschaft und künstliche Intelligenz „gemeinsam weiterentwickeln“ müssen. Anstatt Technologie isoliert zu entwickeln und dann eine perfektionierte Version zu veröffentlichen, plädiert er für eine frühzeitige und schrittweise Offenlegung. Altmans Theorie besagt, dass dieser Prozess es Gemeinschaften und Institutionen ermöglicht, notwendige soziale Normen und technologische Leitplanken zu entwickeln, bevor die Werkzeuge noch leistungsfähiger und potenziell disruptiver werden. Er räumte ein, dass viel auf dem Spiel steht, einschließlich des möglichen Vertrauensverlusts in Videobeweise, die in der Vergangenheit als aussagekräftige Wahrheitsdokumente gedient haben. Die Warnungen des CEO von OpenAI gingen über die unmittelbare Bedrohung durch gefälschte Videos hinaus und erstreckten sich auch auf umfassendere, systemische Risiken. Er warnte vor einer Zukunft, in der ein erheblicher Teil der Bevölkerung die Entscheidungsfindung an undurchsichtige Algorithmen auslagert, die nur wenige Menschen verstehen. „Ich glaube immer noch, dass es einige wirklich seltsame oder beängstigende Momente geben wird“, sagte er und betonte, dass das Fehlen eines katastrophalen KI-bezogenen Ereignisses bisher „nicht bedeutet, dass es nie passieren wird.“ Altman beschrieb ein Szenario, in dem „Milliarden von Menschen, die mit demselben Gehirn sprechen“, zu „seltsamen Dingen von gesellschaftlichem Ausmaß“ führen könnten. Dies könnte sich in unerwarteten und schnellen Kettenreaktionen äußern, die erhebliche Veränderungen in der öffentlichen Information, in der politischen Landschaft und in den Grundlagen des kommunalen Vertrauens hervorrufen und sich alle in einem Tempo vollziehen, das jede Fähigkeit, sie zu kontrollieren oder abzumildern, übersteigt. Trotz dieser Anerkennung umfassender und daraus resultierender Risiken äußerte Altman seinen Widerstand gegen eine umfassende staatliche Regulierung der Technologie. „Die meisten Regulierungen haben wahrscheinlich viele Nachteile“, kommentierte er. Er sprach sich jedoch für einen gezielteren Sicherheitsansatz aus. Altman präzisierte, dass er die Einführung „sehr sorgfältiger Sicherheitstests“ für das, was er als „extrem übermenschliche“ KI-Modelle bezeichnete, befürworte, und schlug eine Unterscheidung zwischen aktueller KI und fortschrittlicheren zukünftigen Systemen vor. Er schloss mit dem Glauben an einen gesellschaftlichen Anpassungsprozess und erklärte: „Ich denke, wir werden als Gesellschaft einige Leitplanken dafür entwickeln.“





