Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

OpenAI wird nach dem CTO-Interview zu Sora kritisiert

byEmre Çıtak
März 15, 2024
in Allgemein

OpenAI, das einflussreiche Forschungslabor für künstliche Intelligenz hinter bahnbrechenden Tools wie ChatGPT und Sora, ist nach einem kürzlichen Interview mit seiner Chief Technology Officer, Mira Murati, in Schwierigkeiten geraten.

Das Interviewdurchgeführt von der Wall Street Journal-Reporterin Joanna Stern, konzentrierte sich auf das neueste Bild- bzw. Videogenerierungssystem von OpenAI. Sora.

Die Bedenken konzentrieren sich auf den möglichen Missbrauch urheberrechtlich geschützter Werke zum Trainieren von KI-Modellen und dergleichen Mangel an Transparenz von OpenAI bezüglich seiner Datenpraktiken.

Soras Trainingsdaten sind fraglich

Im Mittelpunkt der Kontroverse steht die Frage der Trainingsdaten. die riesigen Datensätze, die zum Trainieren von KI-Modellen verwendet werden.

Auf die Frage nach den für Sora verwendeten Datenquellen gab Murati die Standardantwort: Das Modell sei trainiert worden auf „öffentlich zugängliche und lizenzierte Daten„.

Weitere Untersuchungen ergaben jedoch, dass Murati hinsichtlich der spezifischen Details dieses Datensatzes zögerte und unsicher war.

Diese Antwort hat rote Fahnen gehisst unter Künstlern, Fotografen und Experten für geistiges Eigentum. KI-Bilderzeugungssysteme sind in hohem Maße auf die Aufnahme großer Mengen an Bildern angewiesen, von denen viele möglicherweise urheberrechtlich geschützt sind. Der Mangel an Klarheit in Bezug auf die Trainingsdaten von Sora wirft die Frage auf, ob OpenAI die Rechte der Inhaltsersteller angemessen geschützt hat.

Kontroverse um OpenAI SORA-Trainingsdaten
Die Trainingsdatenbank von Sora wurde auf keiner offiziellen Plattform veröffentlicht (Bildnachweis)

Die Verwendung von Shutterstock wurde später zugegeben

Dass Murati sich zunächst weigerte, sich mit der Frage zu befassen, ob Shutterstock-Bilder ein Bestandteil von Soras Trainingsdatensatz waren, fügte dem Feuer noch Öl hinzu. Erst nach dem Interview bestätigte Murati in einer vom Wall Street Journal hinzugefügten Fußnote die Verwendung der Bildbibliothek von Shutterstock.

Diese Bestätigung widerspricht der öffentlichkeitswirksamen Haltung von OpenAI: „öffentlich zugängliche und lizenzierte Daten“ und schlägt einen Versuch vor, potenziell problematische Beschaffungspraktiken zu verbergen.

Shutterstock und OpenAI haben eine Partnerschaft geschlossen, die OpenAI die Rechte zur Nutzung der Bildbibliothek von Shutterstock für das Training von Bilderzeugungsmodellen wie DALL-E 2 und möglicherweise Sora gewährt.

Im Gegenzug erhalten Shutterstock-Mitwirkende (die Fotografen und Künstler, deren Bilder auf der Plattform verfügbar sind) eine Vergütung, wenn ihre Arbeit bei der Entwicklung dieser KI-Modelle verwendet wird.

Ein PR-Albtraum nimmt seinen Lauf

Man kann mit Sicherheit sagen, dass die meisten PR-Leute dieses Interview nicht als PR-Meisterwerk betrachten würden.

Muratis Unklarheit kommt zu einem sensiblen Zeitpunkt für OpenAI. steht bereits vor großen Urheberrechtsklagendarunter eine bedeutende, von der New York Times eingereichte.

Die Öffentlichkeit untersucht Praktiken wie die angebliche heimliche Verwendung von YouTube-Videos durch OpenAI für das Modelltraining zuvor von The Information berichtet. Angesichts der Tatsache, dass Interessengruppen von Künstlern bis hin zu Politikern Rechenschaftspflicht fordern, schürt Muratis Vermeidung das Feuer nur.

Der undurchsichtige Ansatz von OpenAI geht spektakulär nach hinten los. Das Sora-Interview in ein PR-Desaster verwandeln.

Mira Murati, CTO von OpenAI, sagt, dass Sora anhand öffentlich verfügbarer und lizenzierter Daten geschult wurde pic.twitter.com/rf7pZ0ZX00

— Zarathustra (@tsarnick) 13. März 2024

Transparenz ist nicht umsonst das meistdiskutierte Thema

Dieser Vorfall unterstreicht eine entscheidende Wahrheit: Die Enthüllung der Wahrheit ist in der Welt der KI von größter Bedeutung. Die stolpernden Reaktionen von OpenAI haben das Vertrauen der Öffentlichkeit erheblich untergraben und Fragen zu seinen ethischen Praktiken verstärkt. Die Sora-Kontroverse unterstreicht den wachsenden Chor fordert eine größere Verantwortung innerhalb der KI-Branche.

Muratis Widerwillen, die Einzelheiten von Soras Trainingsdaten preiszugeben, schürt Misstrauen und schafft einen gefährlichen Präzedenzfall.

Ohne die Klarheit, die Künstler, Schöpfer und die Öffentlichkeit fordern, werden ethische Debatten und die Möglichkeit rechtlicher Schritte nur noch intensiver.

In diesem Land gibt es keine Engel

Während sich ein Großteil der aktuellen Untersuchungen eindeutig auf OpenAI bezieht, ist es wichtig, sich daran zu erinnern Sie sind nicht der einzige Spieler im Spiel.

Facebook-KI-Forschung LLaMA-Modell Und Googles Zwillinge wurden auch mit Vorwürfen problematischer Trainingsdatenquellen konfrontiert.

Kontroverse um OpenAI SORA-Trainingsdaten
Das Thema Transparenz bei KI-Entwicklungen steht schon lange auf der Tagesordnung (Bildnachweis)

Dies ist nicht überraschend, da Business Insider-Berichte das hat Meta bereits zugegeben Verwendung von Instagram- und Facebook-Beiträgen um seine KI-Modelle zu trainieren. Zusätzlich, Googles Kontrolle über weite Teile des Internets gewährt ihnen beispiellosen Zugang zu potenziellen Trainingsdaten, was ähnliche ethische Bedenken hinsichtlich Einwilligung und Urheberrecht aufwirft.

Die Situation mit Sora von OpenAI ist nur ein Teil eines größeren Puzzles. Der gesamte Bereich der KI-Entwicklung steht im Hinblick auf seine Datenpraktiken und die möglichen ethischen Implikationen auf dem Prüfstand.


Hervorgehobener Bildnachweis: Freepik.

Related Posts

Databricks -Wetten auf serverlose Postgres mit seiner Akquisition von 1 Milliarde US -Dollar

Databricks -Wetten auf serverlose Postgres mit seiner Akquisition von 1 Milliarde US -Dollar

Mai 15, 2025
Alphaevolve: Wie Googles neue KI mit Selbstkorrektur auf die Wahrheit strebt

Alphaevolve: Wie Googles neue KI mit Selbstkorrektur auf die Wahrheit strebt

Mai 15, 2025
TIKTOK implementiert AI-generierte ALT-Texte, um eine bessere Akzierbarkeit zu erhalten

TIKTOK implementiert AI-generierte ALT-Texte, um eine bessere Akzierbarkeit zu erhalten

Mai 15, 2025
Trump zwingt Apple, seine indische iPhone -Strategie in Indien zu überdenken

Trump zwingt Apple, seine indische iPhone -Strategie in Indien zu überdenken

Mai 15, 2025
Die KI von YouTube weiß jetzt, wann Sie kurz vor dem Kauf sind

Die KI von YouTube weiß jetzt, wann Sie kurz vor dem Kauf sind

Mai 15, 2025
Der CEO von SoundCloud gibt zu, dass KI -Begriffe nicht klar genug waren, ein neues Versprechen herausgibt

Der CEO von SoundCloud gibt zu, dass KI -Begriffe nicht klar genug waren, ein neues Versprechen herausgibt

Mai 15, 2025

Recent Posts

  • Databricks -Wetten auf serverlose Postgres mit seiner Akquisition von 1 Milliarde US -Dollar
  • Alphaevolve: Wie Googles neue KI mit Selbstkorrektur auf die Wahrheit strebt
  • TIKTOK implementiert AI-generierte ALT-Texte, um eine bessere Akzierbarkeit zu erhalten
  • Trump zwingt Apple, seine indische iPhone -Strategie in Indien zu überdenken
  • Die KI von YouTube weiß jetzt, wann Sie kurz vor dem Kauf sind

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.