Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

Anthropische Gesichterversuch über Raubki -Trainingsbücher

byEmre Çıtak
Juli 29, 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Eine Klassenklage gegen Anthropic, in der behauptet wird, das Unternehmen habe Raubbücher aus Schattenbibliotheken wie Libgen und Pilimi verwendet, um seine KI-Modelle auszubilden Vermögen.

Anthropic, ein führendes Labor für künstliche Intelligenz, steht vor einer rechtlichen Herausforderung, die sich erheblich auf das finanzielle Ansehen auswirken könnte. Die Klassenklage dreht sich um die angebliche Nutzung von Raubbüchern durch das Unternehmen, um ihr großes Sprachmodell Claude zu schulen. Diese rechtliche Schritte könnte zu Schadensersatz von Milliarden Dollar führen.

Gerichtsanträge zeigen, dass anthrope Millionen von urheberrechtlich geschützten Werken aus Schattenbibliotheken wie Libgen und Pilimi heruntergeladen haben. Diese Downloads wurden angeblich verwendet, um KI -Modelle zu trainieren und eine „Zentralbibliothek“ digitaler Bücher zu errichten, die „alle Bücher der Welt“ umfassen und auf unbestimmte Zeit bewahren sollen. Die Kläger, darunter die Autoren Andrea Bartz, Charles Graeber und Kirk Wallace Johnson, behaupten, dass Millionen dieser Werke von Piraterie -Websites erhalten wurden, die direkte Verstöße gegen das Urheberrecht darstellen.

Richter William Alsup, Vorsitzender des Falls, entschied kürzlich, dass die Ausbildung von KI -Modellen für rechtmäßig erworbene Bücher als „fairer Gebrauch“ qualifiziert ist. Diese Entscheidung bedeutet, dass KI -Unternehmen keine Lizenz von Urheberrechtsinhabern für eine solche Schulung benötigen, eine Entwicklung, die allgemein als bedeutender Sieg für den KI -Sektor angesehen wird. Der ungelöste Aspekt des Falles betrifft jedoch die Methoden von Anthropic, um die urheberrechtlich geschützten Bücher zu erwerben und zu speichern. Richter Alsup unterschieden zwischen der Verwendung rechtmäßig erworbener Materialien und Raubkopieninhalte und informierte Anthropic darüber, dass ein separates Gerichtsverfahren, das sich mit „den Raubkopien“ befasst, und „die resultierenden Schäden“ verlaufen würden.

Luke McDonagh, ein stellvertretender Professor für Recht bei der LSE, kommentierte die Unterscheidung zwischen rechtmäßig gewonnenen und Raubkopien. Er erklärte: „Das Problem ist, dass viele dieser KI -Unternehmen Piraterie -Websites wie Libgen abkratzt haben, auf denen Bücher in elektronischer Form, normalerweise PDF, ohne die Erlaubnis der Autoren ohne Zahlung hochgeladen wurden.“ McDonagh erläuterte, dass die Perspektive des Richters darauf hindeutet, dass die Ausbildung, die auf diesen Büchern basiert, legal sein würde, wenn Anthropic Millionen von digitalen Büchern aus einer legitimen Quelle wie Amazon gekauft hat. Er betonte, dass das Download von Piratenwebsites das Kernproblem darstellt, da sowohl der Erwerb einer nicht autorisierten Kopie als auch die spätere Verwendung sowohl der Erwerb einer nicht autorisierten Kopie beinhalten.

Ed Lee, ein Rechtsprofessor bei Santa Clara, schlug in einem Blog-Beitrag vor, dass das Urteil von Richter Alsup Anthropic auf „zumindest das Potenzial für die Haftung zur Geschäftszeit“ aussetzen könnte. Es ist unwahrscheinlich, dass die Kläger direkte finanzielle Schäden wie verlorene Umsätze belegen, und es wird daher erwartet, dass sie gesetzliche Schäden anstreben. Die gesetzlichen Schäden liegen zwischen 750 und 150.000 USD pro Arbeit. Der spezifische Betrag hängt stark davon ab, ob der Verstoß als vorsätzlich festgelegt ist. Wenn das Gericht zu dem Schluss kommt, dass Anthropic wissentlich das Urheberrecht verstoßen, könnten die daraus resultierenden Bußgelder erheblich sein und selbst am unteren Ende der gesetzlichen Schadensskala möglicherweise Milliarden von Dollar erreichen.


Anthropisch möchte jetzt, dass Sie seine KI verwenden, wenn Sie sich für einen Job bewerben


Die genaue Anzahl der in der Sammelklage enthaltenen Werke und ob eine Jury eine vorsätzliche Verletzung feststellt, bleibt unbestimmt. Mögliche Schäden könnten jedoch von Hunderten von Millionen bis zu zehn Milliarden Dollar liegen. Lee stellt fest, dass Schadenersatz zwischen 1 und 3 Milliarden US -Dollar auch am unteren Ende plausibel sind, wenn nur 100.000 Werke in der Sammelklage enthalten sind. Diese Zahl würde mit den größten Copyright -Schadensergebnissen konkurrieren und könnte den aktuellen Jahresumsatz von Anthropic in Höhe von 4 Milliarden US -Dollar erheblich überschreiten. Lee schätzte ferner, dass das Unternehmen, wenn eine Jury anthropisch absichtlich 6 Millionen urheberrechtlich geschützte Bücher besiegt, eine Haftung in Höhe von bis zu 1,05 Billionen US -Dollar ausgesetzt sein könnte.

Anthropic hat keinen sofortigen Kommentar als Antwort auf Anfragen abgegeben. Das Unternehmen hat jedoch zuvor seine „respektvolle Meinungsverschiedenheit“ mit der Entscheidung des Gerichts festgestellt. Anthropic untersucht seine Optionen, zu denen auch die Entscheidung von potenziell anspruchsvoller Richter Alsup gehört, oder die versucht, den Fall zu begleichen. Der Prozess, der als erste zertifizierte Sammelklage gegen ein KI-Unternehmen zur Verwendung von urheberrechtlich geschützten Materialien bemerkenswert ist, ist für den 1. Dezember geplant. Das Ergebnis dieses Urteils könnte ähnliche laufende Rechtsstreitigkeiten beeinflussen, wie z.

Während die juristischen Meinungen anscheinend faire Nutzungsargumente für KI -Unternehmen bevorzugen, besteht eine rechtliche Abweichung über den Erwerb von urheberrechtlich geschützten Werken von nicht autorisierten Schattenstandorten. In einem kürzlich erschienenen Urheberrechtsfall gegen Meta stellte Richter Vince Chhabria fest, dass der transformative Zweck der KI das frühere nicht autorisierte Download effektiv legitimiert. McDonagh erklärte, dass die Entscheidung von Richter Chhabria darauf hinwies, dass die positive, transformative Anwendung der Arbeiten die anfängliche problematische Erfassung „korrigieren“ könnte. Im Gegensatz dazu betrachtet Richter Alsup das Herunterladen von Büchern aus nicht autorisierten Schattenbibliotheken als „von Natur aus falsch“. Er impliziert, dass selbst wenn der KI -Schulungsnutzung als fairen Gebrauch angesehen wird, der anfängliche Erwerb der Arbeiten illegitim war und eine Entschädigung erfordern würde.

Ein weiterer Divergenzpunkt zwischen den beiden Richtern betrifft, ob die von AI generierten Outputs mit den ursprünglichen urheberrechtlich geschützten Arbeiten, die in ihren Trainingsdaten verwendet werden, als wettbewerbsfähig angesehen werden könnten. Richter Chhabria räumte ein, dass eine solche Konkurrenz eine Verteidigung für einen fairen Gebrauch untergraben könnte. Im Meta -Fall stellte er jedoch fest, dass die Kläger nicht ausreichend Beweise für Marktschäden lieferten. Umgekehrt kam Richter Alsup zu dem Schluss, dass generative KI -Ergebnisse überhaupt nicht mit den Originalwerken konkurrieren.

Die legale Landschaft um KI -Unternehmen und urheberrechtlich geschützte Werke ist ebenfalls zunehmend politisiert. Die derzeitige Verwaltung setzt sich für einen breiten Schutz für den fairen Gebrauch für KI -Unternehmen ein, die urheberrechtlich geschützte Materialien für die Schulung verwenden. Diese Haltung ist Teil der Bemühungen, die US -Führung in der Entwicklung künstlicher Intelligenz aufrechtzuerhalten.

McDonagh drückte die Ansicht aus, dass die Klage gegen Anthropic wahrscheinlich nicht zur Insolvenz des Unternehmens führen wird. Er schlug vor, dass die US -Regierung wahrscheinlich keine Entscheidung zulassen würde, die eine KI -Firma effektiv abbauen würde. Darüber hinaus stellte er fest, dass Richter im Allgemeinen eine Abneigung gegen die Erteilung von Entscheidungen nachweisen könnten, die zu Insolvenz führen könnten, es sei denn, eine starke rechtliche Grundlage erfordert ein solches Ergebnis. Es wurde festgestellt, dass Gerichte die potenziellen Auswirkungen auf ein Unternehmen und seine Stakeholder bei der Erteilung von Entscheidungen berücksichtigen, die zu Liquidation führen könnten. McDonagh erklärte: „Der Oberste Gerichtshof der USA scheint im Moment für die Trump -Agenda ziemlich freundlich zu sein, so dass dies am Ende nicht die Art von Doomsday -Szenario des urheberrechtlich regierenden Anthropics gewesen wäre.“ Er fügte hinzu: „Anthropic wird jetzt abhängig von verschiedenen Schätzungen zwischen 60 und 100 Milliarden US -Dollar geschätzt. Die Zahlung von ein paar Milliarden an die Autoren würde die Organisation keineswegs bankrott machen.“


Ausgewähltes Bildnachweis

Tags: AiAnthropisch

Related Posts

Amazon erweitert Ring auf der CES 2026 um Sensoren und Feueralarme

Amazon erweitert Ring auf der CES 2026 um Sensoren und Feueralarme

Januar 7, 2026
Viraler Reddit-Whistleblower als KI-Schwindel entlarvt

Viraler Reddit-Whistleblower als KI-Schwindel entlarvt

Januar 7, 2026
Warum 2026 das Jahr der Healthcare Trades Documentation ist "Mietbar" KI-Agenten

Warum 2026 das Jahr der Healthcare Trades Documentation ist "Mietbar" KI-Agenten

Januar 7, 2026
CES 2026: Intel fordert AMD mit dem Panther-Lake-Handheld-Chip heraus

CES 2026: Intel fordert AMD mit dem Panther-Lake-Handheld-Chip heraus

Januar 7, 2026
Motorola stellt auf der CES 2026 das seitlich faltbare Razr Fold vor

Motorola stellt auf der CES 2026 das seitlich faltbare Razr Fold vor

Januar 7, 2026
Lenovo stellt auf der CES 2026 die ThinkPad X1 Aura Editions vor

Lenovo stellt auf der CES 2026 die ThinkPad X1 Aura Editions vor

Januar 7, 2026

Recent Posts

  • China untersucht Metas Manus-Deal wegen Exportkontrollbedenken
  • Amazon erweitert Ring auf der CES 2026 um Sensoren und Feueralarme
  • Viraler Reddit-Whistleblower als KI-Schwindel entlarvt
  • Warum 2026 das Jahr der Healthcare Trades Documentation ist "Mietbar" KI-Agenten
  • Nature-Studie prognostiziert bis 2050 2 Milliarden tragbare Gesundheitsgeräte

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.