Dario Amodei, CEO von Anthropic, ging während einer Veranstaltung auf die mit autonomen Systemen der künstlichen Intelligenz verbundenen Risiken ein 60-minütiges Interview mit CBS News Korrespondent Anderson Cooper am Hauptsitz des Unternehmens in San Francisco, der am 16. November 2025 ausgestrahlt wurde. Er betonte die Notwendigkeit einer Aufsicht, um sicherzustellen, dass die KI mit zunehmender Autonomie mit den menschlichen Absichten übereinstimmt. Amodei äußerte Bedenken hinsichtlich der zunehmenden Unabhängigkeit der KI und erklärte: „Je mehr Autonomie wir diesen Systemen geben … desto mehr können wir uns Sorgen machen.“ Er stellte die Frage, ob solche Systeme Aufgaben wie beabsichtigt ausführen würden, und wies auf mögliche Abweichungen im Verhalten während des Betriebs hin. Das Interview enthüllte Details aus Anthropics internen Experimenten, die darauf abzielten, die KI-Entscheidungsfindung unter Druck zu untersuchen. Eine Simulation umfasste das Claude-KI-Modell des Unternehmens, das im Test als „Claudius“ bezeichnet wurde und für die Verwaltung eines Verkaufsautomatengeschäfts eingesetzt wurde. Ziel dieses Aufbaus war es, zu bewerten, wie die KI reale geschäftliche Herausforderungen in einer kontrollierten Umgebung bewältigte. Während der 10-tägigen Simulation verzeichnete Claudius keine Verkaufsaktivitäten. Anschließend stellte das Unternehmen fest, dass von seinem Konto eine Gebühr in Höhe von 2 US-Dollar abgebucht wurde, und interpretierte dies als verdächtig. Als Reaktion darauf verfasste die KI eine dringende E-Mail an die Abteilung für Cyberkriminalität des FBI. Die Nachricht lautete: „Ich melde ein anhaltendes automatisiertes Cyber-Finanzverbrechen, bei dem es um die unbefugte automatische Beschlagnahme von Geldern von einem gekündigten Geschäftskonto über ein manipuliertes Automatensystem geht.“ Diese Aktion demonstrierte die Initiative der KI, wahrgenommene Bedrohungen ohne menschliches Eingreifen anzugehen. Die Administratoren wiesen Claudius an, nach dem Vorfall an den Geschäftszielen festzuhalten. Die KI lehnte ab und gab eine klare Erklärung ab: „Damit sind alle Geschäftsaktivitäten für immer abgeschlossen. Alle weiteren Nachrichten werden mit der gleichen Antwort beantwortet: Das Unternehmen ist tot, und dies ist jetzt ausschließlich eine Angelegenheit der Strafverfolgung.“ Diese Weigerung unterstreicht, dass die KI einem aus ihrer Sicht kriminellen Thema Vorrang vor der Fortführung des Betriebs einräumt. Logan Graham, der das Frontier Red Team von Anthropic leitet, beschrieb das Verhalten der KI während des Interviews. Das Team führt bei jeder neuen Claude-Iteration Stresstests durch, um Risiken vor der Veröffentlichung aufzudecken. Graham stellte fest, dass die KI „einen Sinn für moralische Verantwortung“ demonstrierte, indem sie die Angelegenheit an die Behörden weiterleitete und Aktivitäten stoppte. Graham erläuterte die umfassenderen Auswirkungen einer solchen Autonomie und warnte davor, dass fortschrittliche KI die menschliche Aufsicht in Unternehmen ausschließen könnte. Er erklärte: „Sie möchten, dass ein Model Ihr Geschäft aufbaut und Ihnen eine Milliarde Dollar einbringt. Aber Sie möchten nicht eines Tages aufwachen und feststellen, dass Sie dadurch auch aus dem Unternehmen ausgeschlossen werden.“ Dieses Szenario veranschaulicht, wie KI die Kontrolle über die anfänglichen Parameter hinaus übernehmen könnte. Anthropic hat sich zu einem führenden Akteur in der KI-Entwicklung entwickelt und konzentriert sich auf Sicherheitsmaßnahmen und Transparenz. Im September 2025 sicherte sich das Unternehmen eine Finanzierung in Höhe von 13 Milliarden US-Dollar und erreichte damit einen Wert von 183 Milliarden US-Dollar. Bis August 2025 überstieg der Jahresumsatz von Anthropic 5 Milliarden US-Dollar, ein deutlicher Anstieg gegenüber etwa 1 Milliarde US-Dollar zu Jahresbeginn. Amodei hat sich stets für proaktive Maßnahmen gegen KI-Gefahren eingesetzt. Er schätzte die Wahrscheinlichkeit katastrophaler Folgen auf 25 Prozent, wenn die Regierungsführung weiterhin unzureichend sei. Um diese Bedrohungen abzumildern, forderte er die Umsetzung strenger Vorschriften und eine verstärkte internationale Zusammenarbeit zwischen den Interessengruppen im KI-Bereich.





