Rund 200 Mitarbeiter von Google DeepMind, der KI-Forschungsabteilung von Google, haben Alarm geschlagen wegen der Militärverträge des Unternehmens. Laut Zeit, Sie haben Google aufgefordert, die Zusammenarbeit mit Militärorganisationen einzustellen, da sie der Ansicht sind, dass dieser Einsatz ihrer Technologie gegen die ethischen Regeln von Google für KI verstößt.
Eine kurze Erinnerung: Als Google DeepMind 2014 übernahm, war das Labor versprach, dass seine KI-Technologie nicht für militärische oder Überwachungszwecke eingesetzt würde. DeepMind operierte jahrelang einigermaßen unabhängig. Als jedoch die KI-Konkurrenz zunahm, wurde DeepMind stärker in Google integriert. Im Jahr 2023 fusionierte es mit Google Brain und rückte damit näher an Googles Hauptaktivitäten heran.
Die umstrittenen Verträge: Projekt Nimbus & mehr
Im Mittelpunkt stehen die Cloud-Dienste von Google, darunter die von DeepMind entwickelte KI, die an Regierungen und Militärs verkauft wurden. Der umstrittenste Vertrag ist das Projekt Nimbus, ein Deal mit der israelischen Regierung. Dieser Vertrag wurde kritisiert, weil er das israelische Militär unterstützt, das an Operationen in Gaza beteiligt ist.
Mitarbeiter von DeepMind befürchten, dass die Zusammenarbeit mit Militärorganisationen gegen die KI-Prinzipien von Google verstößt. Diese Prinzipien sollen sicherstellen, dass KI ethisch und verantwortungsbewusst eingesetzt wird. Sie besagen, dass KI keinen Schaden anrichten oder für Waffen oder Überwachungsmaßnahmen eingesetzt werden darf, die gegen die Menschenrechte verstoßen.
Der Brief der Mitarbeiter
Am 16. Mai 2024 schickten die Mitarbeiter einen Brief, in dem sie ihre Bedenken äußerten. In dem Brief heißt es, dass sie zwar nicht auf bestimmte Konflikte oder Regierungen abzielen, aber besorgt sind über den Einsatz von KI im Militär Einstellungen. Es wird argumentiert, dass eine solche Einmischung DeepMinds Engagement für ethische KI schadet.
In dem Brief werden drei Hauptmaßnahmen gefordert:
- Untersuchung: Sehen Sie sich an, wie die Technologie von DeepMind von Militärorganisationen eingesetzt wird.
- Beendigung: Beenden Sie den Zugriff auf die DeepMind-Technologie für Militärkunden.
- Führung: Ein neues Gremium soll die zukünftige militärische Nutzung der DeepMind-Technologie verhindern.
Reaktion und Frustrationen des Unternehmens
Google antwortete, dass es seinen KI-Prinzipien folge und dass das Projekt Nimbus die Bereitstellung von Cloud-Diensten für israelische Ministerien und nicht direkt für das Militär beinhalte. Google behauptet, dass diese Dienste nicht für sensible militärische oder geheime Zwecke bestimmt seien.
Die Unterzeichner des Briefes argumentieren jedoch, dass die Antwort von Google unklar sei und nicht auf ihre Bedenken eingehe, dass das Unternehmen mit seiner Technologie Überwachung und Gewalt unterstütze.
Die Mitarbeiter sind über die mangelnde Reaktion von Google auf ihren Brief frustriert und haben den Eindruck, dass die Unternehmensleitung ihre Anliegen nicht wirksam berücksichtigt hat.
Bei einer Bürgerversammlung im Juni versicherte Lila Ibrahim, Chief Operating Officer von DeepMind, den Mitarbeitern, dass DeepMind keine KI für Waffen oder Massenüberwachung entwickeln werde. Sie betonte Googles Engagement für verantwortungsvolle KI, was ihrer Aussage nach der Grund dafür war, dass sie dem Unternehmen beigetreten und dort geblieben sei.
Diese Situation bei Google DeepMind spiegelt eine größere Debatte in der Technologiebranche über den Einsatz fortschrittlicher Technologien in militärischen Anwendungen wider. Da die KI-Technologie immer weiter fortschreitet, stehen Unternehmen wie Google vor der Herausforderung, Geschäftsinteressen mit ethischen Verantwortlichkeiten in Einklang zu bringen. Der Ausgang dieses Streits könnte wichtige Richtlinien für die zukünftige Entwicklung und Nutzung von KI setzen.