Google hat seine ethischen Richtlinien am Dienstag aktualisiert und seine Verpflichtungen zur Anwendung künstlicher Intelligenz (AI) -Technologie (AI) auf Waffen oder Überwachung entfernt. Die vorherige Version der KI -Prinzipien des Unternehmens umfasste Verbote, Technologien zu verfolgen, die wahrscheinlich allgemein Schaden zufügen, einschließlich derjenigen, die für Waffen und Überwachung verwendet wurden.
Google überarbeitet die KI -Richtlinien und öffnet die Tür zu militärischen Bewerbungen
In a Blog -Beitrag Von Demis Hassabis, Google’s Chef von AI, und James Manyika, Senior Vice President für Technologie und Gesellschaft, erklärten die Führungskräfte, dass das Wachstum der KI -Technologie Anpassungen an den Grundsätzen erforderte. Sie betonten die Bedeutung der führenden demokratischen Länder für die KI -Entwicklung und die Notwendigkeit, Regierung und nationalen Sicherheitskunden zu dienen. „Wir glauben, dass Demokratien in der KI -Entwicklung führen sollten, geführt von Grundwerten wie Freiheit, Gleichheit und Respekt vor Menschenrechten“, erklärten sie. Darüber hinaus argumentierten sie für die Zusammenarbeit zwischen Unternehmen und Regierungen, die diese Werte teilen, um KI zu schaffen, die Menschen schützen und die nationale Sicherheit unterstützen.
Zu den überarbeiteten KI -Prinzipien gehören nun Elemente der menschlichen Aufsicht und Feedback -Mechanismen, um die Einhaltung der Völkerrechts- und Menschenrechtsstandards sicherzustellen. Sie unterstreichen auch ein Engagement für die Testetechnologie, um unbeabsichtigte schädliche Effekte zu mildern.
Diese Änderung steht im Gegensatz zu Googles früherer Haltung, die es zu einem Ausreißer bei großen KI -Entwicklern machte. Unternehmen wie Openai und Anthropic haben gegründet Partnerschaften mit Militärfirmen zur Teilnahme an der Verteidigungstechnologie, während Google aufgrund von ähnlichen Bemühungen aufgrund von Mitarbeiterprotesten zuvor ausgewählt hatte. Google führte zunächst seine KI -Prinzipien im Jahr 2018 ein, nachdem die Mitarbeiter der Mitarbeiter in Bezug auf seine Beteiligung an dem Projekt Maven des Pentagons.
In einem breiteren Kontext verschärft sich die Beziehung zwischen dem US -amerikanischen Technologiesektor und dem Verteidigungsministerium, wobei die KI für militärische Operationen immer wichtiger ist. Michael Horowitz, Professor für Politikwissenschaft an der Universität von Pennsylvania, bemerkte, dass es für Google sinnvoll ist, seine Richtlinien zu aktualisieren, um diese sich entwickelnde Landschaft widerzuspiegeln. Gleichzeitig schlug Lilly Irani, Professorin an der University of California in San Diego, vor, dass die Aussagen der Exekutive laufende Muster widerspiegeln, die im Laufe der Zeit aufgetreten sind.
Der ehemalige Google -CEO Eric Schmidt hat zuvor Bedenken hinsichtlich der Vereinigten Staaten in der KI von China geäußert und die geopolitische Dynamik in Bezug auf die KI -Entwicklung hervorgehoben. Das jüngste Update erfolgt inmitten von Spannungen, da sich die technologische Rivalität der USA-China intensiviert. Nach der Ankündigung neuer Zölle der Trump -Administration initiierte Peking eine Kartellanfrage in Google.
Interne Proteste in Bezug auf die Cloud -Computing -Verträge von Google mit Israel haben bei den Mitarbeitern ethische Bedenken geäußert und potenzielle Auswirkungen auf die palästinensische Bevölkerung anführt. Berichte zeigen, dass Google dem israelischen Verteidigungsministerium nach den Angriffen der Hamas am 7. Oktober 2023 den Zugang zu seinen KI -Tools gewährt hat.
Ausgewähltes Bildnachweis: Kerem Gülen/Ideogramm