OpenAI, Google, Microsoft und Anthropic, vier der größten KI-Unternehmen, haben einen neuen Branchenverband gegründet, um die „sichere und verantwortungsvolle Entwicklung“ sogenannter „Frontier AI“-Modelle zu gewährleisten.
Entwickler weit verbreiteter KI-Technologien, darunter OpenAI, Microsoft, Google und Anthropic, haben als Reaktion auf die steigenden Forderungen nach staatlicher Regulierung das Frontier Model Forum gegründet. Um technische Bewertungen und Benchmarks bereitzustellen sowie Best Practices und Standards zu fördern, greift diese Allianz auf die Expertise ihrer Mitgliedsunternehmen zurück.
Obwohl es derzeit nur vier Mitglieder hat, heißt das Frontier AI Model Forum neue Teilnehmer willkommen. Um sich zu qualifizieren, muss ein Unternehmen an innovativen KI-Modellen arbeiten und ein „starkes Engagement für die Sicherheit von Grenzmodellen“ zeigen.

Was bietet das Frontier AI Model Forum?
Im Mittelpunkt der Mission des Forums steht die Diskussion über Grenz-KI oder hochmoderne KI- und maschinelle Lernmodelle, die als gefährlich genug gelten, um „ernsthafte Risiken für die öffentliche Sicherheit“ darzustellen. Entsprechend GoogleHier sind die Kernziele des Frontier AI Model Forums:
- Die Forschung zur KI-Sicherheit wird vorangetrieben, um die sorgfältige Erstellung modernster Modelle zu fördern, potenzielle Gefahren zu verringern und den Weg für unparteiische, standardisierte Bewertungen von Leistung und Sicherheit zu ebnen.
- Aufklärung der Öffentlichkeit über die Natur, Fähigkeiten, Grenzen und Auswirkungen der Technologie durch Festlegung der besten Methoden für ihre verantwortungsvolle Entwicklung und Umsetzung.
- Wir arbeiten mit Entscheidungsträgern, Wissenschaftlern, der Zivilgesellschaft und Unternehmen zusammen, um Informationen über Vertrauens- und Sicherheitsbedrohungen zu verbreiten.
- Verstärkung der Bemühungen zur Entwicklung von Software, die zur Bewältigung einiger der drängendsten Probleme der Gesellschaft beitragen kann, wie etwa Klimawandel, Krankheitsdiagnose und -prävention sowie Cybersicherheit.
Die Hauptziele des Forums werden darin bestehen, die Forschung zur KI-Sicherheit zu intensivieren, die Kommunikation zwischen Unternehmen und Regierungen zu verbessern und Best Practices für die Entwicklung und Implementierung von KI-Modellen festzulegen. Die KI-Sicherheitsstudie umfasst das Testen und Vergleichen verschiedener KI-Modelle sowie die Veröffentlichung der Benchmarks in einer öffentlichen Bibliothek, damit jeder wichtige Akteur in der Branche die Risiken verstehen und Vorsichtsmaßnahmen treffen kann.
Das Frontier Model Forum wird einen Beirat mit Mitgliedern aus einem breiten Spektrum von Disziplinen und Perspektiven bilden, um bei der Entscheidung über Taktiken und Ziele zu helfen. Darüber hinaus werden Vorreiterunternehmen institutionelle Rahmenbedingungen schaffen, die die Konsensbildung zwischen allen relevanten Parteien zu Fragen der KI-Entwicklung erleichtern.

Das Forum wird auch die Daten und Ressourcen nutzen, die Wissenschaftler, NGOs und andere interessierte Parteien beigesteuert haben. Es wird die Standards bereits bestehender KI-Projekte wie der Partnership on AI und MLCommons befolgen und unterstützen, um deren erfolgreiche Umsetzung sicherzustellen.
Wie wird das Frontier AI Model Forum funktionieren?
In den kommenden Monaten wird das Frontier Model Forum einen Beirat bilden, der sich aus Personen mit einem breiten Spektrum an Erfahrungen und Standpunkten zusammensetzt, um bei der Steuerung der Strategie und Ziele der Organisation zu helfen.
Wichtige institutionelle Regelungen wie Satzung, Governance und Finanzen werden ebenfalls von den Gründungsunternehmen festgelegt, die von einer Arbeitsgruppe und einem Vorstand geleitet werden. In den kommenden Wochen wird das Forum mit der Zivilgesellschaft und der Regierung über die Struktur des Forums und wirksame Methoden der Zusammenarbeit beraten.
Wenn sich die Gelegenheit dazu bietet, ist das Frontier Model Forum bestrebt, sein Fachwissen in aktuelle nationale und globale Programme wie den G7-Hiroshima-Prozess, die Arbeit der OECD zu Risiken, Standards und sozialen Auswirkungen künstlicher Intelligenz sowie den US-EU-Handels- und Technologierat einzubringen .
Jede der Initiativen oder „Workstreams“ des Forums zielt darauf ab, auf den bereits erzielten Fortschritten der Geschäftswelt, des gemeinnützigen Sektors und der Wissenschaft aufzubauen. Das Forum wird sich mit Methoden zur Einbindung und Unterstützung wesentlicher Multi-Stakeholder-Bemühungen wie der Partnership on AI und MLCommons befassen, die beide bedeutende Beiträge in der gesamten KI-Community leisten.
Für detailliertere Informationen klicken Sie Hier.
Hervorgehobener Bildnachweis: Unsplash