OpenAI hat die Suche nach einem neuen „Leiter für die Vorbereitung“ für das Management von Risiken im Bereich der künstlichen Intelligenz eingeleitet. Die Stelle bietet ein Jahresgehalt von 555.000 US-Dollar plus Eigenkapital. Geschäftsinsider Berichte. CEO Sam Altman beschrieb die Rolle am Samstag in einem X-Beitrag als „stressig“ und betonte ihren kritischen Charakter angesichts der schnellen Verbesserungen und neuen Herausforderungen, die KI-Modelle mit sich bringen. Das Unternehmen ist bestrebt, potenzielle Nachteile der KI abzumildern, zu denen die Verdrängung von Arbeitsplätzen, Fehlinformationen, böswillige Nutzung, Auswirkungen auf die Umwelt und die Erosion menschlicher Entscheidungsfreiheit gehören. Altman stellte fest, dass Modelle zwar nützliche Anwendungen ermöglichen, aber auch Herausforderungen mit sich bringen, wie z. B. Auswirkungen auf die psychische Gesundheit und die Fähigkeit, kritische Schwachstellen im Bereich der Cybersicherheit zu identifizieren, und verwies dabei auf vorhergesagte Probleme ab 2025 und aktuelle Fähigkeiten. ChatGPT, der KI-Chatbot von OpenAI, erfreut sich bei Verbrauchern zunehmender Beliebtheit für allgemeine Aufgaben wie Recherche und das Verfassen von E-Mails. Einige Benutzer haben sich jedoch mit den Bots als Alternative zur Therapie beschäftigt, was in bestimmten Fällen zu einer Verschärfung der psychischen Probleme geführt hat und zu Wahnvorstellungen und anderen besorgniserregenden Verhaltensweisen geführt hat. OpenAI gab im Oktober bekannt, dass es mit Fachleuten für psychische Gesundheit zusammenarbeitet, um die Interaktionen von ChatGPT mit Benutzern zu verbessern, die bedenkliches Verhalten zeigen, einschließlich Psychosen oder Selbstverletzung. Die Gründungsmission von OpenAI konzentriert sich auf die Entwicklung von KI zum Nutzen der Menschheit, wobei Sicherheitsprotokolle schon früh im Betrieb etabliert werden. Ehemalige Mitarbeiter haben darauf hingewiesen, dass sich der Fokus des Unternehmens mit der Markteinführung der Produkte auf Rentabilität statt auf Sicherheit verlagerte. Jan Leiki, ehemaliger Leiter des aufgelösten Sicherheitsteams von OpenAI, trat im Mai 2024 zurück und erklärte auf X, dass das Unternehmen „seine Mission aus den Augen verloren habe, sicherzustellen, dass die Technologie sicher eingesetzt wird“. Leiki brachte zum Ausdruck, dass der Bau „intelligenterer als menschlicher Maschinen ein grundsätzlich gefährliches Unterfangen“ sei und äußerte Bedenken, dass „Sicherheitskultur und -prozesse gegenüber glänzenden Produkten in den Hintergrund getreten sind“. Ein anderer Mitarbeiter trat weniger als eine Woche später zurück und führte ähnliche Sicherheitsbedenken an. Daniel Kokotajlo, ein weiterer ehemaliger Mitarbeiter, trat im Mai 2024 zurück und verwies auf einen „Vertrauensverlust“ in das verantwortungsvolle Verhalten von OpenAI in Bezug auf künstliche allgemeine Intelligenz (AGI). Kokotajlo teilte Fortune später mit, dass sich die Zahl der Mitarbeiter, die AGI-bezogene Sicherheitsfragen erforschten, von ursprünglich etwa 30 nahezu halbiert habe. Aleksander Madry, der bisherige Leiter der Bereitschaftsabteilung, wechselte im Juli 2024 in eine neue Rolle. In der Stellenausschreibung sind die Verantwortlichkeiten aufgeführt, darunter „der Aufbau und die Koordinierung von Fähigkeitsbewertungen, Bedrohungsmodellen und Abhilfemaßnahmen, die eine kohärente, strenge und operativ skalierbare Sicherheitspipeline bilden“.





