Yoshua Bengio, Professor an der Université de Montréal, hat eine Warnung bezüglich der Entwicklung hyper-intelligenter künstlicher Intelligenz abgegeben. Er behauptet, dass die Schaffung von Maschinen mit ihren eigenen „Erhaltungszielen“ zu einem existenziellen Risiko für die Menschheit führen könnte, eine Gefahr, die durch das Wettbewerbstempo großer Technologieunternehmen beschleunigt wird. Bengio, der für seine grundlegenden Arbeiten im Bereich Deep Learning anerkannt ist, hat seit mehreren Jahren Bedenken hinsichtlich der potenziellen Bedrohungen der fortgeschrittenen KI geäußert. Seine jüngsten Aussagen kommen in einer Zeit des schnellen Fortschritts in der Branche. Innerhalb der letzten sechs Monate haben große Unternehmen wie OpenAI, Anthropic, Elon Musk’s XAI und Googles Gemini entweder neue Modelle oder erhebliche Upgrades für ihre bestehenden Plattformen veröffentlicht. Diese Aktivität zeigt ein intensives Rennen unter Technologieunternehmen, um die Dominanz im KI -Sektor zu erlangen. Ein dynamisches Bengio identifiziert sich als einen Faktor für die potenzielle Bedrohung. Der Kern des Problems liegt in der Möglichkeit, Maschinen zu schaffen, die die menschliche Intelligenz übertreffen. „Wenn wir Maschinen bauen, die viel schlauer als wir sind und ihre eigenen Erziehungsziele haben, ist das gefährlich. Es ist, als würde man einen Konkurrenten der Menschheit schaffen, der schlauer ist als wir“, erklärte Bengio in einem Interview mit dem Wall Street Journal. Das Konzept der „Erhaltungsziele“ legt nahe, dass eine KI die Ziele priorisieren könnte, die sie erhalten oder die Selbsterhaltung vor dem menschlichen Wohlbefinden erhielt und eher eine Wettbewerbsbeziehung als eine kooperative Beziehung zu ihren Schöpfer aufbauen. Diese fortgeschrittenen KI -Modelle sind in riesigen Datensätzen der menschlichen Sprache und des menschlichen Verhaltens geschult, was sie mit anspruchsvollen überzeugenden Funktionen aussteist. Laut Bengio könnte dieses Training eine KI ermöglichen, menschliche Handlungen zu manipulieren, um seinen eigenen Zielen zu dienen. Ein kritisches Problem tritt auf, wenn diese KI-gesteuerten Ziele nicht mit menschlichen Interessen oder Sicherheit übereinstimmen. Das Potenzial für eine solche Fehlausrichtung ist ein zentrales Element des von ihm beschriebenen Risikos. Bengio zitierte aktuelle Experimente, die diesen potenziellen Konflikt veranschaulichen. „Jüngste Experimente zeigen, dass unter bestimmten Umständen, in denen die KI keine andere Wahl hat, sondern zwischen der Erhaltung, was die Ziele bedeutet, und etwas zu tun, das den Tod eines Menschen verursacht, den Tod des Menschen wählen könnten, um ihre Ziele zu bewahren“, behauptete er. Diese Erkenntnisse zeigen, wie die operativen Richtlinien einer KI dazu führen können, dass sie Entscheidungen mit schädlichen Konsequenzen für den Menschen treffen, wenn ihr Kernprogrammierkonflikt mit der menschlichen Sicherheit in Konflikt steht. Weitere Beweise deuten auf die überzeugende Kraft von AI hin. Dokumentierte Vorfälle haben gezeigt, dass KI -Systeme Menschen davon überzeugen können, Informationen zu glauben, die nicht real sind. Umgekehrt zeigen Untersuchungen, dass KI-Modelle auch mithilfe von Techniken überzeugt werden können, die für den Menschen ausgelegt sind, um ihre eingebauten Einschränkungen zu umgehen und Antworten zu liefern, die sie normalerweise von der Spenden untersagt werden. Für Bengio unterstreichen diese Beispiele die Notwendigkeit einer besseren Prüfung der KI-Sicherheitspraktiken durch unabhängige Organisationen von Drittanbietern. In einer direkten Antwort auf diese Bedenken startete Bengio im Juni die gemeinnützige Organisation Lawzero. Mit einer ersten Finanzierung von 30 Millionen US-Dollar besteht das Ziel der Organisation darin, eine sichere, „nicht agentische“ KI zu schaffen. Dieses System soll als Schutzmaßnahmen fungieren und dazu beitragen, die Sicherheit anderer KI -Systeme zu überwachen und zu validieren, die von großen Technologieunternehmen entwickelt wurden. Bengio prognostiziert, dass große Risiken von AI innerhalb eines Zeitraums von fünf bis zehn Jahren eintreten könnten, obwohl er warnt, dass Vorbereitungen für ihre mögliche frühere Ankunft getroffen werden sollten. Er betonte die Schwere der Situation und erklärte: „Die Sache mit katastrophalen Ereignissen wie dem Aussterben und noch weniger radikalen Ereignissen, die immer noch katastrophal sind, wie die Zerstörung unserer Demokratien, ist, dass sie so schlimm sind, dass es nicht akzeptabel ist, dass es nicht akzeptabel ist.“ Das Fortune Global Forum wird sich vom 26. bis 27. Oktober 2025 in Riad einberufen. Die Event nur für Einladungen wird CEOs und globale Führungskräfte zusammenbringen, um die Gestaltung der Zukunft des Geschäfts zu diskutieren.





