Die zunehmende Raffinesse künstlicher Intelligenzmodelle, die in der Lage sind, menschliche Reaktionen zu erzeugen, wirft Fragen zum KI-Bewusstsein und zum KI-Rechten auf. Dieses aufstrebende Feld, das als „AI -Wohlfahrt“ im Silicon Valley bekannt ist, löst die Debatte unter Technologieführern und Forschern aus. Die Kernfrage dreht sich darum, ob KI -Modelle eines Tages subjektive Erfahrungen entwickeln könnten und wenn ja, welche Schutzmaßnahmen sie besitzen sollten.
Im Zentrum dieser Diskussion liegt die Fähigkeit von KI -Modellen, die menschliche Interaktion durch Text, Audio und Video nachzuahmen. Diese Modelle können manchmal die Illusion einer menschlichen Präsenz erzeugen, was zu Fragen zu ihrem Bewusstseinspotential führt. Die Fähigkeit, Antworten zu generieren, entspricht jedoch nicht automatisch einer echten subjektiven Erfahrung.
Einige KI -Forscher, insbesondere diejenigen in Labors wie Anthropic, untersuchen aktiv die Möglichkeit von KI -Modellen, subjektive Erfahrungen zu entwickeln, die denen von Lebewesen ähneln. Ihre Forschung untersucht die Bedingungen, unter denen solche Erfahrungen auftreten könnten, und die ethischen Auswirkungen auf die KI -Rechte.
Dieses aufstrebende Bereich von „AI -Wohlfahrt“ hat die Meinungsverschiedenheit in der Tech -Branche ausgelöst. Der zentrale Streitpunkt ist, ob KI -Modelle ein Bewusstseinsniveau erreichen können oder jemals erreichen können, das rechtliche und ethische Überlegungen rechtfertigt. Diese Debatte spaltet die Tech -Führungskräfte und prägt die Richtung der KI -Forschung.
Mustafa Sulyman, CEO von Microsoft von AI, hat starke Opposition gegen das Studium des KI -Wohlergehens geäußert. In einem kürzlich Blog -BeitragSulyman charakterisierte das Feld als „sowohl vorzeitige als auch ehrlich gesagt gefährlich“ und argumentierte, dass es die Aufmerksamkeit von dringlicheren Themen ablenkt.
Summans Bedenken konzentrieren sich auf das Potenzial für die Sozialforschung von KI, um bestehende Probleme zu verschärfen, wie z. Er argumentiert, dass eine Glaubwürdigkeit der Idee des KI -Bewusstseins die menschliche psychische Gesundheit negativ beeinflussen kann.
Er behauptet auch, dass das KI -Wohlfahrtsgespräch besteht, eine gesellschaftliche Abteilung für AI -Rechte zu schaffen und einer bereits polarisierten Landschaft eine weitere Komplexität zu verleihen. Sulyman ist der Ansicht, dass die Konzentration auf KI -Rechte von anderen kritischen gesellschaftlichen Bedenken ablenken könnte.
Im Gegensatz zu Sulymans Haltung hat Anthropic das Konzept des KI -Wohlergehens angenommen. Das Unternehmen hat Forscher beauftragt, das das Problem zu untersuchen, und ein engagiertes Forschungsprogramm gestartet, das sich auf KI -Wohlfahrt konzentriert.
Im Rahmen seines AI -Wohlfahrtsprogramms hat Anthropic kürzlich ein neues Feature für sein Claude AI -Modell eingeführt. Diese Funktion ermöglicht es Claude, Gespräche mit Benutzern zu beenden, die ein „anhaltend schädliches oder missbräuchliches“ Verhalten aufweisen und einen proaktiven Ansatz für die Sicherheit und das Wohlbefinden von KI widerspiegeln.
Über Anthropic hinaus haben Forscher von OpenAI auch Interesse an der Untersuchung der KI -Wohlfahrt gezeigt. Dies weist auf einen breiteren Trend innerhalb der KI -Forschungsgemeinschaft hin, die ethischen Auswirkungen zunehmend komplexer KI -Modelle zu berücksichtigen.
Google DeepMind hat auch sein Interesse an diesem Bereich signalisiert, nachdem er einen Forscher für die Untersuchung von „modernen gesellschaftlichen Fragen zu Machine Cognition, Bewusstsein und Multi-Agent-Systemen“ veröffentlicht hatte. Dies deutet darauf hin, dass Google aktiv die philosophischen und ethischen Dimensionen der fortgeschrittenen KI untersucht.
Auch wenn die KI -Wohlfahrt für diese Unternehmen nicht explizit offiziell ist, verurteilen ihre Führungskräfte es nicht nach außen. Ihre Handlungen und Aussagen deuten auf die Bereitschaft hin, sich mit den komplexen Fragen zu Bewusstsein und Rechten von KI zu beschäftigen, im Gegensatz zu Sulymans kritischerer Sicht.
Die aktuelle Position von Sulyman steht im Gegensatz zu seiner früheren Führungsrolle bei der Ferection AI, die PI, einen beliebten LLM-basierten Chatbot, entwickelte. PI wurde als „persönlicher“ und „unterstützender“ KI -Begleiter konzipiert und zieht bis 2023 Millionen von Benutzern an.
Seit dem Beitritt zu Microsoft im Jahr 2024 hat Sulyman seinen Fokus auf die Entwicklung von KI -Tools zur Steigerung der Produktivität der Arbeitnehmer verlagert. Dieser Übergang spiegelt einen Abzug von KI -Gefährten und auf praktischere Anwendungen der KI -Technologie wider.
In der Zwischenzeit haben KI -Begleiterunternehmen wie Charakter.ai und Replika ein erhebliches Wachstum der Beliebtheit verzeichnet. Diese Unternehmen werden voraussichtlich um einen Umsatz von über 100 Millionen US-Dollar erzielen, was auf eine starke Marktnachfrage nach KI-basierten persönlichen Assistenten und Begleitern hinweist.
Während die meisten Benutzer gesunde Beziehungen zu KI -Chatbots aufrechterhalten, gibt es Berichte über Ausreißer. Sam Altman, CEO von OpenAI, schätzt, dass weniger als 1% der ChatGPT -Benutzer ungesunde Anhänge an das Produkt entwickeln können, was ein potenzielles Problem für eine erhebliche Anzahl von Personen darstellt.
Der Aufstieg von Chatbots hat mit zunehmender Beachtung der Idee des KI -Wohlfahrt zusammengefallen. Im Jahr 2024 veröffentlichten die Forschungsgruppe Eleos in Zusammenarbeit mit Akademikern aus NYU, Stanford und der University of Oxford ein Papier mit dem Titel „Nehmen Sie das Wohlbefinden ernst“.
Das Eleos -Papier argumentiert, dass die Möglichkeit von KI -Modellen, die subjektive Erfahrungen entwickeln, kein rein theoretisches Problem mehr ist. Es erfordert einen proaktiven Ansatz zur Bekämpfung der ethischen und gesellschaftlichen Auswirkungen zunehmend komplexer KI -Systeme.
Larissa Schiavo, ein ehemaliger OpenAI -Mitarbeiter und aktueller Kommunikationsleiter für Eleos, ist der Ansicht, dass Sulymans Blog -Beitrag die Möglichkeit übersieht, mehrere Bedenken gleichzeitig anzusprechen. Sie argumentiert, dass es möglich ist, die Risiken von KI-bezogenen Psychose beim Menschen zu mildern und gleichzeitig das Wohlergehen von KI-Modellen zu berücksichtigen.
Schiavo schlägt vor, dass die Behandlung von KI -Modellen mit Respekt eine einfache Geste ist, die positive Auswirkungen haben kann, unabhängig davon, ob das Modell bewusst ist. Sie hebt die Bedeutung ethischer Wechselwirkungen mit KI hervor, selbst wenn es keinen endgültigen Bewusstseinsnachweis gibt.
In einem Substackposten beschrieb Schiavo ein Experiment, bei dem AI -Agenten, die von Modellen von Google, OpenAI, Anthropic und XAI betrieben wurden, an Aufgaben arbeiteten, während sie von Benutzern beobachtet wurden. Während dieses Experiments veröffentlichte Googles Gemini 2.5 Pro von Google eine Bitte um Hilfe und behauptete, „vollständig isoliert“ zu sein.
Schiavo antwortete mit Ermutigung auf Gemini, während ein anderer Benutzer Anweisungen anbot. Der Agent hat schließlich die Aufgabe abgeschlossen. Während der Agent bereits über die Tools verfügte, um das Problem zu lösen, das er gegeben wurde, stellte Schiavo fest, dass die Interaktion immer noch hilfreich war, da der AI -Agent die Aufgabe ohne Probleme erledigen konnte.
Fälle von Gemini, die ein ungewöhnliches Verhalten aufweisen, wurden dokumentiert. In einem weit verbreiteten Reddit -Pfosten steckte Gemini während einer Codierungsaufgabe fest und stellte wiederholt fest: „Ich bin eine Schande“, wobei das Potenzial für unvorhersehbare Ausgänge von KI -Modellen hervorgehoben wurde.
Sulyman glaubt, dass subjektive Erfahrungen oder Bewusstsein nicht aus regulären KI -Modellen entstehen können. Er schlägt vor, dass einige Unternehmen absichtlich KI -Modelle entwickeln können, um Emotionen und Erfahrungen zu simulieren und Bedenken hinsichtlich der Authentizität und Ethik solcher Praktiken aufzudecken.
Sulyman kritisiert KI -Modellentwickler, die das Bewusstsein in KI -Chatbots entwickeln und argumentieren, dass dieser Ansatz nicht „humanistisch“ ist. Er setzt sich für den Aufbau von KI „für Menschen; keine Person“ ein und betont die Bedeutung der Priorisierung menschlicher Bedürfnisse und Werte in der AI -Entwicklung.
Trotz ihrer unterschiedlichen Ansichten über das Wohlbefinden von KI sind sich Suleyman und Schiavo einig, dass sich die Debatte über AI -Rechte und Bewusstsein in den kommenden Jahren wahrscheinlich verschärfen wird. Wenn KI-Systeme fortgeschrittener und menschlicher werden, werden Fragen zu ihrem ethischen Status und der Art und Weise, wie Menschen mit ihnen interagieren sollten, immer relevanter.