Untersuchungen von der BBC hat herausgefunden, dass vier große Chatbots (OpenAi Chatgpt, Microsoft Copilot, Google Gemini und Verwirrlichkeit KI – die vier starken KI -KI -Chatbots und die Faszination von Nachrichtengeschichten sind. Die Studie umfasste diese Chatbots, in denen 100 Nachrichten, die von der BBC -Website bezogen wurden, zusammenfassen.
BBC Exklusiv: AI -Chatbots verzerren Nachrichtenzusammenfassungen
Die BBC berichtete, dass die von den KI -Chatbots erzeugten Antworten „signifikante Ungenauigkeiten“ und Verzerrungen enthielten. Deborah Turess, CEO von BBC News and Current Affairs, festgestellt in a Blog -Beitrag Während KI „endlose Möglichkeiten“ bietet, spielen Entwickler „mit Feuer“ und machen Bedenken, dass KI-distorierte Schlagzeilen reale Schäden verursachen könnten.
Während der gesamten Studie, in der Bewertungen von Journalisten beteiligt waren, die Experten für die jeweiligen Themen der Artikel waren, wurde festgestellt, dass 51% der KI -Antworten erhebliche Probleme hatten. Unter den Antworten auf AI-generierte Antworten, auf die sich BBC-Inhalt bezogen, enthielten 19% sachliche Fehler, einschließlich falscher Aussagen, Zahlen und Daten. Darüber hinaus wurden 13% der Zitate, die BBC -Artikeln zugeschrieben wurden, entweder geändert oder falsch dargestellt.
Einige spezifische Ungenauigkeiten, die in der Studie identifiziert wurden, umfassten Gemini, dass der britische National Health Service (NHS) nicht empfohlen wurde, das Rauchen aufzuhören, obwohl dies der Fall ist. Chatgpt und Copilot behaupteten ungenau, dass die ehemaligen Führer Rishi Sunak und Nicola Sturgeon trotz ihrer Abreise noch im Amt seien. Verwirrung hat BBC News falsch zitiert, was darauf hindeutet, dass der Iran in Bezug auf die Handlungen Israels mit „Zurückhaltung“ handelte.
In der Studie wurde hervorgehoben, dass Microsoft Copilot und Googles Gemini im Vergleich zu OpenAs Chatgpt und aufwiesen Verwirrung Ai. Die BBC hatte während der Testphase im Dezember 2024 vorübergehend Einschränkungen für den Zugriff auf diese KI -Systeme in den Inhalten aufgehoben.
OpenAI nimmt den iranischen Cluster mit Chatgpt ab, um gefälschte Nachrichten zu erstellen
Der Programmdirektor von BBC für generative KI, Pet Archer, betonte, dass Verlage kontrollieren sollten, wie ihre Inhalte verwendet werden, und dass KI -Unternehmen offenlegen müssen, wie ihre Assistenten Nachrichten, einschließlich der Fehlerraten, verarbeiten. OpenAI konterte, dass sie mit Partnern zusammenarbeiten, um die Genauigkeit von Inline-Zitaten zu verbessern und die Präferenzen des Publisher zu respektieren.
Nach der Studie forderte die Turness Tech-Unternehmen auf, die identifizierten Probleme anzugehen, ähnlich wie Apple auf frühere BBC-Beschwerden über die Zusammenfassungen von KI-betriebenen Nachrichten reagierte. Sie veranlasste eine gemeinsame Anstrengung der Technologieindustrie, der Nachrichtenorganisationen und der Regierung, um die Ungenauigkeiten zu beheben, die das öffentliche Vertrauen in Informationen untergraben können.
In der Studie wurde die Tendenz der KI von Felxity AI weiter festgestellt, Aussagen aus Quellen zu verändern, und ergaben, dass Copilot auf veraltete Artikel für seine Nachrichtenübersicht stützte. Insgesamt soll die BBC ein breiteres Gespräch in der regulatorischen Umgebung für KI führen, um eine genaue Verbreitung von Nachrichten zu gewährleisten.
Als Reaktion auf die Ergebnisse stellte die Turess eine kritische Frage zur Gestaltung von KI -Technologien zur Förderung der Genauigkeit des Nachrichtenverbrauchs. Sie erklärte, dass das Potenzial für Verzerrungen, ähnlich wie Desinformation, das öffentliche Vertrauen in alle Informationsmedien bedroht.
Ausgewähltes Bildnachweis: Kerem Gülen/Ideogramm