- OpenAI setzt ein Tool zur Unterscheidung von menschlichem und KI-erstelltem Text aufgrund seiner mangelnden Leistung aus.
- Das Unternehmen konzentriert sich nun darauf, den Prozess zur Überprüfung der Authentizität von Inhalten zu verfeinern.
- Im Zuge einer Untersuchung der Federal Trade Commission ist der Leiter der Vertrauens- und Sicherheitsabteilung von OpenAI kürzlich zurückgetreten.
OpenAI hat die bewusste Entscheidung getroffen, ein Dienstprogramm zur Unterscheidung zwischen von Menschen und KI erstellten Schriften auszusetzen, und nennt als Hauptanliegen die mangelnde Leistung des Tools. Wie kürzlich in einem veröffentlicht BlogeintragDie Deaktivierung des KI-Klassifikators wird am 20. Juli wirksam. Das Unternehmen ist bestrebt, den Prozess zur Feststellung der Authentizität von Inhalten zu verfeinern, wobei die Bemühungen auf die Verbesserung der Feedback-Integration und umfangreiche Forschung zu effektiveren Verifizierungstechniken gerichtet sind.
Ab dem 20. Juli 2023 ist der KI-Klassifikator aufgrund seiner geringen Genauigkeit nicht mehr verfügbar. Wir arbeiten daran, Feedback einzubeziehen und erforschen derzeit effektivere Provenienztechniken für Texte. Wir haben uns verpflichtet, Mechanismen zu entwickeln und einzusetzen, die es Benutzern ermöglichen, zu verstehen, ob Audio- oder visuelle Inhalte KI-generiert sind.
-OpenAI
OpenAI stellt die KI-Textklassifizierung ein
Um sich an die sich verändernde Landschaft anzupassen, hat OpenAI seine Absicht erklärt, den Schwerpunkt auf die Entwicklung neuer Strategien zu verlagern, die es Benutzern ermöglichen sollen, KI-generierte Audio- und visuelle Inhalte zu unterscheiden. Die Einzelheiten dieser noch nicht enthüllten Strategien sind geheim, was die Vorfreude noch weiter anregt.
KI-Textklassifikator: OpenAIs ChatGPT-Detektor zeigt KI-generierten Text an
Das Technologieunternehmen hat offen zugegeben, dass der Klassifikator anhaltende Mängel bei der genauen Erkennung von durch KI erstellten Texten aufweist, was Bedenken hinsichtlich möglicher Fehlalarme aufkommen lässt. In solchen Fällen könnte das Tool von Menschen verfassten Text möglicherweise fälschlicherweise als maschinengenerierten Text identifizieren, was zu unnötiger Verwirrung führen würde. Diese Enthüllung ging mit der Ankündigung der vorübergehenden Deaktivierung des Tools einher. Interessanterweise hatte das Unternehmen vor diesem überraschenden Update einen hoffnungsvollen Ausblick auf den Klassifikator und war davon überzeugt, dass er sich mit der Erfassung weiterer Daten weiterentwickeln könnte.
Seit seiner dramatischen Einführung hat ChatGPT von OpenAI schnell eine Anhängerschaft aufgebaut, die viele neugierig auf das Innenleben dieses revolutionären Tools macht. Es gab eine Welle der Besorgnis seitens der Pädagogen hinsichtlich der Auswirkungen von KI-produzierten Texten und Kunstwerken auf verschiedene Bereiche, was Alarm auslöste. Es besteht eine wachsende Befürchtung, dass Schüler sich bei der Erledigung ihrer Schulaufgaben auf ChatGPT stützen könnten, was möglicherweise ihr Engagement für konventionelle Lernmethoden untergräbt. In einem Versuch, Bedenken hinsichtlich Präzision, Sicherheit und akademischer Unehrlichkeit auszuräumen, haben Schulen in New York dies getan entschieden den Zugang zu ChatGPT innerhalb ihrer Institutionen zu blockieren.

Da die KI immer weiter in den Mainstream vordringt, wird die Verbreitung von Fehlinformationen über KI-generierte Texte zu einem immer größeren Problem. Aktuelle Untersuchungen zeigen, dass von KI erstellte Textinhalte wie Tweets tendenziell ein höheres Maß an Überzeugungskraft aufweisen als ihre von Menschen verfassten Gegenstücke. Regierungen weltweit stehen vor der komplexen Aufgabe, wirksame KI-Regulierungen zu formulieren. In der Zwischenzeit müssen einzelne Unternehmen und Organisationen die Last tragen, Regeln und Schutzmaßnahmen gegen die Flut computergenerierter Texte zu schaffen.
Es scheint noch keine klaren Lösungen zu geben, um die Herausforderungen zu bewältigen, die der schnell wachsende Bereich der generativen KI mit sich bringt, auch nicht von OpenAI selbst, einem Unternehmen, das maßgeblich an der Auslösung dieses Trends beteiligt war. Da die Grenze zwischen von Menschen erstellten und von KI erstellten Inhalten immer unschärfer wird, wird die Aufgabe der Unterscheidung immer schwieriger, trotz gelegentlicher Erkennungserfolge.
Beste Plagiatsprüfer für ChatGPT und andere KI-Tools
OpenAI musste kürzlich auch den Rücktritt seines Leiters für Vertrauen und Sicherheit hinnehmen, als die Federal Trade Commission (FTC) die Daten- und Informationsprüfungspraktiken des Unternehmens untersuchte. OpenAI hat sich vorerst entschieden, zu dieser Angelegenheit Stillschweigen zu bewahren und nicht über das hinauszugehen, was bereits in seinem Blogbeitrag geteilt wurde.