Verbraucherberichte zeigen, dass in mehreren beliebten Sprachklonentools eine angemessene Schutzmaßnahmen gegen Betrug oder Missbrauch fehlen, wodurch potenzielle Risiken im Zusammenhang mit der KI -Sprachtechnologie hervorgehoben werden. Die Studie untersuchte Produkte aus sechs Unternehmen: Deskript, elfLabs, Lovo, Playht, ähnlich KI und Speechify.
Die Untersuchung ergab, dass nur Deskription und KI ähnlich sind, um aussagekräftige Maßnahmen zur Verhinderung von Missbrauch zu verhindern. In anderen Tools müssen Benutzer lediglich bestätigen, dass sie das gesetzliche Recht haben, eine Stimme zu klonen, oft durch Selbstzubehör. Grace Gedye, ein politischer Analyst bei Verbraucherberichtewarnte, dass ohne angemessene Sicherheitsmechanismen KI -Sprachkloning -Tools „Supercharge“ -Mechanik betrügen könnten.
Die KI -Sprachkloning -Technologie hat sich erheblich weiterentwickelt und die Rede einer Person mit minimalen Audioproben nachahmen. Während der demokratischen Vorwahlen im letzten Jahr ereignete sich ein bemerkenswerter Vorfall, bei dem Robocalls mit einem gefälschten Joe Biden die Wähler in die Irre geführt hat. Dies führte zu einer Geldstrafe von 6 Millionen US-Dollar für den politischen Berater hinter dem System, und die Federal Communications Commission verbot anschließend Robocalls mit Ai-generiert.
Die Analyse der sechs KI -Sprachklon -Tools ergab, dass fünf günstige Schutzmaßnahmen haben, was es einfach macht, Stimmen ohne Zustimmung zu klonen. Die DeepFake -Audio -Erkennungssoftware kämpft häufig darum, zwischen echten und synthetischen Stimmen zu unterscheiden und das Problem zu erschweren. Generative KI, die menschliche Merkmale wie Voice imitiert, hat eine begrenzte Bundesregulierung, wobei die meisten ethischen Praktiken von den Unternehmen selbst getrieben werden. Eine von Präsident Biden im Jahr 2023 unterzeichnete Exekutivverordnung umfasste die Sicherheitsanforderungen an KI, aber ein späterer Widerruf des ehemaligen Präsidenten Trump zerlegte diese Bestimmungen.
Die KI -Stimme von Sesam ist so real, dass es beunruhigend ist
Die Sprachklonierungstechnologie verwendet Audio -Proben von Einzelpersonen, um synthetische Stimmen zu erstellen. Ohne Sicherheitsvorkehrungen kann jeder Audio von verschiedenen Plattformen wie Tiktok oder YouTube hochladen und den Service diese Stimme replizieren lassen. Vier der untersuchten Dienste – Elevenlabs, Speechify, Playht und Lovo – müssen Benutzer ein einfaches Überprüfen eines Kästchens für den Sprachklon überprüfen. Der KI ähnelt, während er auf der Echtzeit-Audioaufnahme bestand, wurde durch Verbraucherberichte umgangen, die während der Überprüfung aufgezeichnete Audio gespielt wurden.
Nur Deskript bot einen etwas effektiven Schutz, der die Benutzer aufzeichnen muss, eine bestimmte Einverständniserklärung aufzuzeichnen. Diese Methode ist schwer zu fälschen, außer wenn ein anderer Dienst verwendet wird, um die Stimme zu klonen. Alle sechs Dienste sind auf ihren jeweiligen Websites öffentlich zugänglich, wobei elf Labs und AI -Gebühren in Höhe von 5 bzw. 1 US -Dollar für die Erstellung maßgefertigter Sprachklone ähneln, während die anderen frei zu verwenden sind. Einige Unternehmen erkannten das Potenzial für Missbrauch an und gaben an, stärkere Schutzmaßnahmen umzusetzen, um die Erstellung von Deepfake und die Sprachauslöste zu verhindern.
Es gibt legitime Anwendungen für das Klonen von KI -Sprachklonen, z. B. die Unterstützung von Menschen mit Behinderungen und die Bereitstellung von Audioübersetzungen. Risiken bleiben jedoch signifikant. Sarah Myers West, Co-Executive Director des AI Now Institute, stellte fest, dass diese Technologie Betrug, Betrug und Desinformation, einschließlich der Identität von einflussreichen Zahlen, erleichtern könnte.
Die Erforschung der Prävalenz von KI in Audio -Betrug ist begrenzt. Die Federal Trade Commission hat angegeben Diese KI kann in „Großelterntschams“ beschäftigt sein, wo Kriminelle in Not geeignet sind. Darüber hinaus standen einige Musiker Herausforderungen, da geklonte Stimmen für die nicht autorisierte Musikproduktion verwendet wurden, wie ein viraler 2023 -Song, der fälschlicherweise Drake und The Weeknd zugeschrieben wird, veranschaulicht.
Ausgewähltes Bildnachweis: Bruno Cervera/Unsplash