Das FBI hat einen öffentlichen Dienst erlassen Bekanntmachung Smartphone-Benutzer werden aufgefordert, ein geheimes Codewort zu erstellen, um KI-generierte Betrügereien zu bekämpfen. Diese Empfehlung kommt, da Berichte eine Zunahme von Cyberbetrug zeigen, bei dem generative KI genutzt wird, um betrügerische Taktiken zu verstärken. Sicherheitsexperten sagen, dass diese Tools Kommunikationstaktiken manipulieren können, was es schwierig macht, echte Nachrichten von Fälschungen zu unterscheiden. Als Vorsichtsmaßnahme hat das FBI Nutzern außerdem geraten, die Rich Communication Services (RCS) nicht mehr für plattformübergreifende Texte zu verwenden, da diese keine Ende-zu-Ende-Verschlüsselung bieten.
Das FBI warnt Smartphone-Benutzer vor zunehmenden KI-generierten Betrügereien
In der öffentlichen Alarmnummer I-120324-PSA berichtete das FBI, dass Cyberkriminelle zunehmend generative KI für Phishing-Angriffe einsetzen. Diese Fortschritte ermöglichen es Angreifern, realistische E-Mails und Nachrichten zu erstellen, wodurch die Wahrscheinlichkeit verringert wird, dass potenzielle Opfer sie als betrügerisch erkennen. In einem Beispiel kann KI Inhalte korrekt generieren, die normalerweise Rechtschreib- oder Grammatikfehler enthalten könnten, die einst verräterische Anzeichen für Betrug waren. Infolgedessen sind Opfer möglicherweise zunehmend anfällig für die Preisgabe sensibler Informationen.
Das FBI hat mehrere alarmierende Möglichkeiten aufgezeigt, wie generative KI Cyberangriffe erleichtern kann. Dazu gehören die Erstellung von Fotos, die eine überzeugende Identität schaffen, die Verwendung von Bildern von Prominenten zur Förderung betrügerischer Aktivitäten und die Erstellung von Audioclips, die nachahmen, wie Angehörige um finanzielle Hilfe bitten. Darüber hinaus ist die KI-Technologie in der Lage, Echtzeit-Video-Chats mit Personen zu erstellen, die sich als Unternehmensleiter oder Strafverfolgungsbeamte ausgeben, wodurch die Grenzen zwischen Realität und Täuschung weiter verwischt werden.
Der automatische Neustart von iPhones stellt die Strafverfolgung vor Herausforderungen
Um sich vor diesen Bedrohungen zu schützen, betont das FBI die Bedeutung der Überprüfung. Benutzern wird empfohlen, bei verdächtigen Anrufen aufzulegen und die Identität des Anrufers selbstständig zu überprüfen, indem sie nach verifizierten Kontaktinformationen suchen und diese verwenden. Als Schutzmaßnahme gegen betrügerische Notrufe kann die Schaffung eines im Einvernehmen mit den Familienmitgliedern vereinbarten Geheimwortes dienen. Diese einfache Vorsichtsmaßnahme kann sicherstellen, dass alle dringenden Hilfeanfragen bestätigt werden können.
Neue Berichte deuten darauf hin, dass generative KI zunehmend bei verschiedenen Cyberbetrügereien eingesetzt wird, von Betrug im technischen Support bis hin zu Bankbetrug. Ermittler haben einen Trend bei KI-gesteuerten Taktiken festgestellt, der sich hin zu manipulativem Verhalten in der Kommunikation, insbesondere über Smartphones, verschiebt. Dies deutet auf einen erheblichen Wandel in der Landschaft der Cybersicherheitsbedrohungen hin.
Genetische KI verwischt auch die Grenzen der Authentizität auf beliebten Kommunikationsplattformen. Aufgrund der inhärenten Schwachstellen in Systemen wie RCS müssen Apple- und Android-Benutzer beim Umgang mit plattformübergreifenden Textnachrichten besonders vorsichtig sein, da es ihnen mittlerweile an einer garantiert sicheren Verschlüsselung mangelt. Daher ist die Nutzung verschlüsselter Messaging-Dienste wie WhatsApp wichtiger denn je.
- KI-generierter Text:
Kriminelle nutzen KI-generierte Texte für überzeugende Betrugsversuche, darunter Social Engineering, Phishing, Investitionsbetrug und Kryptowährungsbetrug. Sie nutzen KI-Tools für eine schnellere und fehlerfreie Kommunikation, erstellen gefälschte Profile, betrügerische Websites und binden Chatbots ein.
- KI-generierte Bilder:
Generative KI erstellt realistische Bilder für gefälschte Social-Media-Profile, betrügerische Ausweise und Imitationen. Es wird unter anderem für Wohltätigkeitsbetrug, Marktmanipulation und Sextortion eingesetzt.
- KI-generiertes Audio:
Stimmliches Klonen ermöglicht es Betrügern, sich als Angehörige oder Persönlichkeiten des öffentlichen Lebens auszugeben und so Opfer zu finanzieller Unterstützung, Lösegeldzahlungen oder unbefugtem Zugriff auf Bankkonten zu verleiten.
- KI-generierte Videos:
KI-generierte Videos helfen Betrügern dabei, sich als Autoritätspersonen auszugeben oder Werbematerialien zu fälschen und so die „Authentizität“ bei Online-Betrügereien und Social-Engineering-Taktiken zu beweisen.
- Schutztipps:
Benutzen Sie vertrauliche Worte mit der Familie, analysieren Sie Medien auf Inkonsistenzen, beschränken Sie persönliche Online-Inhalte, überprüfen Sie Identitäten unabhängig und geben Sie niemals vertrauliche Informationen weiter und senden Sie niemals Geld an nicht verifizierte Personen. Opfer sollten Betrugsfälle mit detaillierten Informationen auf der IC3-Website des FBI melden.
Hervorgehobener Bildnachweis: David Trinks