Nicht nur IT-Unternehmen drängen darauf, Chatbots mit KI zu entwickeln. An der Aktion beteiligen sich auch Cyberkriminelle. Den neuesten Nachrichten zufolge hat ein Entwickler einen schädlichen KI-Chatbot namens „FraudGPT“ entwickelt, der es Menschen ermöglicht, böswillige Aktivitäten durchzuführen.
Anfang des Monats wurde ein Hacker bei der Arbeit entdeckt WurmGPT, ein Bot ähnlich wie ChatGPT, der es Benutzern ermöglicht, Viren und Phishing-E-Mails zu erstellen. Sicherheitsexperten haben jetzt einen neuen bösartigen Chatbot entdeckt, der passenderweise den Namen FraudGPT trägt.
Der Erfinder von FraudGPT begann am Wochenende in einem Hacker-Forum mit der Werbung für die bösartige Chat-Anwendung. „Dieses innovative Gerät wird zweifellos die Nachbarschaft und Ihre Arbeitsweise für immer verändern!“ behauptet der Entwickler.
Es ist wichtig, sich daran zu erinnern, dass es sich um einen schädlichen Chatbot handelt, der Internetkriminellen bei der Durchführung ihrer Aktivitäten helfen soll. Es sollte daher für nichts verwendet werden. Wenn wir uns der mit WormGPT verbundenen Risiken und seiner möglichen Auswirkungen bewusst sind, können wir den Wert eines ethischen und verantwortungsvollen Einsatzes von Technologie besser einschätzen.
Bösartige KI-Chatbots können in naher Zukunft zu einem großen Problem werden (Bildnachweis)
Was ist FraudGPT?
Ein ähnliches Tool namens FraudGPT macht im Dark Web die Runde, weniger als zwei Wochen nachdem WormGPT als Reaktion der Bedrohungsakteure auf den äußerst erfolgreichen generativen KI-Chatbot ChatGPT aufgetaucht ist. FraudGPT bietet Online-Kriminellen effizientere Möglichkeiten, Phishing-Betrug zu starten und gefährliche Software zu entwickeln. Im Wesentlichen ist FraudGPT eines davon WormGPT-Alternativen die derzeit auf dem Markt sind.
Laut einer heute veröffentlichten Studie von Rakesh Krishnan, einem leitenden Bedrohungsanalysten beim Cybersicherheitsunternehmen Netenrich, verbreitet sich FraudGPT seit dem 22. Juli auf Telegram-Kanälen. Dieser KI-Bot ist ausschließlich für anstößige Zwecke wie die Erstellung von Spear-Phishing-E-Mails, die Erstellung von Tools und das Kartenschreiben gedacht usw., laut Krishnans Beitrag. Das Telegram-Netzwerk und mehrere Dark-Web-Märkte verkaufen das Tool derzeit.
Nach WormGPT-Downloadhier warten die Gefahren auf Sie
Das Tool ist im Abonnement erhältlich, wobei die Preise zwischen 200 US-Dollar pro Monat und 1.700 US-Dollar pro Jahr liegen. Der Großteil des Netenrich-Berichts befasste sich damit, wie Kriminelle FraudGPT nutzen könnten, um BEC-Operationen (Business Email Compromise) gegen Unternehmen zu starten. Dazu gehört, einem Angreifer die Möglichkeit zu geben, E-Mails zu erstellen, die eine höhere Chance haben, ein Zielopfer zum Klicken auf einen schädlichen Link zu verleiten.
Das ist jedoch noch nicht alles. Krishnan behauptet, dass FraudGPT es auch einfacher machen kann, Hacking-Tools, nicht erkennbare Malware, schädlichen Code, Lecks und Schwachstellen in den technologischen Systemen von Unternehmen zu entwickeln. Es kann angehenden Kriminellen auch das Programmieren und Hacken beibringen.
Laut Netenrich gab es mehr als 3.000 verifizierte Verkäufe und Bewertungen, und die Leute hinter FraudGPT bieten rund um die Uhr Treuhandfunktionen an. Laut Krishnan ist WormGPT, das am 13. Juli eingeführt wurde, mit FraudGPT vergleichbar. Diese schädlichen Ersatzstoffe für ChatGPT ziehen weiterhin Gauner und weniger technisch versierte Taugenichtse an, die Menschen aus finanziellen Gründen ausnutzen, bemerkte der Autor.

Der Ersteller von FraudGPT erhebt eine monatliche Gebühr
Der Erfinder von FraudGPT scheint auch gestohlene Kreditkartennummern und andere von Hackern erlangte Daten zu verkaufen. Er gibt auch Hinweise zur Betrugsbekämpfung. Daher ist es möglich, dass der Chatbot-Dienst alle diese Daten einbezieht.
Der Bot ist teuer. Der Entwickler des schädlichen Chatbots verlangt 200 US-Dollar pro Monat, was teurer ist als die monatliche Gebühr von WormGPT von 60 Euro.
Es ist nicht bekannt, ob einer der beiden Chatbots zum Hacken von Computern verwendet werden kann. Netenrich warnt davor, dass die Technologie es Hackern möglicherweise leichter machen könnte, Phishing-E-Mails und andere Betrugsversuche zu erstellen, die überzeugender sind. Das Unternehmen fährt fort: „Kriminelle werden weiterhin Wege finden, ihre kriminellen Fähigkeiten mithilfe der von uns entwickelten Tools zu verbessern.“
So verteidigen Sie sich gegen FraudGPT
Die Weiterentwicklung der KI eröffnet progressive, neue Angriffswinkel und ist gleichzeitig von Vorteil. Es muss ein starker Fokus auf die Prävention gelegt werden. Hier sind einige Strategien, die Sie anwenden können:
- BEC-spezifische Schulung: Um BEC-Angriffen, insbesondere solchen, die von KI unterstützt werden, entgegenzuwirken, sollten Unternehmen umfangreiche, regelmäßig aktualisierte Schulungsprogramme entwickeln. Die Mitarbeiter sollten sich während dieser Schulung über die Natur der BEC-Gefahren, den Einsatz von KI zur Verstärkung dieser Gefahren und die Taktiken der Angreifer informieren. Diese Schulung sollte Teil der kontinuierlichen beruflichen Weiterentwicklung der Mitarbeiter sein.
- Erweiterte E-Mail-Verifizierungsmaßnahmen: Um sich vor KI-gesteuerten BEC-Angriffen zu schützen, sollten Unternehmen strenge Richtlinien zur E-Mail-Verifizierung implementieren. Dazu gehört die Einrichtung von E-Mail-Systemen, die Mitteilungen benachrichtigen, die bestimmte Wörter im Zusammenhang mit BEC-Angriffen enthalten, wie etwa „dringend“, „sensibel“ oder „Überweisung“, und die Einrichtung von Systemen, die automatisch erkennen, wenn E-Mails von außerhalb des Unternehmens an interne Führungskräfte oder ähnliches erinnern Anbieter. Durch diese Maßnahmen wird sichergestellt, dass E-Mails, die schädlich sein könnten, sorgfältig analysiert werden, bevor Maßnahmen ergriffen werden.