Ein alarmierender Bericht von Kela Research and Strategy Ltd. dokumentiert heute einen 200% igen Anstieg der Berichte von böswilligen Tools für künstliche Intelligenz in Cybercrime -Foren bis 2024, die veranschaulicht, wie schnell Cyberkriminelle KI -Tools und -Taktiken einnehmen. Die Ergebnisse wurden in Kelas AI -Bedrohungsbericht 2025 umrissen: Wie Cyberkriminelle die KI -Technologie waffen.
Der Bericht basiert auf Daten von Kelas eigener Intelligenz-Sammel-Plattform, die die Cyberkriminalitätsaktivitäten in dunklen Webforen, Telegrammkanälen und durch Verfolgung des Verhaltens des Bedrohungsakteurs analysiert.
Über die Zunahme der Erwähnungen von böswilligen KI -Tools hinaus stellt der Bericht einen Anstieg der Diskussionen um 52% um AI -Jailbreaks im vergangenen Jahr fest. Es wird berichtet, dass Cybercrime -Akteure die AI -Jailbreak -Techniken kontinuierlich verfeinern, um die Sicherheitsbeschränkungen in öffentlichen KI -Systemen zu umgehen.
Die Bedrohungsakteure verteilen und monetarisieren proaktiv, was Kela als „dunkle KI -Tools“ definiert, die Jailbreak -Modelle und spezialisierte böswillige Anwendungen wie WORMGPT und ARBADGPT umfassen. Diese Tools sollen Cyberkriminalitätsaktionen wie Phishing, Malware und Finanzbetrug ausführen – die normalerweise in großem Maßstab durchgeführt werden.
KI -Systeme sind so konzipiert, dass sie Sicherheitsbeschränkungen beseitigen und benutzerdefinierte Funktionen hinzufügen, wodurch die Barriere für unerfahrene Angreifer zur Ausführung ausgefeilter Angriffe im Maßstab senken.
Im Bereich von Phishing stellen Experten fest, dass Bedrohungsakteure generative KI nutzen, um starke Inhalte für soziale Technik herzustellen und solche Systeme mit DeepFake -Audio und -Video zu verbessern. Dies verbessert die Fähigkeit von Cyberkriminellen, Führungskräfte auszugeben und die Mitarbeiter irreführende Beträge zu fördern, um betrügerische Transaktionen zu genehmigen.
Kela stellte außerdem fest, dass die AI die Entwicklung der Malware beschleunigt hat und die Schaffung von hochschwächenden Ransomware und Infostalern ermöglichte. Diese Entwicklung stellt Schwierigkeiten für traditionelle Erkennungs- und Reaktionsmethoden auf.
„Wir erleben eine seismische Veränderung in der Cyber -Bedrohungslandschaft“, sagte Yael Kishon, KI -Produkt- und Forschungsleiterin bei Kela. „Cyberkriminelle verwenden nicht nur KI-sie bauen ganze Abschnitte im unterirdischen Ökosystem, das sich dem KI-angetriebenen Cyberkriminalität widmet.“ Sie betonte, dass „Organisationen eine KI-gesteuerte Verteidigung anwenden müssen, um diese wachsende Bedrohung zu bekämpfen.“ Kela rät, in die Investition in die Schulung von Mitarbeitern zu investieren.
Hacker haben jetzt ein Toolkit für Massenkonto -Verstöße: Es heißt Atlantis AIO
Kela empfiehlt die Überwachung der aufkommenden KI-Bedrohungen und -taktiken sowie die Implementierung von Sicherheitsmaßnahmen wie automatisierter Intelligenz-basiertes Red-Teaming und kontroverse Emulationen für generative KI-Modelle.
Dieser Bericht macht deutlich, dass das Wettrüsten zwischen Cybercrime -Innovatoren und Sicherheitsexperten ein nuanciertes und proaktives Engagement vorschreibt. Wenn Organisationen generative KI einsetzen müssen, um der generativen KI bei Phishing entgegenzuwirken, dann ist es so, aber es ist beunruhigend, wie übereinstimmende konventionelle Methoden sein werden, wenn schlechte Akteure nicht überprüft bleiben.
Der alarmierende Sprung in der AI-ausgerichteten Online-Chatter zeigt, dass Cyberkriminelle nicht nur KI einnehmen, sondern ihre KI-Hacking-Methoden perfektionieren. Dies ist noch schlechter als die Waffen des externen Codes, da die Feinde jetzt die Sicherheitsmaßnahmen effektiv entwickeln. Dies ist ein langes Spiel, aber Cyberkriminelle nutzen momentan ein offenes Ziel und fordern jetzt Action.
Der Anstieg der Zahl der zitierten Jailbreak-Methoden überwiegt die Gegeninterventionen erheblich.
Erleichtert durch gezielte Tools, die ausgefeilte Anwendungen in Bereichen wie DeepFake -Technologie und Malwareentwicklung präsentieren, fügen diese Cyberkriminellen eine weitere Komplexitätsebene für Strafverfolgungs- und Sicherheitsunternehmen hinzu.
Kelas Warnung kann nicht mehr länger ignoriert werden, wenn Entwickler, ob gut oder schlecht, sich darauf konzentrieren, Tool -Kits zu erstellen, um die KI -Software auszunutzen und erhebliche Cybersecurity -Probleme anzugehen. Derzeit wächst das unterirdische Ökosystem, das sich auf KI-betriebene Cyberkriminalität konzentriert.
Trotz der Tatsache, dass mehr dieser Taktiken auf Social Engineering angewiesen sind, investieren Mitarbeiter – von denen bekannt ist, dass sie die schwächste Cybersicherheitsverbindung sind – immer noch nicht so häufig in KI -Tools, wie sie sollten. Dieses Problem wird intensiviert, wenn Unternehmensleiter auf solche Mechanismen zugreifen müssen.