Eine Umfrage unter Cybersecurity-Führungskräften zeigt, dass 62 Prozent im vergangenen Jahr KI-gesteuerte Angriffe gegen die Mitarbeiter gemeldet haben. Diese Vorfälle, die eine schnelle Injektion und Deepfake-Audio oder -Video beinhalteten, haben erhebliche Unternehmensstörungen, einschließlich finanzieller und geistiger Eigentumsverluste, verursacht. Der häufigste Angriffsvektor war DeepFake Audio -Anrufe, die sich mit Mitarbeitern angestrebten. 44 Prozent der Unternehmen meldeten mindestens einen Vorfall. Sechs Prozent dieser Ereignisse führten zu Unternehmensunterbrechungen, finanziellem Verlust oder Verlust von geistigem Eigentum. Die Daten zeigten, dass die Implementierung eines Audio-Screening-Dienstes mit einer Verringerung der Verlustraten auf zwei Prozent korrelierte. Vorfälle mit Video -Deepfakes wurden von 36 Prozent der befragten Organisationen gemeldet. Unter diesen Fällen wurden fünf Prozent als ein schwerwiegendes Problem für das Geschäft eingestuft. Dies ist eine anhaltende, wenn auch seltenere Bedrohung im Vergleich zu Audio -Imitationsversuchen. Chester Wisniewski, Global Field Ciso bei der Sicherheitsfirma Sophos, erklärte, dass DeepFake Audio immer überzeugend und günstig wird. „Mit Audio können Sie diese Anrufe zu diesem Zeitpunkt in Echtzeit generieren“, erklärte er und bemerkte, dass es einen Kollegen täuschen kann, mit dem man gelegentlich interagiert. Wisniewski ist der Ansicht, dass die Audio-Deepfake-Zahlen das Problem unterschätzen könnten, und er fand die Videozahlen höher als erwartet, da eine in Echtzeit-Videos einer bestimmten Person Millionen von Dollar produzierenden Dollar kosten kann. Sophos hat Taktiken beobachtet, bei denen ein Betrüger kurz einen CEO oder CFO-Video-Deepfake auf einem WhatsApp-Anruf verwendet, bevor sie Konnektivitätsprobleme beanspruchen, den Feed löschen und zu Text umstellen, um einen Social-Engineering-Angriff fortzusetzen. Generische Videofälle werden auch verwendet, um eine Identität zu verbergen, anstatt eine zu stehlen. Es wurde berichtet, dass Nordkorea Millionen verdient, indem er seine Mitarbeiter überzeugen lässt, die AI -Fakery zu überzeugen, um eine Beschäftigung bei westlichen Unternehmen zu gewinnen. Eine weitere steigende Bedrohung ist der Angriff zur Eingabeinjektion, bei dem böswillige Anweisungen in Inhalte eingebettet werden, die von einem KI-System verarbeitet werden. Dies kann die KI dazu bringen, vertrauliche Informationen oder Missbrauchstools zu enthüllen, was möglicherweise zu einer Codeausführung führt, wenn die Integrationen dies zulassen. Laut einer Umfrage von Gartner gaben 32 Prozent der Befragten solche Angriffe gegen ihre Anträge an. Jüngste Beispiele veranschaulichen diese Schwachstellen. Forscher haben gezeigt, dass Googles Gemini-Chatbot von Google verwendet wird, um die E-Mail- und Smart-Home-Systeme eines Benutzers anzusprechen. Das Claude -Sprachmodell von Anthropic hat auch Probleme mit einer schnellen Injektion erlebt. In anderen Untersuchungen wurde ChatGPT erfolgreich dazu gebracht, Captchas zu lösen, die dazu gedacht sind, Menschen- und Maschinenbenutzer zu unterscheiden, und in den Datenverkehr zu generieren, der für Angriffe im Service-Service gegen Websites verwendet werden könnte.





