Mit zunehmendem Fortschreiten der DeepFake-Technologie steigen die Bedenken hinsichtlich Fehlinformationen und Identitätsdiebstahl, hervorgehoben durch eine kürzlich durchgeführte IPROOV-Studie, in der sich die meisten Menschen bemühen, zwischen realen und A-A-generierten Inhalten zu unterscheiden.
Der Studie beteiligte 2.000 Teilnehmer in Großbritannien und den USA und setzten sie einer Mischung aus echten und tiefgreifenden Bildern und Videos aus. Alarmenderweise konnten nur 0,1% der Teilnehmer, insgesamt nur zwei Personen, zwischen den realen und Deepfake -Stimuli genau unterscheiden.
Ältere Erwachsene kamen besonders anfällig für Täuschungen mit AI-generierter Täuschung. Ungefähr 30% der Teilnehmer im Alter von 55 bis 64 Jahren und 39% der über 65 Jahre gaben an, vor der Studie noch nie von Deepfakes gehört zu haben. Obwohl jüngere Teilnehmer (18 bis 34 Jahre) ein größeres Vertrauen in ihre Fähigkeit zeigten, Deepfakes zu erkennen, spiegelte ihre tatsächliche Leistung keine Verbesserung wider.
DeepFake Detection Herausforderungen
Die Studie zeigte, dass das Erfassen von DeepFake -Videos deutlich schwieriger war als die Identifizierung von Bildern. Die Teilnehmer identifizierten eine synthetische Videos mit 36% seltener genau, um ein synthetisches Video im Vergleich zu einem synthetischen Bild zu identifizieren, was Bedenken hinsichtlich des Potenzials für videobasierte Betrug, wie z.
Social -Media -Plattformen wurden als Hauptquellen für Deepfake -Inhalte identifiziert. Fast die Hälfte der Teilnehmer (49%) zitierte Meta -Plattformen, einschließlich Facebook und Instagram, als die häufigsten Websites für DeepFakes, während 47% auf Tiktok hinwiesen.
Andrew Bud, Gründer und CEO von IProov, kommentierte die Ergebnisse und stellte die erhöhte Verwundbarkeit sowohl von Organisationen als auch von Verbrauchern zur Identitätsbetrug in der DeepFake -Ära aus. Er erklärte: „Kriminelle nutzen die Unfähigkeit der Verbraucher, Real von gefälschten Bildern zu unterscheiden, die persönlichen Informationen und die finanzielle Sicherheit gefährdet zu haben.“ Trotz der alarmierenden Ergebnisse ergab die Studie, dass nur 20% der Befragten eine mutmaßliche DeepFake online melden würden.
Wenn Deepfakes immer anspruchsvoller werden, schlägt IProov vor, dass die menschliche Wahrnehmung allein für eine zuverlässige Erkennung nicht ausreicht. Bud betonte die Notwendigkeit von biometrischen Sicherheitslösungen mit der Erkennung von Lebendigkeit, um die Bedrohung durch das überzeugende Deepfake -Material zu bekämpfen.
Die Forschung von IProov zeigt einen dringenden Bedarf an Organisationen, um ihre Kunden durch die Integration robuster Sicherheitsmaßnahmen zu schützen. Bud ist der Ansicht, dass die Verwendung von Gesichtsbiometrie mit Lebendigkeitserkennung einen vertrauenswürdigen Authentifizierungsfaktor bietet, der sowohl die Sicherheits- als auch die individuelle Kontrolle priorisiert.
Laut der Studie hatten nur 22% der Verbraucher vor der Teilnahme von Deepfakes gehört. Darüber hinaus zeigten viele Personen ein erhebliches Überbewusstsein in Bezug auf ihre Erkennungsfähigkeiten, wobei über 60% der Ansicht waren, dass sie DeepFakes identifizieren könnten, obwohl eine Mehrheit schlecht abschneidet. Bei jüngeren Erwachsenen war dieses falsche Sicherheitsgefühl besonders weit verbreitet.
Die Ergebnisse zeigten auch einen Rückgang des Vertrauens gegenüber Social -Media -Plattformen, nachdem die Benutzer DeepFakes aufmerksam geworden waren. 49% meldeten einen Rückgang des Vertrauens. Inzwischen äußerten 74% der Teilnehmer Bedenken hinsichtlich der gesellschaftlichen Auswirkungen von Deepfakes, insbesondere über die Ausbreitung von Fehlinformationen, was für 68% der Befragten ein wichtiges Problem war. Diese Befürchtung war bei älteren Generationen besonders stark, wo bis zu 82% der Personen im Alter von 55 Jahren die Befürchtungen hinsichtlich falscher Informationsverbreitung zum Ausdruck brachten.
Warum kleine KI -Modelle nicht mit großen Schritt halten können
Weniger als ein Drittel der Befragten (29%) gaben an, dass sie bei der Begegnung mit einem mutmaßlichen DeepFake keine Maßnahmen ergreifen würden. Der Mangel an Engagement ist teilweise auf 48% der Befragten zurückzuführen, die angeben, dass sie nicht wissen, wie sie Deepfakes melden sollen, während ein Viertel gleichgültig gegenüber mutmaßlichen Deepfakes zugab. Nur 11% analysieren die Quellen und den Kontext kritisch, um die Authentizität von Informationen zu bestimmen und eine Landschaft zu schaffen, in der viele Personen sehr anfällig für Täuschung sind.
Professor Edgar Whitley, ein Experte für digitale Identität, warnte, dass sich Organisationen nicht nur auf das menschliche Urteilsvermögen verlassen können, um Deepfakes zu erkennen und alternative Methoden der Benutzerauthentifizierung zu untersuchen.
Die wachsende Prävalenz von DeepFakes stellt in der digitalen Landschaft erhebliche Herausforderungen. Der Bericht von IPROOV 2024 Threat Intelligence -Bericht zeigte eine erstaunliche Zunahme von 704% des Gesichtswechsels und betonte ihre Rolle als Instrumente für Cyberkriminelle, die einen unbefugten Zugriff auf sensible Daten suchen. Dieser Trend beleuchtet den dringenden Bedarf an verstärktem Bewusstsein und technologischen Lösungen, um tiefgreifende Bedrohungen zu vereiteln.
Ausgewähltes Bildnachweis: Kerem Gülen/Ideogramm