Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

2000 Leute machten einen DeepFake -Test – nur 2 haben ihn richtig gemacht

byKerem Gülen
Februar 19, 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Mit zunehmendem Fortschreiten der DeepFake-Technologie steigen die Bedenken hinsichtlich Fehlinformationen und Identitätsdiebstahl, hervorgehoben durch eine kürzlich durchgeführte IPROOV-Studie, in der sich die meisten Menschen bemühen, zwischen realen und A-A-generierten Inhalten zu unterscheiden.

Der Studie beteiligte 2.000 Teilnehmer in Großbritannien und den USA und setzten sie einer Mischung aus echten und tiefgreifenden Bildern und Videos aus. Alarmenderweise konnten nur 0,1% der Teilnehmer, insgesamt nur zwei Personen, zwischen den realen und Deepfake -Stimuli genau unterscheiden.

Ältere Erwachsene kamen besonders anfällig für Täuschungen mit AI-generierter Täuschung. Ungefähr 30% der Teilnehmer im Alter von 55 bis 64 Jahren und 39% der über 65 Jahre gaben an, vor der Studie noch nie von Deepfakes gehört zu haben. Obwohl jüngere Teilnehmer (18 bis 34 Jahre) ein größeres Vertrauen in ihre Fähigkeit zeigten, Deepfakes zu erkennen, spiegelte ihre tatsächliche Leistung keine Verbesserung wider.

DeepFake Detection Herausforderungen

Die Studie zeigte, dass das Erfassen von DeepFake -Videos deutlich schwieriger war als die Identifizierung von Bildern. Die Teilnehmer identifizierten eine synthetische Videos mit 36% seltener genau, um ein synthetisches Video im Vergleich zu einem synthetischen Bild zu identifizieren, was Bedenken hinsichtlich des Potenzials für videobasierte Betrug, wie z.

Social -Media -Plattformen wurden als Hauptquellen für Deepfake -Inhalte identifiziert. Fast die Hälfte der Teilnehmer (49%) zitierte Meta -Plattformen, einschließlich Facebook und Instagram, als die häufigsten Websites für DeepFakes, während 47% auf Tiktok hinwiesen.

Andrew Bud, Gründer und CEO von IProov, kommentierte die Ergebnisse und stellte die erhöhte Verwundbarkeit sowohl von Organisationen als auch von Verbrauchern zur Identitätsbetrug in der DeepFake -Ära aus. Er erklärte: „Kriminelle nutzen die Unfähigkeit der Verbraucher, Real von gefälschten Bildern zu unterscheiden, die persönlichen Informationen und die finanzielle Sicherheit gefährdet zu haben.“ Trotz der alarmierenden Ergebnisse ergab die Studie, dass nur 20% der Befragten eine mutmaßliche DeepFake online melden würden.

Wenn Deepfakes immer anspruchsvoller werden, schlägt IProov vor, dass die menschliche Wahrnehmung allein für eine zuverlässige Erkennung nicht ausreicht. Bud betonte die Notwendigkeit von biometrischen Sicherheitslösungen mit der Erkennung von Lebendigkeit, um die Bedrohung durch das überzeugende Deepfake -Material zu bekämpfen.

Die Forschung von IProov zeigt einen dringenden Bedarf an Organisationen, um ihre Kunden durch die Integration robuster Sicherheitsmaßnahmen zu schützen. Bud ist der Ansicht, dass die Verwendung von Gesichtsbiometrie mit Lebendigkeitserkennung einen vertrauenswürdigen Authentifizierungsfaktor bietet, der sowohl die Sicherheits- als auch die individuelle Kontrolle priorisiert.

Laut der Studie hatten nur 22% der Verbraucher vor der Teilnahme von Deepfakes gehört. Darüber hinaus zeigten viele Personen ein erhebliches Überbewusstsein in Bezug auf ihre Erkennungsfähigkeiten, wobei über 60% der Ansicht waren, dass sie DeepFakes identifizieren könnten, obwohl eine Mehrheit schlecht abschneidet. Bei jüngeren Erwachsenen war dieses falsche Sicherheitsgefühl besonders weit verbreitet.

Die Ergebnisse zeigten auch einen Rückgang des Vertrauens gegenüber Social -Media -Plattformen, nachdem die Benutzer DeepFakes aufmerksam geworden waren. 49% meldeten einen Rückgang des Vertrauens. Inzwischen äußerten 74% der Teilnehmer Bedenken hinsichtlich der gesellschaftlichen Auswirkungen von Deepfakes, insbesondere über die Ausbreitung von Fehlinformationen, was für 68% der Befragten ein wichtiges Problem war. Diese Befürchtung war bei älteren Generationen besonders stark, wo bis zu 82% der Personen im Alter von 55 Jahren die Befürchtungen hinsichtlich falscher Informationsverbreitung zum Ausdruck brachten.


Warum kleine KI -Modelle nicht mit großen Schritt halten können


Weniger als ein Drittel der Befragten (29%) gaben an, dass sie bei der Begegnung mit einem mutmaßlichen DeepFake keine Maßnahmen ergreifen würden. Der Mangel an Engagement ist teilweise auf 48% der Befragten zurückzuführen, die angeben, dass sie nicht wissen, wie sie Deepfakes melden sollen, während ein Viertel gleichgültig gegenüber mutmaßlichen Deepfakes zugab. Nur 11% analysieren die Quellen und den Kontext kritisch, um die Authentizität von Informationen zu bestimmen und eine Landschaft zu schaffen, in der viele Personen sehr anfällig für Täuschung sind.

Professor Edgar Whitley, ein Experte für digitale Identität, warnte, dass sich Organisationen nicht nur auf das menschliche Urteilsvermögen verlassen können, um Deepfakes zu erkennen und alternative Methoden der Benutzerauthentifizierung zu untersuchen.

Die wachsende Prävalenz von DeepFakes stellt in der digitalen Landschaft erhebliche Herausforderungen. Der Bericht von IPROOV 2024 Threat Intelligence -Bericht zeigte eine erstaunliche Zunahme von 704% des Gesichtswechsels und betonte ihre Rolle als Instrumente für Cyberkriminelle, die einen unbefugten Zugriff auf sensible Daten suchen. Dieser Trend beleuchtet den dringenden Bedarf an verstärktem Bewusstsein und technologischen Lösungen, um tiefgreifende Bedrohungen zu vereiteln.


Ausgewähltes Bildnachweis: Kerem Gülen/Ideogramm

Tags: AiDeepfakeVorgestellt

Related Posts

Die FTC verbietet GM den Verkauf von Fahrerdaten ohne ausdrückliche Zustimmung

Die FTC verbietet GM den Verkauf von Fahrerdaten ohne ausdrückliche Zustimmung

Januar 15, 2026
Der weltweite Mangel an Speicherchips lässt die PC-Preise in die Höhe schnellen

Der weltweite Mangel an Speicherchips lässt die PC-Preise in die Höhe schnellen

Januar 14, 2026
Amazon erzwingt ein Upgrade von Prime-Mitgliedern auf Alexa+

Amazon erzwingt ein Upgrade von Prime-Mitgliedern auf Alexa+

Januar 14, 2026
Kinder betrügen Roblox mit Fotos von Kurt Cobain, um Chat-Verbote zu umgehen

Kinder betrügen Roblox mit Fotos von Kurt Cobain, um Chat-Verbote zu umgehen

Januar 14, 2026
Resident Evil Requiem steht im Mittelpunkt der Veranstaltung am 15. Januar

Resident Evil Requiem steht im Mittelpunkt der Veranstaltung am 15. Januar

Januar 14, 2026
Lernen Sie Apple Creator Studio kennen: 12,99 $ für 6 Pro-Apps

Lernen Sie Apple Creator Studio kennen: 12,99 $ für 6 Pro-Apps

Januar 14, 2026

Recent Posts

  • Die FTC verbietet GM den Verkauf von Fahrerdaten ohne ausdrückliche Zustimmung
  • Der weltweite Mangel an Speicherchips lässt die PC-Preise in die Höhe schnellen
  • OpenAI erwirbt Torch, um ChatGPT Health zu verbessern
  • Amazon erzwingt ein Upgrade von Prime-Mitgliedern auf Alexa+
  • Kinder betrügen Roblox mit Fotos von Kurt Cobain, um Chat-Verbote zu umgehen

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.