Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
Subscribe
No Result
View All Result
Dataconomy DE
No Result
View All Result

Lassen Sie nicht zu, dass die KI vom Schmerz und der Trauer der Familien profitiert

byKerem Gülen
Oktober 3, 2024
in Artificial Intelligence, News
Home Artificial Intelligence

Basierend auf einer Geschichte, die wir weitergelesen haben TechBrieflyes ist schwer, dem Drang zu widerstehen, vor Wut gegen Wände zu schlagen.

Die Familie von Jennifer Ann Crecente, einer 18-Jährigen, die vor fast zwei Jahrzehnten ermordet wurde, entdeckte kürzlich, dass ihr Foto ohne ihre Zustimmung von einer KI-Chatbot-Plattform verwendet wurde. Jennifers Name und Bild wurden auf Character.ai gefunden, einem Dienst, der es Benutzern ermöglicht, mit KI-generierten Persönlichkeiten zu interagieren. Die Familie wurde nie konsultiert oder über die Verwendung von Jennifers Identität informiert, so dass sie über diesen groben Missbrauch entsetzt und am Boden zerstört war.

Nach der Entdeckung nutzte Jennifers Onkel die sozialen Medien, um den Vorfall aufzudecken, und gab in seinem Blog eine deutliche Erklärung ab: Padandpixel.

Das ist verdammt ekelhaft: @character_ai benutzt meine ermordete Nichte ohne die Erlaubnis ihres Vaters als Gesicht einer Videospiel-KI. Er ist im Moment sehr verärgert. Ich kann mir nicht vorstellen, was er durchmacht.

Bitte helfen Sie uns, diese schreckliche Praxis zu stoppen. https://t.co/y3gvAYyHVY

— Brian Crecente (@crecenteb) 2. Oktober 2024

Erst nach öffentlichem Aufschrei entfernte die Plattform den Bot.

Der Schock, zu sehen, wie Jennifers Gesicht und Name ohne Erlaubnis verwendet wurden, riss alte Wunden in der Familie wieder auf. Crecente beschrieb die anfängliche Trauer nach ihrem Tod als eine „fast außerkörperliche Erfahrung“ und fügte hinzu: „Meine Seele fühlte sich an, als würde sie aus meinem Körper gerissen. Ich erlebte das Leben eine Zeit lang wie benommen, als ob ich es wäre Irgendwie losgelöst von meinem Körperaus die Welt.“ Während die Familie unermüdlich daran gearbeitet hatte, Jennifers Andenken durch gemeinnützige Arbeit und Bildung zu ehren, fühlte sich diese unbefugte Verwendung ihrer Identität wie eine grausame Verletzung an.

„Es fühlt sich an, als wäre sie uns erneut gestohlen worden“, schrieb Crecente und betonte die verheerenden Auswirkungen des sorglosen Umgangs mit persönlichen Identitäten durch KI. Trotz ihrer Bemühungen, den Chatbot entfernen zu lassen, wurde der Schaden angerichtet. Crecente stellte eine dringende Frage: „Warum liegt es an uns, belastbar zu sein? Warum machen sich milliardenschwere Unternehmen nicht die Mühe, ethische Leitprinzipien und funktionierende Leitplanken zu schaffen, um zu verhindern, dass dies jemals geschieht?“

Im Ernst: Warum machen sich milliardenschwere Unternehmen nicht die Mühe, ethische Leitprinzipien und funktionierende Leitplanken zu schaffen, um zu verhindern, dass so etwas jemals passiert?

Wir wissen, dass es schlechte Menschen gibt. Menschen sind von Natur aus häufig zu schlechten Taten fähig. Aber diejenigen, die an der Macht sind – insbesondere diejenigen mit immensem technologischen Einfluss – tragen auch die Verantwortung, Grenzen zu setzen und Rahmenbedingungen zu schaffen, die das Böse blockieren.

Die Antwort liegt an der Schnittstelle zwischen technologischem Fortschritt, Unternehmensanreizen und dem eklatanten Fehlen umfassender Vorschriften.

Wenn Unternehmen wie Character.ai über die Fähigkeit verfügen, menschliche Identitäten – ob lebend oder verstorben – zu reproduzieren, haben sie eine ethische Verpflichtung, sicherzustellen, dass diese Macht nicht missbraucht wird.

Die Antwort liegt darin, den Profit über den Menschen zu stellen. Im unermüdlichen Wettlauf um Innovation entscheiden sich Unternehmen für schnelles Handeln und Innovationen, ohne sicherzustellen, dass die notwendigen ethischen Barrieren vorhanden sind. Es ist nicht so, dass sie diese Barrieren nicht schaffen könnten; Sie sehen einfach keinen unmittelbaren finanziellen Nutzen darin.

Das ist die harte Realität: Gewinnorientierte Branchen betrachten Moral oft als optionale Ausgabe, insbesondere in der Technologiewelt.

Regierungen und Regulierungsbehörden hinken der rasanten Entwicklung der KI hinterher und hinterlassen enorme Gesetzeslücken. Es gibt, wenn überhaupt, nur wenige wirksame Schutzmaßnahmen für die Identität der Verstorbenen.

Sprechen Sie es jetzt aus!

Medien und Interessengruppen müssen Technologieunternehmen für die unbefugte Verwendung von Bildnissen verstorbener Personen zur Verantwortung ziehen. Der öffentliche Druck ist entscheidend, um sicherzustellen, dass KI-Plattformen ethische Richtlinien umsetzen und solche Verstöße in Zukunft verhindern.

Die Gesetzgeber müssen aufgefordert werden, Gesetze zu erlassen, die die Identität der Verstorbenen ausdrücklich schützen und sicherstellen, dass ihre Namen, Bilder und Hinterlassenschaften nicht gewinnbringend ausgenutzt werden. Wir brauchen Regelungen, die die Würde der Familien noch lange nach dem Tod ihrer Angehörigen schützen.

Wir müssen von Unternehmen verlangen, strenge ethische Richtlinien für den Einsatz von KI festzulegen und durchzusetzen. Dazu gehören Einwilligungsprotokolle und ein transparenter Prozess zur Meldung von Verstößen. Sie sollten nicht darauf warten, dass Familien diese Verstöße nachträglich entdecken.

Die Medien müssen weiterhin eine entscheidende Rolle bei der Untersuchung und Aufdeckung von Vorfällen spielen, bei denen KI-Plattformen Personen ohne Zustimmung ausbeuten. Ihre unermüdliche Berichterstattung wird diese Unternehmen zur Rechenschaft ziehen und auf Veränderungen drängen, um sicherzustellen, dass Schweigen diese Ausbeutung nicht ermöglicht.

Wir können nicht tatenlos zusehen, wie solche Verstöße unangefochten weitergehen.

#ResponsibleAI


Wir sprechen der Familie Crecente in dieser herzzerreißenden Zeit unser tiefstes Beileid aus. Niemand sollte jemals den Schmerz ertragen müssen, einen geliebten Menschen zu verlieren, geschweige denn eine solche Verletzung seines Gedächtnisses ertragen müssen. Jennifers Leben und Vermächtnis verdienen es, gewürdigt zu werden, und wir teilen Ihre Trauer, wenn Sie dieser unvorstellbaren Last gegenüberstehen.


Hervorgehobener Bildnachweis: Padandpixel

Tags: HervorgehobenKIkünstliche Intelligenz

Related Posts

Alphaevolve: Wie Googles neue KI mit Selbstkorrektur auf die Wahrheit strebt

Alphaevolve: Wie Googles neue KI mit Selbstkorrektur auf die Wahrheit strebt

Mai 15, 2025
TIKTOK implementiert AI-generierte ALT-Texte, um eine bessere Akzierbarkeit zu erhalten

TIKTOK implementiert AI-generierte ALT-Texte, um eine bessere Akzierbarkeit zu erhalten

Mai 15, 2025
Trump zwingt Apple, seine indische iPhone -Strategie in Indien zu überdenken

Trump zwingt Apple, seine indische iPhone -Strategie in Indien zu überdenken

Mai 15, 2025
Die KI von YouTube weiß jetzt, wann Sie kurz vor dem Kauf sind

Die KI von YouTube weiß jetzt, wann Sie kurz vor dem Kauf sind

Mai 15, 2025
Der CEO von SoundCloud gibt zu, dass KI -Begriffe nicht klar genug waren, ein neues Versprechen herausgibt

Der CEO von SoundCloud gibt zu, dass KI -Begriffe nicht klar genug waren, ein neues Versprechen herausgibt

Mai 15, 2025
Lightricks enthüllt ein 13B LTX -Videomodell für die HQ -AI -Videogenerierung

Lightricks enthüllt ein 13B LTX -Videomodell für die HQ -AI -Videogenerierung

Mai 14, 2025

Recent Posts

  • Databricks -Wetten auf serverlose Postgres mit seiner Akquisition von 1 Milliarde US -Dollar
  • Alphaevolve: Wie Googles neue KI mit Selbstkorrektur auf die Wahrheit strebt
  • TIKTOK implementiert AI-generierte ALT-Texte, um eine bessere Akzierbarkeit zu erhalten
  • Trump zwingt Apple, seine indische iPhone -Strategie in Indien zu überdenken
  • Die KI von YouTube weiß jetzt, wann Sie kurz vor dem Kauf sind

Recent Comments

Es sind keine Kommentare vorhanden.
Dataconomy DE

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.