Jenseits von Coding Episode #217

Wie sich Deepfakes weiterentwickeln (und was Sie wissen müssen)

KI braucht nur drei Sekunden, um Ihre Stimme zu stehlen und sich für Sie auszugeben, und zwar auf eine Weise, die niemand erkennen kann. Wie können Sie sich selbst, Ihre Familie und Ihre Finanzen schützen, wenn Sehen und Hören nicht mehr ausreicht, um zu glauben?


In dieser Folge enthüllt die Deepfake-Expertin Parya Lotfi die schockierende Realität von KI-gesteuerten Betrügereien, von betrügerischen Banküberweisungen bis hin zu gefälschten Entführungsanrufen. Wir decken auf, wie Kriminelle vorgehen und was Sie tun können, um die Lügen zu erkennen, bevor es zu spät ist.


In dieser Folge/Video behandeln wir:

- Wie Kriminelle 3-Sekunden-Stimmenklone für Betrügereien nutzen

- Die schockierende Geschichte eines nordkoreanischen Deepfake-Spions

- Warum Gesichts- und Spracherkennung nicht mehr sicher sind

- Wie Sie KI nutzen, um andere KI-Fälschungen zu erkennen


Dieses Video richtet sich an alle, die die realen Gefahren der Deepfake-Technologie verstehen wollen und lernen möchten, wie sie sich in unserer neuen "gefälschten Realität" schützen können.


Verbinden Sie sich mit Parya:

https://www.linkedin.com/in/paryalotfi


Zeitstempel:

00:00:00 - Intro

00:00:35 - Die erschreckende Realität von KI-generierten Videos

00:02:32 - Die gefährliche Seite der biometrischen Gesichts- und Spracherkennung

00:03:45 - Die beunruhigende Realität des Stimmenklon-Betrugs

00:06:46 - Wie man KI nutzt, um KI-generierte Fälschungen zu erkennen

00:10:11 - Das "Black Box"-Problem der KI mit Erklärbarkeit lösen

00:12:10 - Die verschiedenen Arten von Deepfakes, die Kriminelle verwenden

00:14:15 - Wie Deepfakes benutzt werden, um Millionen von Banken zu waschen

00:18:18 - Einblicke in das "Deepfake-as-a-Service"-Geschäft des Darknets

00:22:32 - Warum ein Verbot der Deepfake-Technologie unmöglich ist

00:24:58 - Wie Deepfakes in globalen Konflikten als Waffe eingesetzt werden

00:27:30 - Red Teaming: Wie man wie ein Deepfake-Krimineller denkt

00:29:09 - Der nordkoreanische Spion, der einen Deepfake benutzt hat, um einen Job zu bekommen

00:31:54 - Das ultimative Ziel: Ein Deepfake-Detektor für jedermann

00:37:23 - Die Zukunft, die mir Angst macht: AGI und selbstlernende Roboter

00:44:33 - Der Weg zum Aufbau eines Unternehmens für Deepfake-Detektion

00:47:42 - Der überraschende Grund, warum Deepfake-Erkennung so schwierig ist

00:54:44 - Wer ist verantwortlich, wenn Sie von einem Deepfake betrogen werden?

00:58:25 - Der Aufstieg der KI-Beeinflusser und ihre tragischen Folgen


#Deepfake #Cybersecurity #KünstlicheIntelligenz