DEEP FAKE
WERDE IN FÜNF SCHRITTEN ZUM DEEPFAKE-EXPERT!
Bearbeitungszeit: ca. 30 Minuten
start
Klicke auf die Fernbedienung.
Und vergiss nicht, den Ton anzumachen!
3. Echt oder Fake?
Einführung
1. Einsatzzwecke von Deepfakes
4. Ratgeber zur Medienkompetenz
2. Frag die Deepfake-Expertin!
DEEPFAKE IT TILL YOU MAKE IT!
5. Deepfake Quiz
Klicke hier, bevor du loslegst!
Klicke hier
1. Einsatzzwecke
Deepfake-Technologien haben das Potenzial, die Welt nachhaltig zu beeinflussen - positiv wie negativ. Sie können helfen, Krebsdiagnosen zu optimieren oder Falschinformationen zu verbreiten. Es kommt darauf an, wie sie eingesetzt werden.
Nützliche Einsatzzwecke
Täuschende Einsatzzwecke
Häufig werden Deepfake-Technologien bewusst eingesetzt, um Inhalte zu manipulieren und zu verfälschen.
Der Einsatz von Deepfake-Technologien eröffnet in vielen Bereichen neue und innovative Möglichkeiten. Aber Vorsicht: Auch bei vermeintlich positiven Anwendungen kann der Einsatz ethische Fragen aufwerfen.
1. Kampagnen
3. Forschung
2. Kunst & Kreativität
4. Unterhaltung
1. Phishing
3. Verleumdung
2. Verbreitung von Falsch-informationen
4. Revenge Porn
KAPITEL 1
KAPITEL 2
KAPITEL 3
KAPITEL 4
QUIZ
2. Frag die Deepfake-Expertin
Ethische Fragen zum Umgang und gesellschaftlichen Auswirkung von Deepfakes
Maria Pawelec
Expertin für Deepfakes und Desinformation
Alle Fragen im Überblick
1. Auswirkungen: Welche Auswirkungen haben manipulierte Medienhalte durch Deepfakes auf die Gesellschaft?
2. Besorgniserregende Szenarien: Welche möglichen Szenarien werden als besonders besorgniserregend angesehen?
3. Ethische Implikationen: Wie betrachten Expert*innen die ethischen Implikationen der Deepfake-Technologie und welche Herausforderungen sehen sie in diesem Bereich?
4. Rechtliche Regelungen: Wie können rechtliche Regelungen verbessert werden, um die Erstellung und Verbreitung von Deepfakes ethisch zu regulieren?
5. Eindämmung: Inwieweit können Social Media-Plattformen dazu beitragen, die Verbreitung von Deepfakes einzudämmen (durch z.B. Richtlinien)?
Zusatz
Welche Auswirkungen haben manipulierte Medienhalte durch Deepfakes auf die Gesellschaft?
Welche möglichen Szenarien werden als besonders besorgniserregend angesehen?
Wie betrachten Expert*innen die ethischen Implikationen der Deepfake-Technologie und welche Herausforderungen sehen sie in diesem Bereich?
Wie können rechtliche Regelungen verbessert werden, um die Erstellung und Verbreitung von Deepfakes ethisch zu regulieren?
Inwieweit können Social Media-Plattformen dazu beitragen, die Verbreitung von Deepfakes einzudämmen (durch z.B. Richtlinien)?
Deepfakes bringen aber nicht nur Risiken mit sich ...
KAPITEL 1
KAPITEL 2
KAPITEL 3
KAPITEL 4
QUIZ
3. ECHT ODER FAKE?
#1
#2
#3
#4
#5
#6
KAPITEL 1
KAPITEL 2
KAPITEL 3
KAPITEL 4
QUIZ
4. RATGEBER ZUR MEDIENKOMPETENZ
Wie gehst du am besten mit Inhalten im Netz um, bei denen du dir nicht ganz sicher bist, ob du sie verbreiten sollst? Wie erkennst du "falsche" Inhalte?
HIER GEHT'S LOS!
RATGEBER MEDIENKOMPETENZ
*Die Checkliste kann dabei helfen, Deepfakes besser zu erkennen, doch bleibt allgemeine Medienkompetenz unverzichtbar. Beachte, dass sie lediglich als Leitfaden dient und nicht universell anwendbar ist, da sich die Technologie stetig weiterentwickelt.
Rückwärtssuche nach Originalmaterial
Versuche herauszufinden, woher das Material stammt, um mögliche Manipulationen oder Quellen zu identifizieren.
Kontext und Plausibilität
Frame-Analyse
Schau dir jedes Bild im Video an und achte auf ungewöhnliche Merkmale oder inkonsistente Details wie plötzliche Gesichtsveränderungen oder verzerrte Hintergründe zwischen den Bildern. Das kann helfen, Bearbeitungen im Video aufzudecken.
Bewerte, ob das Material in den gegebenen Kontext passt und ob die Handlungen oder Aussagen der Personen glaubwürdig erscheinen.
Expertenanalyse
In schwierigen Fällen von Deepfake-Verdacht können Fachleute für Forensik, KI oder Audio-Visual-Analyse konsultiert werden.
Verifikation von Quellen
Prüfe die Glaubwürdigkeit der Quelle des Materials und untersuche mögliche Motive für Manipulation.
Kombination verschiedener Methoden
Die Verwendung verschiedener Techniken wie Bildanalyse, Quellenüberprüfung und Audio-Analyse gleichzeitig hilft dabei, Deepfakes genauer zu erkennen. Das bedeutet, dass du mehrere Werkzeuge zur Überprüfung einsetzt, um mögliche Fälschungen besser aufzudecken.
Audio-Analyse
Achte auf untypische Pausen, Tonunterschiede oder unnatürliche Klangqualitäten in der Stimme.
KAPITEL 1
KAPITEL 2
KAPITEL 3
KAPITEL 4
QUIZ
5. Teste deine Deepfake-Skills!
Wie gut kennst du dich mit Deepfakes aus? Wie gut kannst du KI-generierte Inhalte enttarnen?
Start
Deepfake-Quiz
Frage 1/8
Deepfake-Quiz
Frage 2/8
Deepfake-Quiz
Frage 3/8
Deepfake-Quiz
Frage 4/8
Deepfake-Quiz
Frage 5/8
Schau dir das folgende Video an.
Deepfake-Quiz
Frage 5/8
Deepfake-Quiz
Frage 6/8
Deepfake-Quiz
Frage 7/8
Deep Fake-Quiz
Frage 8/8
🎉
You did it!
Nochmal von vorne?
Bild #4
Lösung
Auch hier: Es ist nicht einfach zu erkennen, dass dieses Bild nicht echt ist. Wenn man genauer hinsieht, fällt einem dann aber auf, dass die Texte in beiden Bildschirmen sehr merkwürdig sind - so etwas zu "faken" kann die KI noch nicht so gut. Außerdem gehen die Beine der Männer ineinander über. Auch merkwürdig ist die Tatsache, dass sie an einem zusätzlichen Tisch an der Bar sitzen.
In Star Wars "Rogue One" wird der 1994 verstorbene Peter Cushing mittels Deepfake-Technologie wieder zum Leben erweckt. Das Video zeigt das beeindruckende Making-of der "Wiederauferstehung". Die Szene ist allerdings nicht unumstritten: Ist es in Ordnung, tote Schauspieler:innen für Filmszenen digital wiederzubeleben?
Was sagt unsere Expertin?
Fortgeschrittene Deepfake-Technologien können verwendet werden, um gefälschte Videos, Bilder oder Audiodateien zu erstellen, in denen Personen in unangemessenen Situationen zu sehen oder zu hören sind. Solche Deepfakes können dann verbreitet werden, um den Ruf der betroffenen Person zu schädigen. Das Bild zeigt eine angebliche Verhaftung des ehemaligen US-Präsidenten Donald Trump. Ein Journalist veröffentlichte mehrere Bilder auf Twitter und schrieb dazu, dass er sie mit KI erstellt habe. Die Bilder wurden in den sozialen Medien vielfach geteilt, teilweise ohne Hinweis, dass es sich um eine Fälschung handelt. Viele Nutzer:innen haben es trotzdem erkannt - aber nicht alle.
© Eliot Higgins / Twitter
Verleumdung ist die Verbreitung falscher und nachteiliger Behauptungen über eine Person mit dem Ziel, deren Ruf zu schädigen. Eine klare Kennzeichnung, dass es sich um gefälschte Inhalte handelt, mindert die Täuschungsabsicht.
Bild #3
Lösung
Auf den ersten Blick hätte man durchaus denken können, dass dieses Foto eines der KI-generierten ist, da die Hände verschwommen sind und allgemein sehr viel los ist, aber dieses Bild ist echt! Es ist 2015 auf einem Musikfestival in San Francisco ("Classix"-Show auf dem "Outside Lands"-Festival) entstanden.
Erfahre hier mehr darüber, wie du mit Inhalten im Netz umgehen kannst, dessen Ursprung du nicht genau kennst. Es gibt einige Dinge, die dir dabei helfen können, gefälschte Inhalte zu enttarnen.
Fortgeschrittene Deepfake-Technologien können verwendet werden, um gefälschte Videos, Bilder oder Audiodateien zu erstellen, in denen Personen in unangemessenen Situationen zu sehen oder zu hören sind. Solche Deepfakes können dann verbreitet werden, um den Ruf der betroffenen Person zu schädigen. Das Bild zeigt eine angebliche Verhaftung des ehemaligen US-Präsidenten Donald Trump. Ein Journalist veröffentlichte mehrere Bilder auf Twitter und schrieb dazu, dass er sie mit KI erstellt habe. Die Bilder wurden in den sozialen Medien vielfach geteilt, teilweise ohne Hinweis, dass es sich um eine Fälschung handelt. Viele Nutzer:innen haben es trotzdem erkannt - aber nicht alle.
© Eliot Higgins / Twitter
Verleumdung ist die Verbreitung falscher und nachteiliger Behauptungen über eine Person mit dem Ziel, deren Ruf zu schädigen. Eine klare Kennzeichnung, dass es sich um gefälschte Inhalte handelt, mindert die Täuschungsabsicht.
Bei Phishing-Angriffen mit Deepfakes werden gefälschte, manipulierte Video- oder Audiodateien verwendet, um Opfer zu täuschen und dazu zu bringen, sensible Informationen preiszugeben oder bestimmte Aktionen auszuführen. In einem viel beachteten Beispiel aus dem Jahr 2019, über das das Wall Street Journal berichtete, brachten Cyberkriminelle den CEO eines britischen Energieunternehmens dazu, ihnen 243.000 US-Dollar zu überweisen. Mithilfe einer KI-gestützten Stimmfälschungssoftware gelang es den Kriminellen, sich als Leiter der Muttergesellschaft des Unternehmens auszugeben und den CEO in dem Glauben zu lassen, er spreche mit seinem Vorgesetzten.
© Pixabay
Klicke auf die jeweiligen Überschriften, um den Inhalt anzuzeigen. Es geht erst weiter, sobald du alles gelesen hast. :) Klicke auf den letzten Abschnitt, um den "Weiter"-Button einzublenden.
In Star Wars "Rogue One" wird der 1994 verstorbene Peter Cushing mittels Deepfake-Technologie wieder zum Leben erweckt. Das Video zeigt das beeindruckende Making-of der "Wiederauferstehung". Die Szene ist allerdings nicht unumstritten: Ist es in Ordnung, tote Schauspieler:innen für Filmszenen digital wiederzubeleben?
Was sagt unsere Expertin?
Ein gutes Beispiel hierfür ist die Kampagne “Malaria Must Die” mit David Beckham aus dem Jahr 2019. Mit Hilfe von KI spricht David Beckham in neun Sprachen, um auf die Gefahren von Malaria aufmerksam zu machen. Dies ermöglicht eine direkte Ansprache der Zielgruppe und reduziert außerdem die Produktionskosten.
Deepfake-Technologien können verwendet werden, um das Gesicht einer Person in vorhandenes intimes Material einzufügen oder das ursprüngliche Material zu manipulieren. Immer mehr Menschen verwenden maschinelles Lernen, um gefälschte Pornofilme von Prominenten oder anderen Personen zu erstellen, und die Ergebnisse werden immer überzeugender.
Maria Pawelec
Maria Pawelec arbeitet seit 2016 als wissenschaftliche Mitarbeiterin am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen in verschiedenen medien- und technikethischen Projekten. Seit 2021 forscht sie zum Thema „Ethische und gesellschaftliche Implikationen von ‚Deepfakes‘ und Chancen ihrer Regulierung“. Sie hat verschiedene Publikationen zum Thema Deepfakes und synthetische Medien veröffentlicht, u.a. 2021 (gemeinsam mit Cora Bieß) die Monographie "Deepfakes — Technikfolgen und Regulierungsfragen aus ethischer und sozialwissenschaftlicher Perspektive" (Baden-Baden: Nomos).
ZU DEN FRAGEN
Das Dalí Museum in St. Petersburg setzt die Deepfake-Technologie ein, um den Künstler Salvador Dalí kurzzeitig wieder zum Leben zu erwecken. Das Video wurde aus über 6.000 Frames früherer Interviews und 1.000 Stunden maschinellem Lernen erstellt. Das Deepfake von Dalí wurde über das Gesicht eines Schauspielers gelegt.
Ein gutes Beispiel hierfür ist die Kampagne “Malaria Must Die” mit David Beckham aus dem Jahr 2019. Mit Hilfe von KI spricht David Beckham in neun Sprachen, um auf die Gefahren von Malaria aufmerksam zu machen. Dies ermöglicht eine direkte Ansprache der Zielgruppe und reduziert außerdem die Produktionskosten.
Navigationshinweis
Möchtest du zum Deepfake-Expert in nur fünf Schritten werden? Lies dir die Tooltips jedes Kapitels aufmerksam durch (Beginne mit Kapitel 1: Einsatzzwecke von Deepfakes). Die Tooltips erscheinen entweder, wenn du mit dem Mauszeiger über die Kapitelelemente auf der Startseite fährst oder in den einzelnen Kapiteln oben rechts auf das "i"-Symbol klickst. Sobald ein Kapitel abgeschlossen ist, gelangst du automatisch zum nächsten, indem du einfach weiterklickst. Wenn du zurück zur Startseite möchtest, um einen Schritt zu wiederholen oder dich umzusehen, kannst du oben rechts auf den Home-Button klicken.
Das Dalí Museum in St. Petersburg setzt die Deepfake-Technologie ein, um den Künstler Salvador Dalí kurzzeitig wieder zum Leben zu erwecken. Das Video wurde aus über 6.000 Frames früherer Interviews und 1.000 Stunden maschinellem Lernen erstellt. Das Deepfake von Dalí wurde über das Gesicht eines Schauspielers gelegt.
Deepfakes können auch verwendet werden, um falsche Informationen zu verbreiten. Dies kann zum Beispiel durch gefälschte Videos von Prominenten mit kontroversen Aussagen geschehen.
Bild #5
Lösung
Wenn du genau hinsiehst, siehst du hier, dass die Linien zwischen den Jacken des Paares und ihren Haaren verschwimmen und sich ein verwischtes Bild ergibt. Auch das ist ein gutes Erkennungsmerkmal von KI-generierten Bildern. Außerdem sehen ihre Haare auf der rechten Seite viel kürzer aus als links. San Francisco-Kenner:innen haben außerdem genannt, dass es diese Perspektive wohl nicht gebe: Es gibt angeblich keinen Ort, an dem man die Golden Gate Bridge wie auf dem Foto fotografieren könne.
Bild #6
Lösung
Hier war es besonders schwer, zu erkennen, dass dieses Bild nicht echt ist. Aber wer hier auf die Details achtet, sieht, was nicht stimmt: Zum einen handelt es sich hier offensichtlich um ein Selfie - man müsste also die Spiegelung eines Handys oder eine Kamera in der Brille sehen. Hieran erkennt man Fakes sehr schnell! Außerdem verschwimmen die Haare der Frau mit dem Ohr des Hundes. Das Halsband sieht auch aus, als wäre es Fehl am Platz. Des Weiteren ist ein fehlplatziertes Hundeauge sowie die Textur des Fells links oben neben dem Kopf der Frau zu sehen. Das gehört dort natürlich nicht hin.
Deepfake-Technologie zur Optimierung der Krebsdiagnose
Der Einsatz der sonst sehr umstrittenen Deepfake-Technologie zur Bildgenerierung zeigt in der Medizin großes Potenzial. Sie kann künstliche medizinische Bilder erzeugen, um den Datensatz zu erweitern. Dabei wird das Bild zunächst in niedriger Auflösung erzeugt und dann schrittweise die Details in hoher Auflösung generiert. Dies führt zu realistischen Ergebnissen bei geringerem Rechenaufwand, egal wie groß das Bild ist. Anhand dieser Bilder können Algorithmen Muster erkennen und lernen, verschiedene Krebsarten und Krankheiten zu identifizieren.
© MIT Technology Review
Bild #1
Lösung
Wenn du genau hinsiehst, siehst du, dass der Kopf des Jungen links nicht echt aussieht und etwas merkwürdig aussieht. Auch die USA-Flagge an der Fensterscheibe sieht aus, als würde sie dort nicht wirklich hingehören, sie passt nicht zum Hintergrund.
Deepfake-Technologie zur Optimierung der Krebsdiagnose
Der Einsatz der sonst sehr umstrittenen Deepfake-Technologie zur Bildgenerierung zeigt in der Medizin großes Potenzial. Sie kann künstliche medizinische Bilder erzeugen, um den Datensatz zu erweitern. Dabei wird das Bild zunächst in niedriger Auflösung erzeugt und dann schrittweise die Details in hoher Auflösung generiert. Dies führt zu realistischen Ergebnissen bei geringerem Rechenaufwand, egal wie groß das Bild ist. Anhand dieser Bilder können Algorithmen Muster erkennen und lernen, verschiedene Krebsarten und Krankheiten zu identifizieren.
© MIT Technology Review
Bild #2
Lösung
Auch dieses Bild sieht auf den ersten Blick ziemlich echt aus. Bei genauerem Betrachten sieht man allerdings, dass hier einiges nicht stimmt: Die Hände des Mannes sowie der Frau neben ihm sehen nicht echt aus. Ganz oft sind KI-generierte Bilder daran zu erkennen, dass die Hände nicht realistisch aussehen und z.B. zu viele Finger zu sehen sind. Auf dem Kopf der Frau im Hintergrund sind Symbole (wohl Teil einer Art Girlande) zu sehen, die eigentlich in den Hintergrund gehören würden.
Deepfake-Technologien können verwendet werden, um das Gesicht einer Person in vorhandenes intimes Material einzufügen oder das ursprüngliche Material zu manipulieren. Immer mehr Menschen verwenden maschinelles Lernen, um gefälschte Pornofilme von Prominenten oder anderen Personen zu erstellen, und die Ergebnisse werden immer überzeugender.
Bei Phishing-Angriffen mit Deepfakes werden gefälschte, manipulierte Video- oder Audiodateien verwendet, um Opfer zu täuschen und dazu zu bringen, sensible Informationen preiszugeben oder bestimmte Aktionen auszuführen. In einem viel beachteten Beispiel aus dem Jahr 2019, über das das Wall Street Journal berichtete, brachten Cyberkriminelle den CEO eines britischen Energieunternehmens dazu, ihnen 243.000 US-Dollar zu überweisen. Mithilfe einer KI-gestützten Stimmfälschungssoftware gelang es den Kriminellen, sich als Leiter der Muttergesellschaft des Unternehmens auszugeben und den CEO in dem Glauben zu lassen, er spreche mit seinem Vorgesetzten.
© Pixabay
Deepfakes können auch verwendet werden, um falsche Informationen zu verbreiten. Dies kann zum Beispiel durch gefälschte Videos von Prominenten mit kontroversen Aussagen geschehen.
Deep Fakes - final
Knowledge Design
Created on January 13, 2024
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Project Roadmap Timeline
View
Step-by-Step Timeline: How to Develop an Idea
View
Artificial Intelligence History Timeline
View
Museum Escape Room
View
Momentum: Onboarding Presentation
View
Urban Illustrated Presentation
View
3D Corporate Reporting
Explore all templates
Transcript
DEEP FAKE
WERDE IN FÜNF SCHRITTEN ZUM DEEPFAKE-EXPERT!
Bearbeitungszeit: ca. 30 Minuten
start
Klicke auf die Fernbedienung.
Und vergiss nicht, den Ton anzumachen!
3. Echt oder Fake?
Einführung
1. Einsatzzwecke von Deepfakes
4. Ratgeber zur Medienkompetenz
2. Frag die Deepfake-Expertin!
DEEPFAKE IT TILL YOU MAKE IT!
5. Deepfake Quiz
Klicke hier, bevor du loslegst!
Klicke hier
1. Einsatzzwecke
Deepfake-Technologien haben das Potenzial, die Welt nachhaltig zu beeinflussen - positiv wie negativ. Sie können helfen, Krebsdiagnosen zu optimieren oder Falschinformationen zu verbreiten. Es kommt darauf an, wie sie eingesetzt werden.
Nützliche Einsatzzwecke
Täuschende Einsatzzwecke
Häufig werden Deepfake-Technologien bewusst eingesetzt, um Inhalte zu manipulieren und zu verfälschen.
Der Einsatz von Deepfake-Technologien eröffnet in vielen Bereichen neue und innovative Möglichkeiten. Aber Vorsicht: Auch bei vermeintlich positiven Anwendungen kann der Einsatz ethische Fragen aufwerfen.
1. Kampagnen
3. Forschung
2. Kunst & Kreativität
4. Unterhaltung
1. Phishing
3. Verleumdung
2. Verbreitung von Falsch-informationen
4. Revenge Porn
KAPITEL 1
KAPITEL 2
KAPITEL 3
KAPITEL 4
QUIZ
2. Frag die Deepfake-Expertin
Ethische Fragen zum Umgang und gesellschaftlichen Auswirkung von Deepfakes
Maria Pawelec
Expertin für Deepfakes und Desinformation
Alle Fragen im Überblick
1. Auswirkungen: Welche Auswirkungen haben manipulierte Medienhalte durch Deepfakes auf die Gesellschaft?
2. Besorgniserregende Szenarien: Welche möglichen Szenarien werden als besonders besorgniserregend angesehen?
3. Ethische Implikationen: Wie betrachten Expert*innen die ethischen Implikationen der Deepfake-Technologie und welche Herausforderungen sehen sie in diesem Bereich?
4. Rechtliche Regelungen: Wie können rechtliche Regelungen verbessert werden, um die Erstellung und Verbreitung von Deepfakes ethisch zu regulieren?
5. Eindämmung: Inwieweit können Social Media-Plattformen dazu beitragen, die Verbreitung von Deepfakes einzudämmen (durch z.B. Richtlinien)?
Zusatz
Welche Auswirkungen haben manipulierte Medienhalte durch Deepfakes auf die Gesellschaft?
Welche möglichen Szenarien werden als besonders besorgniserregend angesehen?
Wie betrachten Expert*innen die ethischen Implikationen der Deepfake-Technologie und welche Herausforderungen sehen sie in diesem Bereich?
Wie können rechtliche Regelungen verbessert werden, um die Erstellung und Verbreitung von Deepfakes ethisch zu regulieren?
Inwieweit können Social Media-Plattformen dazu beitragen, die Verbreitung von Deepfakes einzudämmen (durch z.B. Richtlinien)?
Deepfakes bringen aber nicht nur Risiken mit sich ...
KAPITEL 1
KAPITEL 2
KAPITEL 3
KAPITEL 4
QUIZ
3. ECHT ODER FAKE?
#1
#2
#3
#4
#5
#6
KAPITEL 1
KAPITEL 2
KAPITEL 3
KAPITEL 4
QUIZ
4. RATGEBER ZUR MEDIENKOMPETENZ
Wie gehst du am besten mit Inhalten im Netz um, bei denen du dir nicht ganz sicher bist, ob du sie verbreiten sollst? Wie erkennst du "falsche" Inhalte?
HIER GEHT'S LOS!
RATGEBER MEDIENKOMPETENZ
*Die Checkliste kann dabei helfen, Deepfakes besser zu erkennen, doch bleibt allgemeine Medienkompetenz unverzichtbar. Beachte, dass sie lediglich als Leitfaden dient und nicht universell anwendbar ist, da sich die Technologie stetig weiterentwickelt.
Rückwärtssuche nach Originalmaterial
Versuche herauszufinden, woher das Material stammt, um mögliche Manipulationen oder Quellen zu identifizieren.
Kontext und Plausibilität
Frame-Analyse
Schau dir jedes Bild im Video an und achte auf ungewöhnliche Merkmale oder inkonsistente Details wie plötzliche Gesichtsveränderungen oder verzerrte Hintergründe zwischen den Bildern. Das kann helfen, Bearbeitungen im Video aufzudecken.
Bewerte, ob das Material in den gegebenen Kontext passt und ob die Handlungen oder Aussagen der Personen glaubwürdig erscheinen.
Expertenanalyse
In schwierigen Fällen von Deepfake-Verdacht können Fachleute für Forensik, KI oder Audio-Visual-Analyse konsultiert werden.
Verifikation von Quellen
Prüfe die Glaubwürdigkeit der Quelle des Materials und untersuche mögliche Motive für Manipulation.
Kombination verschiedener Methoden
Die Verwendung verschiedener Techniken wie Bildanalyse, Quellenüberprüfung und Audio-Analyse gleichzeitig hilft dabei, Deepfakes genauer zu erkennen. Das bedeutet, dass du mehrere Werkzeuge zur Überprüfung einsetzt, um mögliche Fälschungen besser aufzudecken.
Audio-Analyse
Achte auf untypische Pausen, Tonunterschiede oder unnatürliche Klangqualitäten in der Stimme.
KAPITEL 1
KAPITEL 2
KAPITEL 3
KAPITEL 4
QUIZ
5. Teste deine Deepfake-Skills!
Wie gut kennst du dich mit Deepfakes aus? Wie gut kannst du KI-generierte Inhalte enttarnen?
Start
Deepfake-Quiz
Frage 1/8
Deepfake-Quiz
Frage 2/8
Deepfake-Quiz
Frage 3/8
Deepfake-Quiz
Frage 4/8
Deepfake-Quiz
Frage 5/8
Schau dir das folgende Video an.
Deepfake-Quiz
Frage 5/8
Deepfake-Quiz
Frage 6/8
Deepfake-Quiz
Frage 7/8
Deep Fake-Quiz
Frage 8/8
🎉
You did it!
Nochmal von vorne?
Bild #4
Lösung
Auch hier: Es ist nicht einfach zu erkennen, dass dieses Bild nicht echt ist. Wenn man genauer hinsieht, fällt einem dann aber auf, dass die Texte in beiden Bildschirmen sehr merkwürdig sind - so etwas zu "faken" kann die KI noch nicht so gut. Außerdem gehen die Beine der Männer ineinander über. Auch merkwürdig ist die Tatsache, dass sie an einem zusätzlichen Tisch an der Bar sitzen.
In Star Wars "Rogue One" wird der 1994 verstorbene Peter Cushing mittels Deepfake-Technologie wieder zum Leben erweckt. Das Video zeigt das beeindruckende Making-of der "Wiederauferstehung". Die Szene ist allerdings nicht unumstritten: Ist es in Ordnung, tote Schauspieler:innen für Filmszenen digital wiederzubeleben?
Was sagt unsere Expertin?
Fortgeschrittene Deepfake-Technologien können verwendet werden, um gefälschte Videos, Bilder oder Audiodateien zu erstellen, in denen Personen in unangemessenen Situationen zu sehen oder zu hören sind. Solche Deepfakes können dann verbreitet werden, um den Ruf der betroffenen Person zu schädigen. Das Bild zeigt eine angebliche Verhaftung des ehemaligen US-Präsidenten Donald Trump. Ein Journalist veröffentlichte mehrere Bilder auf Twitter und schrieb dazu, dass er sie mit KI erstellt habe. Die Bilder wurden in den sozialen Medien vielfach geteilt, teilweise ohne Hinweis, dass es sich um eine Fälschung handelt. Viele Nutzer:innen haben es trotzdem erkannt - aber nicht alle.
© Eliot Higgins / Twitter
Verleumdung ist die Verbreitung falscher und nachteiliger Behauptungen über eine Person mit dem Ziel, deren Ruf zu schädigen. Eine klare Kennzeichnung, dass es sich um gefälschte Inhalte handelt, mindert die Täuschungsabsicht.
Bild #3
Lösung
Auf den ersten Blick hätte man durchaus denken können, dass dieses Foto eines der KI-generierten ist, da die Hände verschwommen sind und allgemein sehr viel los ist, aber dieses Bild ist echt! Es ist 2015 auf einem Musikfestival in San Francisco ("Classix"-Show auf dem "Outside Lands"-Festival) entstanden.
Erfahre hier mehr darüber, wie du mit Inhalten im Netz umgehen kannst, dessen Ursprung du nicht genau kennst. Es gibt einige Dinge, die dir dabei helfen können, gefälschte Inhalte zu enttarnen.
Fortgeschrittene Deepfake-Technologien können verwendet werden, um gefälschte Videos, Bilder oder Audiodateien zu erstellen, in denen Personen in unangemessenen Situationen zu sehen oder zu hören sind. Solche Deepfakes können dann verbreitet werden, um den Ruf der betroffenen Person zu schädigen. Das Bild zeigt eine angebliche Verhaftung des ehemaligen US-Präsidenten Donald Trump. Ein Journalist veröffentlichte mehrere Bilder auf Twitter und schrieb dazu, dass er sie mit KI erstellt habe. Die Bilder wurden in den sozialen Medien vielfach geteilt, teilweise ohne Hinweis, dass es sich um eine Fälschung handelt. Viele Nutzer:innen haben es trotzdem erkannt - aber nicht alle.
© Eliot Higgins / Twitter
Verleumdung ist die Verbreitung falscher und nachteiliger Behauptungen über eine Person mit dem Ziel, deren Ruf zu schädigen. Eine klare Kennzeichnung, dass es sich um gefälschte Inhalte handelt, mindert die Täuschungsabsicht.
Bei Phishing-Angriffen mit Deepfakes werden gefälschte, manipulierte Video- oder Audiodateien verwendet, um Opfer zu täuschen und dazu zu bringen, sensible Informationen preiszugeben oder bestimmte Aktionen auszuführen. In einem viel beachteten Beispiel aus dem Jahr 2019, über das das Wall Street Journal berichtete, brachten Cyberkriminelle den CEO eines britischen Energieunternehmens dazu, ihnen 243.000 US-Dollar zu überweisen. Mithilfe einer KI-gestützten Stimmfälschungssoftware gelang es den Kriminellen, sich als Leiter der Muttergesellschaft des Unternehmens auszugeben und den CEO in dem Glauben zu lassen, er spreche mit seinem Vorgesetzten.
© Pixabay
Klicke auf die jeweiligen Überschriften, um den Inhalt anzuzeigen. Es geht erst weiter, sobald du alles gelesen hast. :) Klicke auf den letzten Abschnitt, um den "Weiter"-Button einzublenden.
In Star Wars "Rogue One" wird der 1994 verstorbene Peter Cushing mittels Deepfake-Technologie wieder zum Leben erweckt. Das Video zeigt das beeindruckende Making-of der "Wiederauferstehung". Die Szene ist allerdings nicht unumstritten: Ist es in Ordnung, tote Schauspieler:innen für Filmszenen digital wiederzubeleben?
Was sagt unsere Expertin?
Ein gutes Beispiel hierfür ist die Kampagne “Malaria Must Die” mit David Beckham aus dem Jahr 2019. Mit Hilfe von KI spricht David Beckham in neun Sprachen, um auf die Gefahren von Malaria aufmerksam zu machen. Dies ermöglicht eine direkte Ansprache der Zielgruppe und reduziert außerdem die Produktionskosten.
Deepfake-Technologien können verwendet werden, um das Gesicht einer Person in vorhandenes intimes Material einzufügen oder das ursprüngliche Material zu manipulieren. Immer mehr Menschen verwenden maschinelles Lernen, um gefälschte Pornofilme von Prominenten oder anderen Personen zu erstellen, und die Ergebnisse werden immer überzeugender.
Maria Pawelec
Maria Pawelec arbeitet seit 2016 als wissenschaftliche Mitarbeiterin am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen in verschiedenen medien- und technikethischen Projekten. Seit 2021 forscht sie zum Thema „Ethische und gesellschaftliche Implikationen von ‚Deepfakes‘ und Chancen ihrer Regulierung“. Sie hat verschiedene Publikationen zum Thema Deepfakes und synthetische Medien veröffentlicht, u.a. 2021 (gemeinsam mit Cora Bieß) die Monographie "Deepfakes — Technikfolgen und Regulierungsfragen aus ethischer und sozialwissenschaftlicher Perspektive" (Baden-Baden: Nomos).
ZU DEN FRAGEN
Das Dalí Museum in St. Petersburg setzt die Deepfake-Technologie ein, um den Künstler Salvador Dalí kurzzeitig wieder zum Leben zu erwecken. Das Video wurde aus über 6.000 Frames früherer Interviews und 1.000 Stunden maschinellem Lernen erstellt. Das Deepfake von Dalí wurde über das Gesicht eines Schauspielers gelegt.
Ein gutes Beispiel hierfür ist die Kampagne “Malaria Must Die” mit David Beckham aus dem Jahr 2019. Mit Hilfe von KI spricht David Beckham in neun Sprachen, um auf die Gefahren von Malaria aufmerksam zu machen. Dies ermöglicht eine direkte Ansprache der Zielgruppe und reduziert außerdem die Produktionskosten.
Navigationshinweis
Möchtest du zum Deepfake-Expert in nur fünf Schritten werden? Lies dir die Tooltips jedes Kapitels aufmerksam durch (Beginne mit Kapitel 1: Einsatzzwecke von Deepfakes). Die Tooltips erscheinen entweder, wenn du mit dem Mauszeiger über die Kapitelelemente auf der Startseite fährst oder in den einzelnen Kapiteln oben rechts auf das "i"-Symbol klickst. Sobald ein Kapitel abgeschlossen ist, gelangst du automatisch zum nächsten, indem du einfach weiterklickst. Wenn du zurück zur Startseite möchtest, um einen Schritt zu wiederholen oder dich umzusehen, kannst du oben rechts auf den Home-Button klicken.
Das Dalí Museum in St. Petersburg setzt die Deepfake-Technologie ein, um den Künstler Salvador Dalí kurzzeitig wieder zum Leben zu erwecken. Das Video wurde aus über 6.000 Frames früherer Interviews und 1.000 Stunden maschinellem Lernen erstellt. Das Deepfake von Dalí wurde über das Gesicht eines Schauspielers gelegt.
Deepfakes können auch verwendet werden, um falsche Informationen zu verbreiten. Dies kann zum Beispiel durch gefälschte Videos von Prominenten mit kontroversen Aussagen geschehen.
Bild #5
Lösung
Wenn du genau hinsiehst, siehst du hier, dass die Linien zwischen den Jacken des Paares und ihren Haaren verschwimmen und sich ein verwischtes Bild ergibt. Auch das ist ein gutes Erkennungsmerkmal von KI-generierten Bildern. Außerdem sehen ihre Haare auf der rechten Seite viel kürzer aus als links. San Francisco-Kenner:innen haben außerdem genannt, dass es diese Perspektive wohl nicht gebe: Es gibt angeblich keinen Ort, an dem man die Golden Gate Bridge wie auf dem Foto fotografieren könne.
Bild #6
Lösung
Hier war es besonders schwer, zu erkennen, dass dieses Bild nicht echt ist. Aber wer hier auf die Details achtet, sieht, was nicht stimmt: Zum einen handelt es sich hier offensichtlich um ein Selfie - man müsste also die Spiegelung eines Handys oder eine Kamera in der Brille sehen. Hieran erkennt man Fakes sehr schnell! Außerdem verschwimmen die Haare der Frau mit dem Ohr des Hundes. Das Halsband sieht auch aus, als wäre es Fehl am Platz. Des Weiteren ist ein fehlplatziertes Hundeauge sowie die Textur des Fells links oben neben dem Kopf der Frau zu sehen. Das gehört dort natürlich nicht hin.
Deepfake-Technologie zur Optimierung der Krebsdiagnose
Der Einsatz der sonst sehr umstrittenen Deepfake-Technologie zur Bildgenerierung zeigt in der Medizin großes Potenzial. Sie kann künstliche medizinische Bilder erzeugen, um den Datensatz zu erweitern. Dabei wird das Bild zunächst in niedriger Auflösung erzeugt und dann schrittweise die Details in hoher Auflösung generiert. Dies führt zu realistischen Ergebnissen bei geringerem Rechenaufwand, egal wie groß das Bild ist. Anhand dieser Bilder können Algorithmen Muster erkennen und lernen, verschiedene Krebsarten und Krankheiten zu identifizieren.
© MIT Technology Review
Bild #1
Lösung
Wenn du genau hinsiehst, siehst du, dass der Kopf des Jungen links nicht echt aussieht und etwas merkwürdig aussieht. Auch die USA-Flagge an der Fensterscheibe sieht aus, als würde sie dort nicht wirklich hingehören, sie passt nicht zum Hintergrund.
Deepfake-Technologie zur Optimierung der Krebsdiagnose
Der Einsatz der sonst sehr umstrittenen Deepfake-Technologie zur Bildgenerierung zeigt in der Medizin großes Potenzial. Sie kann künstliche medizinische Bilder erzeugen, um den Datensatz zu erweitern. Dabei wird das Bild zunächst in niedriger Auflösung erzeugt und dann schrittweise die Details in hoher Auflösung generiert. Dies führt zu realistischen Ergebnissen bei geringerem Rechenaufwand, egal wie groß das Bild ist. Anhand dieser Bilder können Algorithmen Muster erkennen und lernen, verschiedene Krebsarten und Krankheiten zu identifizieren.
© MIT Technology Review
Bild #2
Lösung
Auch dieses Bild sieht auf den ersten Blick ziemlich echt aus. Bei genauerem Betrachten sieht man allerdings, dass hier einiges nicht stimmt: Die Hände des Mannes sowie der Frau neben ihm sehen nicht echt aus. Ganz oft sind KI-generierte Bilder daran zu erkennen, dass die Hände nicht realistisch aussehen und z.B. zu viele Finger zu sehen sind. Auf dem Kopf der Frau im Hintergrund sind Symbole (wohl Teil einer Art Girlande) zu sehen, die eigentlich in den Hintergrund gehören würden.
Deepfake-Technologien können verwendet werden, um das Gesicht einer Person in vorhandenes intimes Material einzufügen oder das ursprüngliche Material zu manipulieren. Immer mehr Menschen verwenden maschinelles Lernen, um gefälschte Pornofilme von Prominenten oder anderen Personen zu erstellen, und die Ergebnisse werden immer überzeugender.
Bei Phishing-Angriffen mit Deepfakes werden gefälschte, manipulierte Video- oder Audiodateien verwendet, um Opfer zu täuschen und dazu zu bringen, sensible Informationen preiszugeben oder bestimmte Aktionen auszuführen. In einem viel beachteten Beispiel aus dem Jahr 2019, über das das Wall Street Journal berichtete, brachten Cyberkriminelle den CEO eines britischen Energieunternehmens dazu, ihnen 243.000 US-Dollar zu überweisen. Mithilfe einer KI-gestützten Stimmfälschungssoftware gelang es den Kriminellen, sich als Leiter der Muttergesellschaft des Unternehmens auszugeben und den CEO in dem Glauben zu lassen, er spreche mit seinem Vorgesetzten.
© Pixabay
Deepfakes können auch verwendet werden, um falsche Informationen zu verbreiten. Dies kann zum Beispiel durch gefälschte Videos von Prominenten mit kontroversen Aussagen geschehen.