Fortbildung - Achtung Täuschung - Fakes erkennen
Zuletzt geändert von Inga Klas am 2024/07/23 12:09
Achtung Täuschung! – Erkennen Sie Fake News, falsche Videos und manipuliertes Bildmaterial
1. Was kann man fälschen oder für Manipulation nutzen?
- Über Bilder im Journalismus: "Warum Bilder so wirkmächtig sind" https://www.bonn-institute.org/news/psychologie-im-journalismus-5
- Beispiele Bildmanipulationen:
- "Bildmanipulationen Mehr Blut, mehr Rauch, weniger Speck" https://www.spiegel.de/fotostrecke/manipulierte-bilder-fotostrecke-107186.html
- "Bildmanipulationen" http://www.rhetorik.ch/Bildmanipulation/Bildmanipulation.html
- "Lehrmittel: Bilder, die lügen" https://www.mfk.ch/lehrmittel/lehrmittel-bilder-die-luegen
- Bildperspektive: Abhängig vom Aufnahmewinkel eines Fotos oder Videos entstehen unterschiedliche Aussagen. Beispiele:
- "Prinz William Was hinter dem Stinkefinger-Foto steckt" https://www.spiegel.de/panorama/leute/prinz-william-was-hinter-dem-stinkefinger-foto-steckt-a-1205679.html
- "Demo gegen Rechtsextremismus: Nein, dieses Bild aus Hamburg ist nicht manipuliert" https://correctiv.org/faktencheck/2024/01/23/demo-gegen-rechtsextremismus-nein-dieses-bild-aus-hamburg-ist-nicht-manipuliert/
- Bildmontage: Man fügt bestehendes Bildmaterial neu zusammen. Beispiele:
- "The very first Photoshopped picture? How image of General Ulysses S. Grant during Civil War battle was cleverly mocked up... but can you spot how?" https://www.dailymail.co.uk/news/article-3294609/The-Photoshopped-picture-Bizarre-image-General-Ulysses-S-Grant-Civil-War-battle-mocked-hero-really-there.html
- "Panne in Saudi-Arabien Schulbuch zeigt Meister Yoda neben König Faisal" https://www.spiegel.de/lebenundlernen/schule/saudi-arabien-meister-yoda-sitzt-in-schulbuch-neben-koenig-faisal-a-1169413.html
- Kontext: Bilder oder Videos werden in einen anderen Kontext gesetzt. Beispiele:
- "Irreführendes Bild zeigt Zugwaggon nach Fußballrandale" https://www.mimikama.org/irrefuehrendes-bild-zugwaggon-fussballrandale/
- Deep Fake: meist mit Hilfe von Künstlicher Intelligenz manipulierte Videos. Beispiele:
- "Scholz-Deepfake: Sind KI-Fälschungen verboten?" https://www.br.de/nachrichten/netzwelt/scholz-deepfake-sind-ki-faelschungen-verboten,TwzZ6nE
- "Deep-Fake oder Realität? "Gruselige" Videos von Tom Cruise verbreiten sich auf TikTok" https://www.stern.de/digital/faktencheck-im-video--ist-das-der--echte--tom-cruise-oder-ein-deepfake--30410280.html
- Künstliche Intelligenz. Beispiele:
- "Trump supporters target black voters with faked AI images" https://www.bbc.com/news/world-us-canada-68440150
- "Sonnenblumen, Pizzen und Müllberge: Wahrheit oder KI-Fiktion?" https://www.mimikama.org/sonnenblumen-pizzen-schachteln-muellberge-gruene/
2. Motive für Falschinformationen
- Kategorien falscher Informationen und Motive (weitere Infos...):
- Fehlinformation (engl. misinformation): Falsche Informationen, die ohne böse Absicht veröffentlicht werden (z.B. Zeitungsenten, Satire)
- Desinformation: Falsche Informationen werden mit böser Absicht verbreitet
- Malinformation: Wahre Informationen werden veröffentlicht, um Schaden zu verursachen (z.B. Veröffentlichung von Teilinformationen)
- Unwissenheit oder schlechte Recherche: Bsp. die angeblichen Hitler-Tagebücher, veröffentlicht vom Stern: https://www.ndr.de/geschichte/chronologie/Vor-40-Jahren-Die-Hitler-Tagebuecher-und-der-Stern-Skandal,tagebuecher2.html
- Satire: Informationen oder Nachrichten werden als Satire-Inhalte gefälscht. Bsp. Webseite "Der Postillon" https://www.der-postillon.com/
- Werbung oder Betrug: z.B. Clickbaits (reißerische Titel, die Klicks erzeugen sollen) oder gefälschte Verkaufsangebote
- Politische Einflussnahme. Beispiele
- Beginn des Irak-Kriegs 2002 "Gefälschte Beweise, inszenierte Bilder - Die Bilanz der Kriegslügen" https://www.ndr.de/fernsehen/sendungen/panorama/archiv/2003/Gefaelschte-Beweise-inszenierte-Bilder-Die-Bilanz-der-Kriegsluegen,erste8192.html
- "Desinformation als Mittel gezielter Einflussnahme fremder Staaten" Bundesamt für Verfassungsschutz https://www.verfassungsschutz.de/SharedDocs/hintergruende/DE/spionage-und-proliferationsabwehr/desinformation.html
- "Soziale Medien und das Brexit-ReferendumPropaganda, Lügen, Fake News" https://www.deutschlandfunk.de/soziale-medien-und-das-brexit-referendum-propaganda-luegen-100.html
3. Fälschungen erkennen
Hauptbeitrag zu diesem Thema: Fake News erkennen https://wiki.mkteam.org/xwiki/bin/view/03%20Themen/Fake%20News/Fake%20News%20erkennen/
Weitere Beispiele:
- Gefälschte Profile oder Kontaktanfragen:
- Checkliste für Profile: https://www.watchlist-internet.at/news/so-erkennen-sie-fake-profile/
- Bilderrückwärtssuche (Achtung Datenschutz! Bilder und Daten werden an die Suchmaschinen übermittelt.)
- Google Lens https://www.google.com/imghp?hl=de&ogbl
- Tin Eye https://tineye.com
- "Fake Fotos - Real or not?" https://www.bpb.de/mediathek/video/314985/fake-fotos-real-or-not/
- This person does not exist: https://this-person-does-not-exist.com/
- Reportagen mit Betroffenen:
- Romance Scamming: "Verliebt in ein Fake-Profil" (NDR) https://yewtu.be/watch?v=W46Qm2zmlXA
- Sextorsion: "Liebesfalle Facebook: Wenn der Traumprinz zur Bedrohung wird | SPIEGEL TV" https://yewtu.be/watch?v=wbfitn-hsHE
- Cybergrooming: "Cybergrooming: Pädokriminelle im Kinderchat" https://www.ardmediathek.de/video/y-kollektiv/cybergrooming-paedokriminelle-im-kinderchat/ard/Y3JpZDovL21kci5kZS9zZW5kdW5nLzI4MjA0MS8yMDI0MDIxMTE4MDAvbWRycGx1cy1zZW5kdW5nLXkta29sbGVrdGl2LTEwMA
- Emotionale Inhalte: Besonders kritisch prüfen. Viele Inhalte werden in Faktencheck-Portalen geprüft. Beispiele:
- Mimikama https://www.mimikama.org/
- Correktiv: www.correctiv.org
- AFP Faktencheck: https://faktencheck.afp.com/
- Bellingcat https://www.bellingcat.com/
- Nachrichten
- Checkliste für Nachrichten: https://wiki.mkteam.org/xwiki/bin/view/03%20Themen/Fake%20News/Fake%20News%20erkennen/
- Falsche Nachrichten in Illustrierten: "Das Geschäft der Klatschpresse" https://yewtu.be/watch?v=LpFSkYSeuU4
- Deep Fakes erkennen: "Scholz wettert gegen die AfD? Indizien entlarven kurioses "Kanzler"-Video" https://www.t-online.de/digital/aktuelles/id_100290574/olaf-scholz-wettert-in-video-gegen-afd-indizien-entlarven-deepfake.html
- Methoden für Deep Fakes: Missbrauch mit KI: "So gefährlich sind Deepfakes" https://www.ardmediathek.de/video/exactly/missbrauch-mit-ki-so-gefaehrlich-sind-deepfakes/mdr-fernsehen/Y3JpZDovL21kci5kZS9zZW5kdW5nLzI4MjA0MS8yMDIzMDkxODA4MDAvbWRycGx1cy1zZW5kdW5nLTc0MDQ
- "Fake-Studien mit KI" https://www.ardmediathek.de/video/alles-wissen/fake-studien-mit-ki/hr-fernsehen/MTJjOWE4OTAtZDI1ZC00NTdiLTg0NzMtNzM4OGJkMzM1OGNh
4. Schutz
- Täglicher Umgang mit Nachrichten
- Inhalte in Ruhe konsumieren.
- Regelmäßig aktuelle Nachrichten verfolgen.
- Verschiedene Medienangebote nutzen.
- Unterstützen Sie Nachrichtenangebote finanziell.
- Prüfen
- Inhalte , die sehr emotional oder skandalträchtig sind.
- Inhalte von unbekannten Quellen.
- Soziale Medien
- Inhalte nicht ungeprüft weiterleiten.
- Falsche Inhalte in privater Nachricht richtigstellen.
Weitere Inhalte
Inhalte des Seminars Fortbildung "Die Digitale Einflussnahme entlarven - Bewusster Umgang mit Suchmaschinen, Social Media und KI"