Fachbereich Digitale Wirtschaft
Untersucht die folgenden drei Fälle, die sich wirklich ereignet haben. Beantwortet die Fragen zu jedem Fall.
Ein YouTube-Kanal namens "Michael Goldmann" verbreitete im Februar 2026 ein Video mit der Behauptung, der AfD-Politiker Ulrich Siegmund sei attackiert worden und liege im Krankenhaus. Dazu wurde ein Bild von Siegmund in einem Krankenhausbett gezeigt. Das Video hatte über 280.000 Aufrufe – viele Zuschauer wünschten in den Kommentaren gute Besserung. Tatsächlich gab es keinen Angriff. Recherchen ergaben: Der angebliche Reporter "Michael Goldmann" existiert nicht – seine Stimme und sein Gesicht sind KI-generiert. Der Kanal verdiente mit Mitgliedschaften (ca. 200 € pro Monat) und Werbung Geld. Nach Bekanntwerden wurde der Kanal gelöscht.
- 1.1 Erkennungsmerkmale: Im Video waren typische KI-Merkmale sichtbar. Welche könnten das gewesen sein? (Tipp: Mimik, Stimme, Lippenbewegungen)
- 1.2 Geschäftsmodell: Wie hat der Betreiber mit den Fake-Videos Geld verdient?
- 1.3 Check: Rufe auf correctiv.org/faktencheck nach ähnlichen Fällen – findest du Warnungen vor KI-generierten Nachrichten?
Im Januar 2026 kursierte auf Facebook und TikTok ein Video mit einer schockierenden Behauptung: "Die Münchner Polizei enthüllte ein Organhandelsnetzwerk, das fast drei Jahre lang im Krankenhaus aktiv war." Menschen seien auf dem Weg der Besserung plötzlich verstorben, um ihnen heimlich Organe zu entnehmen. Die Polizei München stellte klar: Das Video ist komplett erfunden. Ein Sprecher sagte: "Das Video ist fake. Einen entsprechenden Fall gibt es nicht." Die Bilder im Video zeigten zudem typische KI-Fehler: ein verformtes Polizei-Abzeichen, ein nicht-deutsches Blaulicht und eine seltsam verformte Hand.
- 2.1 Bildanalyse: Warum verraten Details wie Polizei-Abzeichen oder Blaulicht, dass ein Video nicht aus Deutschland stammt?
- 2.2 Gefühl vs. Fakten: Warum verbreiten sich solche Schock-Meldungen besonders schnell? Welche Emotionen werden angesprochen?
- 2.3 Recherche: Suche auf dpa-factchecking.com nach "Krankenhaus" oder "München". Findest du ähnliche Fälle?
Die Schweizer Moderatorin Mona Vetsch kämpft seit drei Jahren gegen Fake-Werbung mit ihrem Gesicht. Auf Instagram und Facebook tauchen immer wieder Videos auf, die sie angeblich zeigen: "Mein Gesicht war mithilfe von KI so verändert, dass ich verprügelt aussah. Dazu ein scheinbares Interview, in dem ich Werbung gemacht habe für ein Anlagetool – natürlich alles Fake", sagt sie. Die Betrugsfälle haben sich 2025 verfünffacht. Betroffen sind alle Altersgruppen – vom Lehrling bis zu Pensionären. Die Fakes werden immer raffinierter: "Mittlerweile sind sie so gut, dass man mich in Videos Anlagetipps vermitteln sieht – da merkt man die Fälschung fast nur noch am schlechten Dialekt."
- 3.1 Die Masche: Warum nutzen Betrüger bekannte Gesichter wie Mona Vetsch für ihre Werbung?
- 3.2 Die Regel: Mona Vetsch sagt: "Immer wenn dir jemand verspricht, dass du in kurzer Zeit sehr viel Geld verdienen kannst, kannst du sicher sein: Du bist nicht die, die profitiert." Erkläre diesen Satz.
- 3.3 Check: Öffne Instagram oder TikTok und suche nach dubiosen Anzeigen mit Promis. Sammle Screenshots (nur für den Unterricht!).
➡️ Präsentation: Stellt eure Ergebnisse kurz im Plenum vor (ca. 2 Minuten pro Fall).