Deepfake-Content der medizinische Missinformationen verbreitet oder für Scam eingesetzt wird, stellt ein zunehmendes Problem dar. Selbst wenn ein KI-Video als manipuliert markiert ist, kann seine Botschaft weiter Urteile beeinflussen. Transparenz wird politisch gern als Allheilmittel verkauft, reicht alleine aber nicht um die Nachwirkung solcher Videos zu stoppen.
Januar 18, 2026

Deepfakes sind durch KI-erzeugte oder manipulierte Videos und Audios, die täuschend echt wirken. Auch in Deutschland werden im Internet solche Inhalte bereits für gesundheitsbezogene Betrugswerbung eingesetzt – besonders Videos, die reale Ärzte oder Prominente Person glaubhaft nachahmen und so aussehen lassen, als würden sie Abnehm- oder “Wundermittel” empfehlen.
Ein prominenter Fall betrifft Eckart von Hirschhausen: Es kursierten gefälschte Videos, in denen er vermeintlich für ein Abnehmmittel wirbt. Die Sache wurde debunkt und juristisch verfolgt.
Nur leider ist „als Fake entlarvt“ nicht dasselbe wie „psychologisch erledigt“: Ein Deepfake kann weiter beeinflussen, obwohl man weiß, dass er manipuliert ist.
Deepfakes wirken, trotz Warnung
Wenn Informationen nachträglich korrigiert oder als falsch markiert werden, können sie trotzdem weiter Urteile und Schlussfolgerungen beeinflussen, weil sie im Kopf bereits als „Erklärung“ oder scheinbarer Beleg verankert sind. Genau dieses Muster ist als Continued Influence Effect bekannt: Die Korrektur ist da, aber der ursprüngliche Eindruck arbeitet weiter. Warnhinweise und Transparenz werden dadurch in der Praxis eher zum Bremsklotz für Falschinformationen und weniger zum klaren Stoppschild.
Clark et al. zeigen experimentell genau diesen Punkt: Klare Kennzeichnungen („manipuliert“, „Deepfake“) reduzieren die Wirkung von Deepfake-Videos zwar, aber der Effekt bleibt klar messbar. Entscheidend ist dabei nicht die triviale Moral „Menschen sind dumm“, sondern die unbequeme Mechanik: Urteile folgen weiterhin dem gesetzten Eindruck, selbst wenn die Meta-Info „Fake“ verfügbar ist. Besonders relevant ist, dass dieser Rest-Effekt sogar bei Personen auftritt, die die Warnung akzeptieren und den Clip als manipuliert einordnen.
Warum KI-Videos so stark nachwirken
Der hartnäckige Effekt von Deepfakes, entsteht nicht nur durch ihrer vermeintlichen „Glaubwürdigkeit“, sondern durch die Form des Inputs: Ein Video ist keine neutrale Information, sondern erzeugt die Illusion eines Belegs. Stimme, Gesicht, Timing und nonverbale Signale liefern dem Gehirn ein Beweisgefühl, das oft stabiler ist als ein nachgeschobenes Label.
Deepfakes wirken lebendiger, kohärenter und bringen ihren eigenen Kontext gleich mit – und dadurch fühlen sie sich automatisch authentischer an als ein schwurbeliger Tweet, der mit einem manipulierten Bild als „Beweis“ daherkommt.
Bei manchen Clips sind Menschen erstaunlich gut Fälschungen zu entlarven. Bei „besseren“ Fakes wird’s schnell düster – besonders auf kleinen Screens wie dem Smartphone.
Ob ein Deepfake überhaupt als solcher erkannt wird, hängt stark von dessen Qualität und Kontext ab – aber auch von Personenfaktoren des Betrachters: Manche Menschen prüfen systematischer, andere eher „aus dem Bauch heraus“. Viele überschätzen dabei ihre eigene „Deepfake-Menschenkenntnis“ jedoch massiv – insbesondere dann, wenn eine glaubwürdig wirkende Person im Video als Autoritätsanker funktioniert.
Bonus-Problem: Wenn der Inhalt zur eigenen Haltung passt, wird ein Fake oft weniger kritisch geprüft. Und weil die Technik immer besser wird, die Zahl der Clips im Internet steigt, wird genau diese Komfortzone zunehmend zur Falle.
Gesundheit verkauft sich gut, Angst verkauft sich besser: Medizin als perfektes Ziel
Im Gesundheitsbereich treffen drei Dinge aufeinander, die Deepfakes maximal attraktiv machen:
- Hohe Unsicherheit: Viele Symptome sind mehrdeutig, Diagnosen komplex und Verbesserung durch Behandlungen oft nicht sofort spürbar. In so einem Umfeld wirkt ein vermeintlich klarer, souveräner „Expertenclip“ besonders stark.
- Autoritätsanker: „Arzt“ oder „Ärztin“ ist kulturell ein Shortcut für Kompetenz und Fürsorge, also genau die Eigenschaften, die man für Vertrauen und Überzeugung braucht.
- Hoher Einsatz: Gesundheitsthemen sind oft mit Angst, Hoffnung und Kontrollverlust verbunden. Solche Emotionen sind ein Verstärker für Eindrucksbildung und werden entsprechend gezielt adressiert und instrumentalisiert.
Kurz: Deepfakes liefern eine Evidenzsimulation – Nicht Belege, sondern die Optik von Belegen.
Konsequenzen
Verbraucherzentralen und auch die American Medical Association (AMA) warnen explizit vor Deepfakes in Form von Scam-Werbung (u. a. mit Promis und vermeintlichen Ärzten) die medizinische Desinformation verbreiten und über Soziale Netzwerke und Messenger verteilt werden. Das verdeutlicht, dass es sich nicht um einen einzelnen viralen Ausrutscher handelt, sondern um ein wiederkehrendes, strukturelles Betrugsmodell – weil solche Stellen typischerweise nicht wegen eines einzigen TikTok-Clips nervös werden.
Bei Abnehm- und Wellness Scams ist das ärgerlich genug, schadet aber zumindest nur in erster Linie dem Geldbeutel. Heikler wird es, wenn Deepfakes als Ersatz für echte medizinische Aufklärung auftreten oder gezielt in Richtung „Wundermittel“ gegen ernsthafte Erkrankungen gehen. Dann wird aus Marketing-Schmutz schnell Gesundheitsrisiko: Menschen können Behandlungen verzögern oder unseriöse Präparate ausprobieren und tatsächlich wirksamen Medikamenten vorziehen.
Noch größer wird der Schaden, wenn Deepfakes als Anti-Aufklärung funktionieren: Die Nachricht lautet dann nicht „kauf dieses Wundermittel“, sondern „trau der Schulmedizin und Pharmalobby nicht“. Damit werden Menschen gezielt von Impfungen, Antibiotika, Chemo oder anderen wirksamen Interventionen abgeschreckt.
Selbst wenn solche Videos schnell als Fake markiert werden, ist das Problem nicht automatisch erledigt: Wenn der Eindruck erst einmal sitzt, wirkt er weiter. Genau deshalb lohnt sich die Strategie für ihre Macher sogar dann noch, wenn davor gewarnt wird.
Heißt das Warnungen sind nutzlos?
Die gute Nachricht: Nein. Warnhinweise und Transparenz sind nicht wertlos – sie können die Wirkung von Deepfakes messbar reduzieren.
Die schlechte Nachricht: Sie neutralisieren den Effekt eben nicht zuverlässig.
Die Quintessenz ist deshalb weniger „Warnungen bringen nichts“, sondern: Warnungen sind kein Stand-alone-Schutz.
Sie funktionieren eher wie ein Sicherheitsgurt: sinnvoll und oft wirksam, aber keine Magie, die den Aufprall verhindert. Transparenz bleibt sinnvoll – aber um dem Problem effektiv zu begegnen, muss sie durch andere Maßnahmen nachhaltig ergänzt werden.
Deepfakes scheitern nicht an zu wenig Information, sondern daran, dass Videos sich wie Beweise anfühlen. Entsprechend lässt sich das Problem auch nicht allein durch mehr Infos in Form von Warnhinweisen lösen. Man muss die Verarbeitung robuster machen – und genau da kommen Medienkompetenz und kritisches Denken ins Spiel.
Beide sind eine langfristige Investition, die die Baseline für Bullshit-Resistenz verbessert: Menschen erkennen mehr, prüfen eher und überschätzen ihre eigene Fähigkeit Deepfakes zu erkennen weniger – und damit haben Warnhinweise überhaupt wieder eine bessere Chance, nicht einfach zu verpuffen.
Das ist der angenehme Teil: Diese Kompetenzen kann man trainieren – und damit selbst ein Stück Handlungsautonomie zurück zu gewinnen, statt dem nächsten Clip reflexartig mehr Gewicht zu geben, als er verdient.
Quellen
Appel, R. E., Roozenbeek, J., Rayburn-Reeves, R., Basol, M., Corbin, J., Compton, J., & van der Linden, S. (2025). Psychological inoculation improves resilience to and reduces willingness to share vaccine misinformation. Scientific Reports, 15(1), 29830. https://doi.org/10.1038/s41598-025-09462-5
Clark, S., & Lewandowsky, S. (2026). The continued influence of AI-generated deepfake videos despite transparency warnings. Communications Psychology.
Ecker, U. K., & Antonio, L. M. (2021). Can you believe it? An investigation into the impact of retraction source credibility on the continued influence effect. Memory & Cognition, 49(4), 631-644.
Guess, A. M., Lerner, M., Lyons, B., Montgomery, J. M., Nyhan, B., Reifler, J., & Sircar, N. (2020). A digital media literacy intervention increases discernment between mainstream and false news in the United States and India. Proceedings of the National Academy of Sciences, 117(27), 15536-15545.
Online-Quellen:
The Guardian. (2025, 5. Dezember). AI deepfakes of real doctors spreading health misinformation on social media.
Verbraucherzentrale Thüringen. (2025, 10. Januar). Verbraucherzentrale warnt vor Deepfake-Werbung mit Promis.
Die Zeit. (2024, 8. November). Meta muss Deepfake-Werbeanzeigen mit Eckart von Hirschhausen löschen. ZEIT ONLINE.
Healio. (2025, 11. Dezember). Q&A: New AMA policy seeks to combat the danger of ‚deepfake doctors‘
WBS Legal. (2025, 13. März) DeepFake-Klage von Eckart von Hirschhausen.
Zum weiterlesen
Wer tiefer in den Gedächtnisteil will: Der Continued Influence Effekt ist verwandt mit dem Sleeper-Effekt, bei dem Inhalte bleiben, während Quellenmisstrauen oft verblasst.
Der Sleeper-Effekt – Psychologie hinter bekannten Effekten Teil 8
Der Sleeper-Effekt erklärt, warum Aussagen aus unglaubwürdigen Quellen später plausibler wirken können.
Gefällt dir meine Arbeit? Du kannst mich und meinen Blog hier unterstützen: