Sind Deepfakes eine epistemische Herausforderung?
Ende 2017 verbreiteten sich Medienberichte über eine Software eines anonymen Programmierers, die täuschend echte pornografische Videos von Prominenten ausschließlich mithilfe der Google-Bildersuche, Stockfotos und YouTube-Sequenzen sowie einen als Vorlage dienenden Pornofilmes herstellen konnte1. Der Nutzername des anonymen Programmierers auf Plattform Reddit, die zur Verbreitung der Videos verwendet wurde, wird heute in der Öffentlichkeit als Schlagwort für eine aus technologischer Sicht hochspannende Innovation2 benutzt, die jedoch scheinbar zur „Erosion des Wissens in demokratischen Gesellschaften" führen soll3. Deepfakes, so lautet das Schlagwort, wurden im November 2019 in China sogar verboten4, ebenso wie in einigen US-Bundesstaaten, allerdings hier mit der Einschränkung, dass sich der Verbotszeitraum auf 60 Tage vor einer Wahl begrenzt5. Die schnellen Entwicklungen in den letzten zwei Jahren -- von gefälschten pornografischen zu vermeintlich staatsgefährdenden Inhalten -- haben Deepfakes nicht nur ins Licht der Öffentlichkeit gerückt, sondern auch die Aufmerksamkeit der Philosophin Regina Rini geweckt. In ihrer Publikation „Deepfakes and the Epistemic Backstop" warnt sie unter anderem davor, dass die durch Deepfakes ausgelösten Verwerfungen „unsere sozialen und politischen Systeme" beschädigen können6. Allerdings sind einige von Rinis Thesen und Argumente diskutabel, sodass sich die Frage stellt, ob tatsächlich Deepfakes eine epistemische Herausforderung darstellen. Im Folgenden werden Rinis Kernthesen als Grundlage dienen, um diverse von der Ausgangsfrage aufgeworfene Aspekte zu behandeln. Der Fokus wird dabei auf die Möglichkeit, mithilfe von Deepfakes den öffentlichen Diskurs zu beeinflussen, gelegt.