Desinformation im Kontext von Wahlen

Shownotes

Kurz vor der Bundestagswahl am 23. Februar 2025 sprechen wir über Desinformation und "Fake News". Wir unterscheiden verschiedene Arten von Falschnachrichten und überlegen, wie sich einzelne und die Gesellschaft gegen sie schützen können.

Links zu dieser Folge

bpb: Desinformation, Misinformation, Malinformation

Claire Wardle: Why Do We Fall For Misinformation? - Malinformation, misinformation, disinformation

HOOU Angebot: Ukraine-Krieg und Falschinformationen auf Social Media

HOOU Angebot: Gewappnet gegen fiese Social Media Tricks

Wikipedia: Deepfake

Deepfakes - Gefahren und Gegenmaßnahmen (BSI)

»Deepfakes«: Mit KI-Systemen Audio- und Videomanipulationen verlässlich entlarven (Fraunhofer)

Wikipedia: Typosquatting

Security Insider: Typosquatting

Wikipedia: Doppelgänger (Desinformationskampagne)

Hörmepfehlung: In Sockenpuppenzoo – Angriff auf Wikipedia (SWR) finden wir ähnliche Mechanismen wie beim Twinning

Twitter & Shit Storms: A Systematic Approach to Agent-Based Dynamic Analysis of Social Media Communication

Security Insider: Was ist ein Hash?

Beispiel Bildblog

Philosophie Magazin, Philosophischer Grundbegriff: Wahrheit

Vertrauen - Lexikon der Psychologie

Operation Overload: Draining fact-checkers’ resources

Lage der Nation

Hans Seidel Stiftung: Fake oder Fakten?

Stiftung Wissenschaft und Politik: Wie man erfolgreich Desinformation bekämpft

Podcast Frauen und Technik: Wie sicher sind unsere Wahlen, Claudia Plattner? Bundestagswahlsoftware, Hack and Leak und andere Gefahren

Podcast App Empfehlungen

Unsere Kapitelbilder könnt ihr mit einer guten Podcast App sehen. Zum Beispiel mit:

Antenna Pod (Android)

Pocket Casts (Android & iOS)

Overcast (iOS)

Die Sicherheits_lücke im Netz

Abonniere Die Sicherheits_lücke überall, wo es Podcasts gibt, oder über unsere Website: https://www.sicherheitsluecke.fm

Die Sicherheits_lücke bei Mastodon

Die Sicherheits_lücke bei Pixelfed

Feedback oder Kritik? Wünsche? Schreib uns: post@sicherheitsluecke.fm

Die Sicherheits_lücke ist ein Podcast der Hamburg Open Online University (HOOU).

Monina Schwarz, LSI Bayern

Ingo Timm beim DFKI

Volker Skwarek an der HAW Hamburg

Produktion und Musik: Christian Friedrich

Das in dieser Episode verwendete Bildmaterial steht unter der Lizenz CC-BY 4.0, Urheberin ist Anne Vogt.

Podcast Design: Anne Vogt

Transkript anzeigen

Volker: Moin Moin und willkommen in die Sicherheitslücke. Es begrüßen euch Volker Skwarek.

Ingo: Monina Schwarz und Ingo Timm.

Volker: Wir zeichnen heute am 10.02.2025 die zweite Episode auf über Desinformation im Kontext von Wahlen.

Volker: Hier ein kleiner Disclaimer vorweg. Zum einen gibt es im Moment sehr,

Volker: sehr viele Informationssendungen über derartige Desinformation.

Volker: Wir werden uns hier am Anfang schon,

Volker: aber zunehmend dann immer weniger um den reinen gesellschaftlichen und politischen

Volker: Aspekt von Desinformation kümmern, sondern es geht bei uns auch um technische Mechanismen.

Volker: Wieso kommen, werden Desinformationen überhaupt weitergegeben?

Volker: Wieso kommen sie vorwärts?

Volker: Was können wir auch technisch oder methodisch in unserem Umgang mit Desinformation dagegen tun?

Volker: Und auch gleich eine Entschuldigung vorweg, im umgangssprachlichen Gebrauch

Volker: werden Desinformationen noch gerne als Fake News bezeichnet.

Volker: Das ist allerdings nicht mehr Stand der Technik, sondern wir unterscheiden schon

Volker: zwischen Desinformation,

Volker: also die willentliche Falschinformation,

Volker: der Missinformation, das heißt die versehentliche, eigentlich unbeabsichtigte

Volker: Falschinformation und der Malinformation.

Volker: Das ist das bewusste Weglassen von Dingen und Informationspartikeln,

Volker: um eine bestimmte Richtung, meistens eine schlecht gewollte Richtung.

Volker: In eine solche Information zu bringen.

Volker: Und hier eigentlich auch schon gleich so mein Aufhänger, meine Bedenken,

Volker: denn ich glaube, wir als Gesellschaft sind eigentlich gar nicht so wirklich

Volker: daran interessiert, nicht desinformiert zu werden.

Volker: Denn wenn wir uns auch insbesondere jetzt im Kontext von Wahlen mal ansehen,

Volker: wie Politiker und Parteien mit der Wahrheit, wenn es die denn gibt, umgehen,

Volker: so ist es doch festzustellen, dass sehr gerne in Talkshows,

Volker: in Präsentationen Statements herausgegeben werden, von denen eigentlich ganz

Volker: klar ist, dass sie positive und negative Seiten haben, dass sie abgewogen werden müssen.

Volker: Und viele Politiker bringen halt die ein ihnen opportune Seite.

Volker: Und naja, im übergeordneten Sinne ist das eben schon Malinformation.

Volker: Das heißt, trotz besseren Wissens wird nur ein Teil der Nachricht gebracht,

Volker: wodurch sie in Gänze zumindest nicht ganz korrekt ist.

Volker: Und daher müssen wir uns halt nicht wundern, wenn über Social Media oder sowas

Volker: genau solche Arten von Informationen noch weitergegeben werden.

Monina: Da ist jetzt aber schon ein bisschen die Frage, ob das ein Gewohnheitseffekt

Monina: ist oder ob das wirklich so ist, wie du es gerade kurz gesagt hast,

Monina: dass wir das wirklich so wollen.

Monina: Also wollen wir aktiv Unwahrheiten hören, weil sie uns besser gefallen?

Monina: Oder ist das nicht einfach nur ein reiner Gewohnheitseffekt davon,

Monina: dass sich das immer mehr da reingesteigert hat, dass quasi zu Werbezwecken,

Monina: sei es jetzt im politischen Kontext oder im anderen Kontext,

Monina: immer mehr Übertreibungen normal geworden sind?

Monina: Also ich finde, dass es durchaus schöner wäre, wenn wir mehr dahin zurückgehen würden,

Monina: weniger Übertreibung und mehr realistische Sachen, also mehr realistische Annahmen

Monina: zu haben oder mehr realistische Aussagen zu haben, die auch dann tatsächlich

Monina: dem entsprechen, was am Ende rauskommt, als dass wir so diese Übertreibungen benutzen.

Monina: Aber ja, das mag Geschmackssache sein.

Ingo: Aber da hat sie ja in vielen Untersuchungen gezeigt, dass das die Menschen nicht klicken.

Ingo: Also wenn wir im Internet sind, dann geht es ja auch um die Frage,

Ingo: wird was gelesen, wird was gesehen?

Ingo: Wie werden wir informiert und wie schnell werden wir informiert?

Ingo: Gerade bei Social Media geht es ja darum, dass wir in sehr kurzer Zeit sehr

Ingo: viele verschiedene Informationen angeboten bekommen, die wir dann auch konsumieren wollen.

Ingo: Und das ist dann natürlich genau das Futter dafür, dass wir verkürzen,

Ingo: dass wir auf den Punkt bringen, dass wir vielleicht in einem Titel nicht das

Ingo: formulieren, was in dem Text nachher genannt wird.

Volker: Gut, aber das würde ich noch nicht als Mail-Information so richtig ausgeprägt sehen.

Volker: Also verkürzen ist das eine, aber weglassen ist das andere.

Volker: Und ich sage mal im Titel irgendwie, naja, ich möchte es noch nicht reißerisch

Volker: nennen, aber so eine prägnante Überschrift, warum nicht, wenn dann nachher im

Volker: begleitenden Text auch der Rest mit diskutiert wird, also das Informationspaket vollständig ist.

Volker: Das fände ich wichtig.

Monina: Ja, da hat man, ich finde, hat man heutzutage leider relativ oft,

Monina: zumindest meinem Empfinden nach, was mir so begegnet im Internet,

Monina: dass man als Überschrift was hat, was tatsächlich nicht den Wahrheitsgehalt

Monina: der eigentlichen Aussage enthält.

Monina: Also da kommt irgendeine Überschrift, die sagt, ist das so und so und im Text

Monina: kommt dann relativ schnell am Anfang, nee, Quatsch.

Monina: Ich finde es einfach schade, dass sich das so sehr einschleift,

Monina: dass das die einzige Möglichkeit ist, Sachen unter eine Überschrift zu stellen,

Monina: die dann auch tatsächlich gelesen wird.

Monina: Also das ist dann, finde ich, schon Desinformation im Absichtlichen.

Monina: Also das ist schon Absicht, da die Information erstmal falsch hinzustellen.

Ingo: Es kann ja sogar passieren, dass es gar nicht so ist, dass jemand bewusst eine Desinformation,

Ingo: eine Malinformation reingibt, sondern dass er eine Verkürzung macht,

Ingo: die eine Überschrift nutzt,

Ingo: um eben klickbarer zu sein und dann aber beim Weiterverbreiten dieser kleinen

Ingo: Informationseinheit auf die Überschrift reduziert wird und damit eine Malinformation entsteht.

Volker: Ja, aber bringen wir doch mal so diese typisch zitierte Aussage,

Volker: die auch an sich falsch zitiert ist.

Volker: Der Habeck bringt euch die Handwerker in den Keller und lässt euch die Gasheizung rausreißen.

Volker: Als Überschrift? Boah, kritisch, weil eigentlich schon völlig falsch,

Volker: weil steht nirgendwo, hat er auch nie vorgehabt und entspricht auch keinen Fakten,

Volker: aber kann man ja mal als Aufhänger so stehen lassen.

Volker: Nur, wenn es im Text dann nicht weiter diskutiert wird und dann die Überschrift

Volker: sogar als falsch gekennzeichnet oder als reißerisch gekennzeichnet wird,

Volker: finde ich das schon äußerst kritisch und ich finde es nicht mehr verkürzend

Volker: dann, ich finde es falsch.

Monina: Ja, dann ist es weg von der Misinformation, dass es unwillentlich falsch ist,

Monina: schon mehr hin zu einer Desinformation oder einer Malinformation.

Monina: Also, dass man wirklich dann schon bösartige Absichten unterstellen kann.

Monina: Also reiserisch würde ich jetzt vielleicht als je nachdem bösartig bezeichnen.

Monina: Meistens ist es ja tatsächlich gegen die Person, die die Aussage oder deren

Monina: Aussage aus dem Kontext gerissen wird, gedacht.

Monina: Also kann man es, denke ich, dann schon als Malinformation bezeichnen.

Volker: Jetzt müssen wir halt auch überlegen, das ist ja jetzt noch sehr brav einfach

Volker: in unserem gewollten Wahlkontext und wir wollen uns ja hier auch ein bisschen

Volker: darauf konzentrieren, wie kann man dadurch Wahlen manipulieren.

Volker: Und das finde ich auch sehr spannend gesellschaftlich diskutiert,

Volker: denn als Wahlmanipulation wird ja oft die unlegitime Einmischung aus dem Ausland bezeichnet,

Volker: während das, was die Parteien machen,

Volker: in Klammern Wahlkampf, was ja nun eigentlich Wahlmanipulation ist,

Volker: als legitim bezeichnet wird.

Volker: Und jetzt finde ich es ziemlich spannend, dazwischen auseinanderzuhalten.

Volker: Also Wahlmanipulation ist ja beides, weil beide setzen sie im juristischen Sinne

Volker: keine Kreuzchen, aber beeinflussen uns so, dass wir Wahlkreuzchen entsprechend setzen.

Volker: Warum ist das eine jetzt legitim und das andere nicht?

Ingo: Das ist mir eigentlich etwas zu sehr auf den Punkt gebracht,

Ingo: weil der Manipulationsbegriff bei der Wahl ja schon auch einen gewissen rechtlichen

Ingo: Tatbestand irgendwie impliziert.

Ingo: Also wir würden ja nicht von der Wahlmanipulation sprechen, wenn ein Poster

Ingo: aufgehängt wird oder ein Plakat aufgehängt wird, in dem ein Versprechen ist,

Ingo: was wahrscheinlich nicht gehalten wird.

Ingo: Also das wäre für mich nicht zwingend die Wahlmanipulation.

Monina: Wenn man über diese Einmischung von Quellen aus anderen Ländern beispielsweise redet,

Monina: geht ja meistens, glaube ich, die gepürchtete Gefahr auch dahin,

Monina: dass es nicht nur jetzt ein bisschen Übertreibung sind,

Monina: Schlagzeilen klar oder Aussagen, die auf Social Media getätigt werden,

Monina: sondern bis hin zu Deepfake-Videos von Leuten, die Aussagen tätigen,

Monina: die sie nicht getätigt haben.

Monina: Also richtige Deepfakes, KI generiert, wenn man so schön Buzzwords aneinander reihen möchte.

Volker: Da würde ich jetzt nicht ganz mit allen zustimmen, Monina, weil Deepfakes sind

Volker: möglicherweise eine Methode, Mailinformationen zu generieren,

Volker: aber es ist halt nicht unsere Variante,

Volker: wie wir Informationen verbreiten, weil da gibt es dann Verfahren wie Ghostwriting

Volker: oder Twinning oder sonst irgendwas und Deepfakes ist immer nur aus meiner Sicht eine Variante,

Volker: wie man das Ganze nochmal automatisieren kann durch KI.

Ingo: Gut, Deepfax ist jetzt nicht nur die Frage von Automatisierung,

Ingo: es ist die Ermöglichung jedes Menschen,

Ingo: der einen Computer besitzt, sich sehr schnell in Bildmanipulation,

Ingo: Videomanipulation, Sprachmanipulation zu betätigen,

Ingo: also Dinge herauszubringen, die nicht authentisch sind, die nicht in der Original

Ingo: entstanden sind und entsprechend auch verbreiten zu können.

Ingo: Also es hat schon eine neue Dimension, die wir auch hier haben,

Ingo: die vorher so nicht möglich war.

Ingo: Früher war eben die Frage von, wer kann eigentlich authentische Nachrichten,

Ingo: die falsch sind, verbreiten, war schon ein bisschen dadurch gedeckelt,

Ingo: dass es an den Fertigkeiten, die man auch besitzt im Umgang mit Programmen,

Ingo: eben begrenzt und limitiert ist.

Monina: Wenn man sich da die BSI-Seiten anschaut, also gibt es ja auch da beispielsweise

Monina: unter anderem von BSI eine Seite über die Erklärung.

Monina: Was sind Deepfakes? Da würde ich es tatsächlich aber eher auch noch darauf beziehen,

Monina: dass es nicht nur jetzt jeder kann, sondern auch, dass es einfach sehr viel besser geworden ist.

Monina: Also dass die Videos beispielsweise optisch mittlerweile sehr schwer zu unterscheiden

Monina: sind, ob sie jetzt generiert worden sind mit falschem Content oder ob sie tatsächlich echt sind.

Volker: Aber das heißt, da hätten wir ja schon eine Variante der Desinformation,

Volker: in dem legitime Inhalte genutzt werden, um daraus manipulierte illegitimen Inhalte zu konstruieren.

Volker: Beispielsweise, indem Politikern, das ist ja schon öfter passiert,

Volker: etwas in den Mund gelegt wird, was sie nie gesagt haben und das Ganze mit Hilfe von KI erfolgt.

Ingo: Ja, obwohl ja die Grundfrage natürlich ist, ob es auch überhaupt legitime Inhalte

Ingo: waren, die zur Herstellung von legitimen Inhalten genutzt werden.

Ingo: Das ist ja auch genauso denkbar, dass bestehende Fake News weitergetragen werden

Ingo: oder weiterentwickelt werden.

Ingo: Und was wir vielleicht in diesem Kontext auch nicht ganz vergessen dürfen,

Ingo: ist, dass wir doch eine ganz schön auch große Bandbreite an Gründen haben,

Ingo: warum Fake News überhaupt entstehen und warum Menschen sich mit der,

Ingo: also nicht nur Fake News, sondern auch die Frage von Mahl- oder Desinformation

Ingo: oder auch einfach nur Missinformation, also einfach nur die zufällige Falschdarstellung

Ingo: oder die ungewollte Falschdarstellung entstehen.

Ingo: Das sind ja Punkte, die dann durch Nutzung von großen Datenbanken oder wenn

Ingo: wir jetzt im Internet durch die Google-Suche,

Ingo: aber auch gerade durch die Schätze-PT durch die Suche und durch interaktive

Ingo: Generierung von Inhalten werden ja immer wieder auch Inhalte herangezogen,

Ingo: die möglicherweise nicht geprüft sind.

Ingo: Also diese Systeme sind ja nicht, die greifen ja nicht auf einen geprüften Raum

Ingo: von Informationen zu, sondern sie nutzen im Prinzip die Informationen, die verfügbar sind.

Ingo: Und bei den verfügbaren Informationen kann halt viel auch falsch sein.

Ingo: Und dadurch kann eben, wenn ich bestimmte Dinge mir generieren lasse,

Ingo: zusammenstellen lasse, zusammenfassen lasse und daraus einen Tweet generiere,

Ingo: kann natürlich passieren, dass auch falsche Zusammenhänge dargestellt werden.

Monina: Machst du jetzt nochmal eine interessante Unterscheidung auf zwischen unabsichtlich

Monina: entstandenen KI-generierten oder generierten Falschinformationen und absichtlich generierten.

Monina: Ich hatte ursprünglich mehr so absichtlich wirklich erzeugte Videos oder Bilder

Monina: oder ja, es sind dann meistens Videos oder Audioerzeugnisse,

Monina: die dann besonders eindrucksvoll sind und besonders wenig hinterfragt werden.

Monina: Aber was du meinst, ist jetzt dann, glaube ich, beispielsweise,

Monina: wenn man sich mit einer bestimmten KI-unterstützten Lösung eine Zusammenfassung

Monina: von einem politischen Content generieren lässt, oder?

Volker: Ich glaube auch, dass die Halluzination, die du jetzt meinst von KIs.

Ingo: Das ist… Genau, aber die Frage ist ja, wie gehe ich mit der Halluzination um?

Ingo: Also wir wissen, sie halluziniert ab und an. Also so nennen wir es jedenfalls aktuell.

Ingo: Also wir wissen, da kommen Informationen raus, die möglicherweise generiert

Ingo: wurden, also nicht in der Realität in dem Internet so gefunden wurden,

Ingo: sondern die eben durch bestimmte Algorithmen entwickelt wurden für den Nutzer auf Basis der Anfragen.

Ingo: Oder eben auch, dass bestimmte Dinge gefunden werden, die ursprünglich schon

Ingo: nicht korrekt sind und die nutze ich dann jetzt.

Ingo: Ist das natürlich im klassischen Sinne noch keine Malinformation,

Ingo: weil ich ja nicht weiß, dass es falsch ist an der Stelle, wenn ich der KI vertraue

Ingo: oder der Antwort vertraue, die ich gesehen habe und ich das weiter verbreite.

Ingo: Aber es gibt natürlich eine gute Möglichkeit, erst mal Informationen zu verbreiten

Ingo: oder Informationen für die Verbreitung aufzubereiten.

Ingo: Und dann ist der nächste Schritt die Frage, wie prüfe ich das oder prüfe ich es überhaupt?

Ingo: Und wenn ich es nicht prüfe, kann es eben passieren, dass ich damit unwissentlich

Ingo: falsche Informationen weiterschicke.

Ingo: Und dann kann in dem nächsten Schritt, und das ist eben die Krise der sozialen

Ingo: Medien an der Stelle, im nächsten Schritt sieht jemand diese Information und

Ingo: findet entweder die Aussage toll, die ich getroffen habe, verbreitet sie weiter.

Ingo: Und es ist nicht bewusst, dass es eine falsche Information ist.

Ingo: Da sind wir noch bei der Weiterführung von Desinformationen,

Ingo: ohne dass das gewollt ist.

Ingo: Und dann gibt es aber, vielleicht gibt es auch wieder Superspreader,

Ingo: also besonders wichtige Knoten. Die wissen schon, dass das falsch ist, aber es klingt halt gut.

Ingo: Und es erzeugt Klickzahlen und die das dann deshalb wieder weiterverbreiten.

Monina: Das erste Problem, was du darfst.

Volker: Da würde ich schon sagen, dass das schon Desinformation ist.

Volker: Also Malinformation, Desinformation, was immer.

Volker: Wir reden ja von Profis. Wir reden im Moment von Medienexperten,

Volker: Politikern, Nachrichtenagenturen, die KI-generierte Inhalte verwenden.

Volker: Und da finde ich, ist es, auch wenn KI und LLMs schon, sagen wir noch,

Volker: relativ neu aus Technologie sind, Stand des Wissens, dass die halluzionieren

Volker: und Inhalte müssen geprüft werden.

Volker: Das heißt, ein ungeprüftes Wiedergeben von Inhalten ist schon die aus meiner

Volker: Sicht implizite Bereitschaft zu Missinformationen und Malinformationen.

Volker: Da habe ich auch gar keine Entschuldigung für.

Volker: Also wenn es irgendein Standardnutzer, eine Standardnutzerin ist,

Volker: okay, kann ich nochmal ein Auge zudrücken, wo ich sage, vielleicht ist denen

Volker: nicht ganz klar, dass das, was eine KI rausgibt, vielleicht nicht stimmt.

Volker: Aber bei Medienprofis ist das aus meiner Sicht schon nahe dem Vorsatz,

Volker: Dinge ungeprüft, also mindestens grobe Fahrlässigkeit, Dinge ungeprüft weiterzugeben aus einer KI.

Ingo: Das ist grob fahrlässig, das mag sein, aber die Frage ist, ob es nicht trotzdem Praxis ist.

Ingo: Und die Frage ist, ob ich etwas schicke, was potenziell richtig oder falsch

Ingo: ist, schon als Desinformation an sich geklassifiziert werden kann,

Ingo: weil ich es nicht geprüft habe als Experte.

Ingo: Das ist eine Frage und wir wissen alle, wie diese Redaktionen arbeiten oder

Ingo: wie die Wahlkampfbüros arbeiten.

Ingo: Da entsteht sehr schnell, Informations muss sehr schnell auf Themen reagiert

Ingo: werden und dann ist vielleicht nicht mehr die Zeit, alles zu prüfen.

Monina: Also ich denke, alles, was im Kontext Journalismus ist, also alle Leute,

Monina: die sich als journalistisch bezeichnen würden oder ihre Arbeit,

Monina: würde ich schon erwarten, dass die Quellen prüfen.

Monina: Das mussten die ja früher vor den Zeiten von sogenannten Deepfacts genauso tun.

Monina: Methoden mögen sich geändert haben und es mag schwieriger geworden sein.

Monina: Nichtsdestotrotz muss ich ja prüfen, woher meine Information kommt.

Monina: Genauso muss ich bei einer KI auch prüfen, wo die vielleicht ihre Information hergezogen hat.

Monina: Und das nochmal, wenn ich mir das habe zusammenfassen lassen,

Monina: dann prägnante Informationen oder besonders relevante Informationen einfach

Monina: nochmal nachprüfen, woher die kommen und ob diese Quelle vertrauenswürdig ist.

Monina: Ob ich da vertrauen kann oder ob ich da nochmal weitersuchen muss.

Monina: Aber generell so dieses Problem mit, wie gehe ich mit KI-generiertem Content

Monina: um, Das ist ja eine Frage der Aufklärung und der Schulung auch,

Monina: die eigentlich ein generelles Problem ist, was nochmal in einer ganz anderen

Monina: Richtung unterwegs ist.

Monina: Dass man da sich der Halluzinationsfähigkeit von KIs bewusst sein muss und wie

Monina: gut man da dagegen steuern kann oder wie sehr man dem dann vertrauen kann.

Volker: Hier wären wir dann ja auch schon quasi in einer weiteren Phase oder in einer

Volker: weiteren Methode der Angriffe.

Volker: Das ist dieses Doppelgänger, dass legitime Webseiten, zum Beispiel vom,

Volker: keine Ahnung, ich gebe jetzt mal als ungeprüftes Beispiel Spiegel Online,

Volker: mit Spiegel statt mit IE mit 1E geschrieben, sodass man es kaum erkennt,

Volker: online gestellt werden und dann bewusst auch mit KI generiert im Stil von Spiegel

Volker: Nachrichten Falschnachrichten verbreitet werden.

Volker: Da wurden ja seitens der Ermittlungsbehörden zahlreiche, hunderte von Webseiten dieser Art gefunden.

Volker: Und da ist ja durchaus auch eine KI-Generation bzw.

Volker: Auch menschliche Erzeugung mit dabei.

Ingo: Genau, mit großer Absicht auch. Also es ist sehr absichtsvoll geplant und wird

Ingo: dann ja entsprechend auch in die Netzwerke eingepflegt, um geklickt zu werden.

Ingo: Also das ist, denke ich, eine ganz typische Form von einem sehr destruktiven

Ingo: Akteur, wenn ich es mal so sagen darf.

Monina: Da ist dann tatsächlich auch als Benutzer gar nicht mehr so leicht ersichtlich,

Monina: wenn die wirklich gut gemacht sind und entsprechend auch die Seiten mit demselben

Monina: Schema aufgesetzt sind.

Monina: Gar nicht mehr so einfach als Benutzer zu erkennen, wenn man jetzt nicht damit

Monina: rechnet, dass man auf so einer Seite landet, dass es wirklich die Seite ist.

Monina: Zumal manche Webseiten per se schon eine URL haben, die ein bisschen seltsamer ausschaut.

Monina: Dann fällt auch nicht mehr auf, ob die jetzt noch seltsamer ausschaut.

Ingo: Ja, oder halt im Fall von Social Media haben wir ja sehr viel diese Shortcut-URLs,

Ingo: also diese abgekürzten URLs, die nur noch aus kryptischen Buchstaben oder Zahlen

Ingo: bestehen und ja gar keinen Verweis mehr auf das Original, also auf die Originalquelle geben.

Volker: Wie können wir uns dagegen wehren? Also ich meine klar, immer ganz deutlich

Volker: die URL lesen und überlegen, ob das die richtige ist.

Volker: Welche Methoden gäbe es da noch gegen?

Monina: Ich glaube, eine Methode, die beispielsweise schon mal verlangt worden ist von

Monina: diesen Social-Media-Seiten,

Monina: wäre, dass die bereits eine gewisse Erkennung durchführen auf weiterführende

Monina: Links und sich damit beschäftigen, ob das legitim ist.

Monina: Aber das ist natürlich irgendwie auch ein bisschen schwierig,

Monina: weil jetzt eine legitime, von einer illegitimen Seite, wenn beide jetzt keinen

Monina: schadhaften Content beinhalten, auseinanderzuhalten, ist schon auch nicht ganz

Monina: einfach und bestimmt nicht im Interesse von Social-Media-Seiten den Unterschied dann zu erkennen.

Monina: Ansonsten, was viele Seitenbetreiber selber machen, also zumindest größere,

Monina: ist Seiten, die eben ähnliche, ähnlich ausschauende URLs haben,

Monina: zu kaufen, dass die nicht misused werden können.

Monina: Also dass die beispielsweise, wenn jetzt, dass das BSI beispielsweise Seitendomains

Monina: kaufen würde, die BS1 oder BSL heißen würden, dass man das nicht verwechseln kann.

Monina: Sowas ist von Seiten der Seitenbetreiber selber machbar auf Seiten der Anwender.

Monina: Eine Möglichkeit, die ich beispielsweise...

Monina: Die ich beispielsweise mit meinem eigenen Familienkontext gelegentlich höre, ist,

Monina: dass man, wenn man auf einer Seite die Informationen angezeigt bekommt und da

Monina: sich nicht ganz sicher ist, ob die legitim ist, dann nochmal googelt und vergleicht,

Monina: was man als Ergebnisse bekommt, was natürlich mit entsprechendem Aufwand auch

Monina: wieder gefälscht werden kann.

Monina: Dass dann zum Beispiel nicht wirklich die richtige Spiegel.de oder sonst was

Monina: Seite oben ist, sondern die gefälschte.

Monina: Aber das erfordert dann tatsächlich auf Angreiferseite auch nochmal mehr Aufwand,

Monina: wenn die Seiten entsprechend groß sind.

Volker: Wobei auch da ja bekannt ist, dass auch seitens Hackern Search Engine Optimization gemacht wird.

Volker: Und da sind wir quasi indirekt wieder bei unserer letzten Folge über die digitalen Bilderrahmen.

Volker: Wenn ich nämlich über einen digitalen Bilderrahmen quasi Teilnehmer eines Botnetz verbreite,

Volker: kriege ich damit sozusagen als Angreifer gleich die Möglichkeit,

Volker: eine sofortige, riesige Clickrate

Volker: zu initialisieren, indem ich eine Falschnachricht ins Web stelle.

Volker: Keine Ahnung, auf Instagram oder sonst was und den Link dieser Falschnachricht

Volker: sofort in mein Botnetz speise und das quasi virtuell da draufklicken lasse.

Volker: So habe ich innerhalb von Sekunden tausende bis zehntausende von Klicks da drauf

Volker: und kann gleich noch Search Engine Optimization bei irgendwelchen Suchmaschinen mit betreiben.

Volker: Und da wird es dann schwierig, auch zu überlegen, wenn ich das als staatlicher

Volker: Akteur zum Beispiel mache,

Volker: habe ich ja, wie wir es gerade mitbekommen haben, über Trollnetze nicht nur

Volker: eine Seite, sondern ich habe gleich hunderte von Seiten.

Volker: Und wenn die jetzt alle noch diese Neuigkeiten aufgreifen, dann haben ja die

Volker: Fake News, also die Desinformation, Entschuldigung für den Begriff,

Volker: die Desinformation, plötzlich eine deutlich höhere Clickrate als alle legitimen

Volker: Informationen überhaupt und erscheinen auch in Suchmaschinen ganz oben.

Volker: Und zwar nicht nur als einzelner Eintrag, sondern gleich als 10,

Volker: 20, 30 Einträge, sodass Standardnutzer und Nutzerinnen die gar nicht mehr weiter suchen würden.

Ingo: Das sind Möglichkeiten, also soziale Netzwerkanalyse ist auch eine Möglichkeit,

Ingo: um sowas übrigens einzuschränken, indem man auf der Seite der sozialen Netzwerke

Ingo: das User-Profil, also den Benutzer,

Ingo: prüft, wie viele Informationen wurden von diesem Benutzer bisher verbreitet,

Ingo: in welcher Zeit, seit wann besteht der Account schon, gibt es Auffälligkeiten

Ingo: bezüglich der Aktivität.

Ingo: Also bei vielen Bots ist es so, dass die in sehr kurzer Zeit sehr,

Ingo: sehr hohe Like-Zahlen von Tweets erreichen, die teilweise technisch gar nicht

Ingo: möglich sind, in der Zahl auch zu machen, wenn man ein Mensch wäre und das per Hand klicken müsste.

Ingo: Und das sind natürlich Mechanismen, über die man steuern kann.

Ingo: Und einige Netzwerke haben für diesen Kontext auch schon bestimmte Entschleunigungsansätze

Ingo: entwickelt, dass dort eben Nachrichten von Menschen, die keinen großen Verbreitungsgrad haben,

Ingo: auch ein bisschen zurückgehalten werden, nicht so breit direkt ausgestreut werden

Ingo: oder erst langsamer dann in die Algorithmen aufsteigen und dann eben neuen Nutzern

Ingo: gezeigt werden, um nicht eben diese künstliche News extrem zu übersteuern und

Ingo: dann eben auch in der Verbreitung zu überschätzen.

Volker: Ja, hier sprichst du auch einen interessanten weiteren Mechanismus an,

Volker: der ist als Twinning bekannt, dass solche Desinformationskampagnen,

Volker: wenn sie denn tatsächlich gesteuert in die Welt gestreut werden,

Volker: wir reden jetzt nicht mehr von politisch überziehen oder sonst was,

Volker: sondern wirklich in eine Richtung etwas manipulieren,

Volker: wie es von Großteilen der Bevölkerung kaum noch überprüfbar ist.

Volker: Dann werden immer so Pärchen von Accounts kurzfristig freigeschaltet.

Volker: Warum kurzfristig freigeschaltet?

Volker: Naja, wenn sie längerfristig freigeschaltet sind,

Volker: werden sie auch sehr schnell oder müssen sie teilweise nach EU-Direktiven sehr

Volker: schnell wieder gesperrt, blockiert werden von den Webseitenbetreibern,

Volker: von den Netzbetreibern.

Volker: Und um das zu vermeiden, dass sie blockiert werden, werden sie vielleicht für

Volker: einen Tag, für eine Woche oder sowas freigeschaltet.

Volker: Der eine Account postet die Falschinformationen,

Volker: der zweite Account wiederholt die Falschinformationen, sodass sie gleich aus

Volker: unterschiedlichen Quellen auf unterschiedlichen Systemen erscheinen und dann

Volker: stellen diese auch die Aktivität wieder ein,

Volker: wenn sie zum Beispiel über Botnetze, wie ich gerade berichtet habe und aus unserer

Volker: letzten Sendung auch bekannt ist,

Volker: über Botnetze dann weiter verbreitet werden.

Volker: Und genau, Ingo, wie du sagst, solche Accounts würde man dadurch feststellen,

Volker: dass wenn man da draufklickt, die sind vielleicht seit ein oder zwei Wochen aktiv,

Volker: haben eine spontane, sehr hohe Nachrichtenrate und schlafen dann wieder ein

Volker: und werden vielleicht mit ähnlichen Namen, aber ähnlich.

Volker: Das heißt, der erste heißt Fake, der zweite Account heißt ein Vierteljahr später

Volker: Fake234 und dann schläft er wieder ein und irgendwann heißt er 234 Fake.

Volker: Das heißt, für Nutzer und Nutzerinnen heißt er ähnlich, für das System ist er aber nicht erkennbar.

Volker: Und das sind solche Mechanismen, die auch eingesetzt werden.

Monina: Das heißt, als Benutzer könnte man hier, wenn man sagt, okay,

Monina: ich möchte jetzt diesen Post nachvollziehen, woher der kommt,

Monina: sich die Person, die den gepostet hat, anschauen und auf solche Mietrigen schauen.

Monina: Also hat die Person viel mehr gepostet oder ist die erst seit zwei Wochen online?

Ingo: Ja, genau. Also wenn wir bei KI-Abwehrmaßnahmen reinschauen,

Ingo: was es dort gibt gegen Desinformation, gibt es da die Kategorie der sogenannten

Ingo: Feature-Based Desinformation Identification.

Ingo: Also die über Eigenschaften versucht Fehlinformationen zu klassifizieren.

Ingo: Und dazu gehört dann insbesondere der Nutzerkontext, also die Frage,

Ingo: wie verhält sich dieser Nutzer im sozialen Netzwerk, aber auch der Messagekontext,

Ingo: also der Nachrichtenkontext.

Ingo: Und diese beiden Informationen versucht man automatisch dann eben herzuleiten und anzuschauen,

Ingo: ob der Kontext, in dem diese Information von dem Nutzer gepostet wurde,

Ingo: passt, ob das überhaupt sinnvoll ist und ob der Nutzer in ähnlichen Kontexten

Ingo: auch schon publiziert hat.

Ingo: Und dann entsprechend kann man ihn wieder abbremsen oder auch ausschließen und

Ingo: algorithmisch jedenfalls bestrafen.

Ingo: Also das heißt, technisch gesehen haben wir auch schon ein paar Ansätze,

Ingo: die jedenfalls diese Verwaltungsgeschwindigkeit, diese übermäßige Beschleunigung

Ingo: von Nachrichtenaustausch in dem Netzwerk reduzieren können.

Volker: Wäre es nicht möglich, dass eine KI dann auch in so einer Art Bubble erscheint oder landet?

Volker: Also sagen wir mal, wir haben wirklich KI-Informationen, die einerseits durch

Volker: Search Engine Optimization,

Volker: andererseits durch so kleine Troll-Armeen und Bot-Netze erzeugt werden oder die Informationen,

Volker: Mail-Informationen, die erzeugt werden und KIs sollen die jetzt finden.

Volker: Dann würde ich doch feststellen, dass ganz viele verschiedene Nutzer ganz plötzlich

Volker: auf diesen Nachrichteninhalt einsteigen.

Volker: Können die das noch auseinanderhalten?

Ingo: Grundsätzlich ist das ein Kampf, den wir haben. Das gilt immer für solche KI-basierten Verfahren.

Ingo: Das ist immer der Kampf zwischen den Angreifern und den Abwehrern, also Verteidigern.

Ingo: Das kennt ihr aus dem Sicherheitsbereich noch viel besser, als ich es aus der KI kenne.

Ingo: Aber es ist natürlich immer die Frage, was ich mit der KI analysieren kann.

Ingo: Kann ich natürlich auch versuchen, mit einer KI so zu generieren,

Ingo: dass es nicht mehr analysiert werden kann.

Ingo: Also um es einfach zu sagen, ja, es gibt das Risiko, dass das passiert,

Ingo: aber der Preis ist viel höher.

Ingo: Und das ist ja etwas, was wir bei der letzten Folge auch schon gesagt haben.

Ingo: Oft geht es ja gar nicht darum, etwas absolut auszuschließen für alle Ewigkeit,

Ingo: sondern es geht darum, den Preis für den, der angreifen möchte,

Ingo: so hoch zu treiben, dass es sich nicht mehr lohnt.

Ingo: Oder dass viele daran scheitern. Und es ist schon so, dass wenn man jetzt in

Ingo: die KI hineinguckt und das in Breiten machen würde, könnte man natürlich versuchen,

Ingo: das semantisch, also über den Inhalt des Textes zu analysieren und das in Bezug zu setzen.

Ingo: Und dann würden relativ schnell auf Fähigseiten auffliegen, weil sie eben nicht

Ingo: die Tiefe, nicht die Breite oder

Ingo: nicht die Einbettung in die ansonsten kommunizierten Informationen haben.

Ingo: Das ist grundsätzlich möglich. Aber der Grundweg in sozialen Netzwerken ist

Ingo: eigentlich immer die Reduktion der Geschwindigkeit.

Ingo: Also wir haben vor knapp acht Jahren einige Forschungen gemacht mit Medienwissenschaftlern

Ingo: zusammen, mit denen wir versucht haben, damals noch Twitter,

Ingo: die Kommunikation in Twitter zu simulieren.

Ingo: Und zwar nicht die Kommunikation selber, das haben viele gemacht,

Ingo: sondern die Menschen oder Menschen zu simulieren, die quasi Twitter nutzen und

Ingo: wie diese Fake News sich dann verbreiten oder auch bestimmt,

Ingo: damals ging es ja eher um diese Twitter-Storms oder im deutschen Shitstorms,

Ingo: also wenn negative Nachrichten über eine Person sich sehr, sehr schnell verbreiten,

Ingo: da einzuschätzen, woran es eigentlich liegt.

Ingo: Und unsere Erkenntnis damals war relativ deutlich, der wirkliche Twitter-Storm

Ingo: wird ausgelöst durch sehr, sehr wenige Knoten.

Ingo: Also es können bei den ganz großen Skandalfen, die gesagt haben,

Ingo: teilweise zwei oder drei Knoten gewesen sein, also sogenannte Superspreader,

Ingo: Teilnehmer im sozialen Netzwerk, die eine übermäßige Anzahl an Kontakten haben.

Ingo: Also ein berühmter Influencer mit zwei, drei, vier, fünf Millionen Followern,

Ingo: die sehr schnell das, was er präsentiert, auch teilen.

Ingo: Und die haben einen enormen Einfluss und wenn man den nicht hätte,

Ingo: dann würde die Nachricht relativ schnell wieder abappen, weil auch durch die

Ingo: Algorithmik üblicherweise, wenn Nachricht älter wird und er später wieder gesehen

Ingo: wird, sie nicht mehr im gleichen Maße schnell zu vielen Nutzern hochgespielt wird.

Ingo: Das heißt, es geht sehr, sehr stark um diese Frage am Anfang,

Ingo: wie können wir verhindern,

Ingo: dass sehr schnell sehr viele Nutzer einsteigen und das können die Netzwerke

Ingo: selber regulieren, dadurch, dass sie eben Schutzmechanismen auf KI-Basis bilden

Ingo: und wenn die eben nicht ganz so eindeutig klar sind, das ein bisschen reduzieren.

Ingo: Das Dilemma, was wir haben, und das ist die Diskussion, die wir gerade in den USA zu dem Thema sehen,

Ingo: ist, dass solche Schutzmechanismen natürlich als einschränkende Meinungsfreiheit

Ingo: gesehen werden können, weil man den Menschen, die eine andere Meinung,

Ingo: eine andere Information als üblich präsentieren wollen, einen deutlich anderen

Ingo: Rahmen gibt, in dem sie diese Meinung präsentieren dürfen.

Monina: Das ist dann die schöne altbekannte Diskussion von Auslebung der persönlichen

Monina: Freiheit, was ich möchte alles ins Internet kommunizieren, was mir durch den

Monina: Kopf geht versus Einschränkungen solcher Gefahren angeht.

Monina: Das ist auch kein allzu triviales Thema.

Volker: Ich mag ja ungern so Klammern aufmachen als kleine Nebendiskussionsschauplätze,

Volker: weil manchmal vergisst man auch viel die Klammer zuzumachen.

Volker: Aber hier finde ich halt gerade bei Meinungsfreiheit finde ich die Diskussion

Volker: über Wahrheit total spannend, weil Meinungsfreiheit, genau dieser eine Begriff

Volker: und das merken wir auch in Aktivitäten in den USA, hat ja genau zwei Ausprägungen.

Volker: Die eine Form von Meinungsfreiheit heißt, mich hindert keiner daran zu äußern, was ich möchte.

Volker: Und die andere Ausprägung der Meinungsfreiheit ist, ich darf auch wirklich alles

Volker: äußern, egal wie es mir in den Sinn kommt.

Volker: Und das finde ich spannend, dass man versucht, Meinungsfreiheit mit Meinungsfreiheit

Volker: zu begründen und Meinungsfreiheit durch Meinungsfreiheit einzuschränken.

Volker: Vielleicht hier auch noch mal ein Hinweis an Soziologen und Sozialforscher und

Volker: vielleicht dort eine bessere Differenzierung der Begriffe Meinungsfreiheit zu finden.

Ingo: Naja, das Ganze geht aber doch noch ein bisschen weiter in die Philosophie,

Ingo: weil das Dilemma, was wir hier haben, ist nicht unbedingt nur die Frage,

Ingo: was ist Meinung und was ist Fakt oder was Wissen, sondern dass auch Wissen in

Ingo: unterschiedlichen Kontexten anders definiert werden kann.

Ingo: Ich meine, wir haben eine sehr, sehr lange, jahrtausendlange Tradition der Wissenschaftstheorie,

Ingo: in denen eben genau über die Frage, was eigentlich Wahrheit diskutiert wird

Ingo: und es gibt eben auch Wahrheit, die im Kontext einer Gesellschaft,

Ingo: definiert wird. Also die große Frage.

Ingo: In Wikipedia ist ein Artikel aufgeführt. Wenn wir den Artikel lesen,

Ingo: dann ist er vielleicht fehlerhaft unserer Meinung nach.

Ingo: Wenn wir aber den Wikipedia-Artikel nicht geändert bekommen,

Ingo: weil die Mehrheit der Anhänger meint, dass er so richtig ist und entsprechend

Ingo: der Artikel bestehen bleibt, ist die Frage, ob sich dann nicht auch das Wissen

Ingo: der Gesellschaft einfach darüber ändert.

Ingo: Und das ist, wie ich mal in der Diskussion mit Philosophen feststellen musste,

Ingo: keine eindeutig beantwortende Frage.

Ingo: Also ich wäre immer davon ausgegangen, so als alter, Informatiker sind ja eher

Ingo: den Naturwissenschaften nahe, als alter Naturwissenschaftler würde ich sagen,

Ingo: das haben wir gemessen, das haben wir gesehen, das ist so.

Ingo: Aber da gibt es eben gerade in anderen Disziplinen eine deutlich größere Diskussion

Ingo: drüber und das führt natürlich genau zu dem Punkt,

Ingo: was ist Meinung und was ist Faktum, was ist Wissen und an welcher Stelle dürfen

Ingo: wir dort dann regulatorisch eingreifen und das ist eine nicht ganz triviale Frage.

Monina: Aber das könnte man ja, wenn man von der Theorie ausgeht, auch wieder dadurch

Monina: entkräften oder abschwächen, dass man sagt, okay,

Monina: man hat gerade bei manchen Themen viel Meinungsanteil da, aber dann stellt man

Monina: halt die verschiedenen Seiten da und sagt, okay, es gibt den Kern an Fakten,

Monina: die wir zusammengetragen haben, die tatsächlich passiert sind.

Monina: Also an dem und dem Tag war hier plötzlich ein großer Lichtstrahl. Also wo kam der her?

Monina: Und dann gibt es die verschiedenen Seiten, die halt sagen, ich habe da eine

Monina: Lampe gesehen, es war zu hell, ich habe gar nichts gesehen, ich kann nicht sagen, was dahinter war.

Monina: Oder dass man sowohl das Faktum, was irgendwo nachweisbar war,

Monina: durch irgendwelche Sachen aufgenommen, messbar, wie auch immer,

Monina: darstellt und darunter dann die verschiedenen Meinungen, dann hat man das doch

Monina: schon mal entkräftet, zumindest zu einem Teil, was du da beschrieben hast als Problem.

Monina: Gerade bei so Seiten wie Wikipedia sollte es ja eigentlich so sein,

Monina: dass man mehr so eine Businessbasis auch wirklich anhand der Fakten,

Monina: die da waren, geschafft.

Volker: Ich finde es insofern spannend, als dass wir hier wirklich zwei Dinge auseinanderhalten

Volker: müssen, aber auch immer wieder kombinieren.

Volker: Also Wahrheit, ich bin ja ehrlich, ich komme als Sicherheitsforscher,

Volker: ist Wahrheit nicht ganz so mein Ding, aber Vertrauen ist für mich wichtig.

Volker: Und die sind ja irgendwie miteinander gekoppelt.

Volker: Ich habe mich deshalb mal, weil Wahrheit nicht so mein Ding ist,

Volker: mal informiert, was so unter Wahrheit philosophisch verstanden wird.

Volker: Und ich glaube, Wahrheit selbst ist noch philosophisch stark in Diskussionen,

Volker: aber es gibt so drei Richtungen.

Volker: Das eine ist die evidente Wahrheit. Man zeigt drauf und es ist faktisch unabstreitbar,

Volker: dass das, was man zu dem gesagt hat und für jeden ersichtlich ist,

Volker: dass das so ist, wie man es bezeichnet.

Volker: Da ist jetzt nicht die Frage, nach Nuancen, sondern die Wand ist grün,

Volker: dann ist die Wand grün, weil jeder sieht, dass diese Wand grün sein könnte.

Volker: Und dann gibt's die Dogmatiker, die brauchen keine Wand, die brauchen noch nichts

Volker: Grünes. Die sagen, die Wand ist grün.

Volker: Also egal, ob da jemals eine Wand war oder wie auch immer. Und dann gibt's die Skeptiker.

Volker: Und da kann man gegen die Wand gegenbummern und mit dem Farbmessgerät gegenhalten

Volker: und sagen, die Wand ist grün und die sagen, wirklich?

Volker: Und die brauchen auch keine Wand, weil egal ob sie da ist oder nicht,

Volker: die würden immer fragen, wirklich.

Volker: Und da finden wir, glaube ich,

Volker: die Strömung auch unserer Gesellschaft bezüglich Wahrheit dann wieder,

Volker: dass es in dieser Ausprägung von Wahrheit finden wir in unserer Gesellschaft

Volker: und damit eben auch wieder das Interesse an Desinformation.

Volker: Die einen sagen, es ist Desinformation, die anderen sagen, wieso,

Volker: stimmt doch, aber im Grunde.

Monina: Okay, dann, wenn wir die philosophische Ebene,

Monina: Das wollen wir ja eigentlich gar nicht weiter verfolgen hier.

Monina: Das war ja ein Punkt, der viel diskutiert ist und eigentlich auch nicht so richtig

Monina: in unserem Fachgebiet ist.

Monina: Deswegen, wenn wir die Klammer zumachen, du hast Vertrauen gesagt.

Monina: Was wären denn dann Möglichkeiten, so aus dem IT-Sicherheitskontext Sachen vertrauenswürdiger zu machen?

Monina: Also, dass wir uns mehr verlassen können auf die Informationen.

Monina: Ich habe gehört, es gibt beispielsweise Untersuchungen dazu,

Monina: da weiß ich aber nicht, wie weit die vorangeschritten sind, Audioaufnahmen nachweisbar zu machen.

Monina: Also die mit irgendwas zu versehen, was beispielsweise wie eine Signatur oder

Monina: ein Hash davon funktioniert.

Monina: Also sprich, man kann danach sagen, das wurde nicht verändert.

Monina: Ich kann nachvollziehen, dass das genauso ist, wie es aufgenommen wurde.

Monina: Und ich kann das auch, weil es signiert wurde von einer Person oder von einem

Monina: Audioaufnahmegerät, genau dem zuweisen.

Volker: Ja genau, Vertrauen hat zwei Aspekte.

Volker: Das eine ist wieder diese Evidenz, diese evidente Wahrheit wird im Vertrauen

Volker: meistens als Trust Anchor bezeichnet.

Volker: Also wenn wir jetzt mal auf diese Social Media gehen, ich müsste mal gucken,

Volker: von wem die Nachricht kommt, wie schnell sie weitergegeben wurde,

Volker: von wem sie weitergepostet wurde und damit gucken, traue ich dieser Quelle.

Volker: Also gibt nicht mal ich persönlich oder habe ich Vorlieben dieser Quelle zu

Volker: trauen, sondern gibt es irgendwelche Hinweise darauf, dass diese Quelle einer Evidenz folgt.

Volker: Etwas, wenn ich es genauso sehen würde, auch genauso interpretieren könnte. Punkt 1.

Volker: Punkt 2 von Vertrauen ist, es ist eine Historie des nicht enttäuscht werdens.

Volker: Also müsste ich mal gucken, ob das Weitergeben dieser Information unverfälscht

Volker: war von Leuten, lauter Leuten, denen ich auch vertrauen würde.

Volker: Und damit haben wir ja schon wieder diese Vertrauenskette, von der auch Ingo

Volker: schon vorher erzählt hat.

Volker: Wir müssen halt immer Kontexte bilden und gucken, passt das in den Kontext.

Volker: Und das Zweite ist, es ist irgendeine Evidenz gegeben.

Ingo: Ja, das führt zu der Frage, wie kann man vertrauensbildende Maßnahmen ergreifen

Ingo: im Rahmen von solchen Systemen, die auch für andere nachvollziehbar sind.

Ingo: Also der einfache Fall, ich lese nur etwas, was meine Peers,

Ingo: also denen, denen ich vertraue, die ich möglicherweise persönlich aus dem echten

Ingo: Leben kenne, teilen, ist etwas kurz gegriffen, weil das zu langsam dauert.

Ingo: Also das dauert einfach zu lange, bis dann Informationen zu mir durchkommen.

Ingo: Ich möchte immer schnell informiert sein. Aber es gibt natürlich auch KI-Methoden dafür.

Ingo: Also KI-unterstütztes Fakt-Checking wäre eine Methode, mit der man eben versuchen

Ingo: kann, diese Wahrheit oder sagen wir mal Überzeugung von vielen nachzubilden.

Ingo: Und das kann man eben auch ausformen in einem hybriden Fakt-Checking,

Ingo: in dem Menschen und Systeme zusammenarbeiten. Und wenn das alles so sehr abstrakt

Ingo: klingt und so, als wenn das ja auch nie machbar ist.

Ingo: Wir haben sowas zum Beispiel auf einer durch Menschen getriebenen Ebene.

Ingo: Schon vor vielen, vielen Jahren, also ich mindestens vor 20 Jahren glaube ich

Ingo: schon in dem sogenannten Bildblock gehabt.

Ingo: Also als in der Bildzeitung noch sehr viele Fehlinformationen gestanden haben

Ingo: und es noch sehr viel stärker über eben auch Fehlinformationen ging,

Ingo: gab es immer in einem Bildblock dann Berichte dazu, wo die verschiedenen Artikel

Ingo: von Bild eingepflegt wurden von Menschen, die dann eben den Kontext dazu hergestellt haben,

Ingo: Informationen dazu beigeliefert haben, wie das zu verstehen oder das einzugrenzen ist.

Ingo: Und wenn wir jetzt also es schaffen, dass Informationen mit einer Community.

Ingo: Eben als falsch oder als wahr herausstellen, dann kann man wieder Vertrauen stärken.

Ingo: Und das sind Mechanismen, die wir in Social Media jetzt langsam sehen.

Ingo: Also zum Beispiel in dem X, also in dem relativ offenen System,

Ingo: das ja derzeit versucht, wenig Regulation zu machen, gibt es ja aber die Community

Ingo: Notes, also über die dann eben

Ingo: Nutzer über das Vertrauen in eine bestimmte Information schreiben können.

Ingo: Und das dann entsprechend auch über die Gemeinschaft, über viele bestärkt oder

Ingo: abgelehnt wird. und damit dann eben eigentlich unser Sandwerkzeug gegeben wird,

Ingo: Informationen besser einzuschätzen, die wir im Netz sehen.

Monina: Wäre es nicht besser noch, wenn ich sage, okay, ich möchte jetzt Leuten vertrauen

Monina: und weiß aber noch nicht so genau, wem ich jetzt vertrauen kann und wem nicht.

Monina: Man kann ja am Ende in einer Bubble landen, die alle sich gegenseitig vertrauen,

Monina: aber trotzdem irgendwie einer von vornherein Falschinformationen einspeist und

Monina: der dann wiederum vertraut wird.

Monina: Wäre es dann nicht von vornherein sinnvoller, dass man zumindest sagt,

Monina: Wenn jetzt gerade im Kontext Wahl beispielsweise von Politikern Aussagen getroffen

Monina: werden, die auch dann über öffentliche Webseiten geteilt werden,

Monina: dass das Ganze insofern vertrauenswürdiger gemacht wird auf technischer Ebene,

Monina: dass das signiert ist in irgendeiner Form, also dass Nachrichten nur mit Hashwert

Monina: versehen und signiert mit öffentlichem Schlüssel prüfbar verteilt werden.

Monina: Weil dann könnte ja auch beispielsweise jeder Journalist, der das liest und

Monina: weiterverteilt, ob er es jetzt zusammenfasst und ob das jetzt korrekt ist oder

Monina: nicht oder ob er da was kürzt, aber dennoch aussagen, hey, die Quelle,

Monina: von der ich meine Informationen hole,

Monina: die ist vertrauenswürdig, kann das nachprüfen, wenn mich jemand fragt.

Monina: Das wäre doch eigentlich dann so ein optimaler Weg zu gehen,

Monina: oder? Auf technischer Ebene.

Ingo: Das ist doch immer dann optimal, wenn du weißt, dass die Kette vertrauenswürdig ist.

Ingo: Also die Frage ist doch, wer hat den zertifiziert oder die Institution zertifiziert,

Ingo: die anschließend zertifiziert kommuniziert.

Ingo: Und das ist eines der großen Probleme.

Ingo: Also muss ich dann quasi in Konsequenz als Nutzer meinen Personalausweis an

Ingo: das soziale Netzwerk übermitteln, damit ich dann anschließend ein Zertifikat bekomme,

Ingo: mit dem gesagt wird, ja, die Person gibt es und der könnt ihr vertrauen,

Ingo: dass es wirklich eine echte Person ist.

Ingo: Und wohin führt uns das? Und kann man nicht auch wieder solche Zertifikate fälschen

Ingo: durch eine schlechte Zertifikatskette, weil ja die Zertifikate werden irgendwo angefragt?

Ingo: Also da bin ich nicht Profi, da wisst ihr mehr zu den Zertifikaten.

Monina: Es geht mir gerade tatsächlich noch nicht mal um Social Media,

Monina: sondern einfach, dass ich sage, okay, wenn ich öffentliche Informationen,

Monina: wie beispielsweise, wie gesagt, Wahlkontext, da ist jetzt ja momentan viel,

Monina: dass Leute gerne aus dem Kontext gerissen oder Teile davon nur benutzt werden

Monina: von Aussagen oder leicht verändert werden.

Monina: Also gerade wenn ich einen öffentlichen Kontext habe, wo Sachen ja irgendwie

Monina: einen gewissen Wahrheitsgehalt haben sollten mit Person hat das gesagt,

Monina: Person hat das nicht gesagt oder das wurde veröffentlicht oder nicht,

Monina: dass ich zumindest den Teil letztendlich irgendwie mit einer Gewissheit nachprüfen

Monina: kann, ob das mal so gesagt wurde oder nicht.

Monina: Also zumindest so viel Grund.

Ingo: Aber es würde doch bedeuten, dass wir eine eindeutige Zuordnung des Bildes oder

Ingo: des Tons, des Videos zu einem bestimmten Aufnahmegerät oder sowas führen müssten, oder?

Volker: Ja, genau. Aber da haben wir jetzt wieder zwei Dinge, die wir,

Volker: ich sage mal, nicht miteinander vermischen, sondern die man zumindest der Einfachkeit halber trennen kann.

Volker: Das eine ist wieder diese Kette, diese Vertrauenskette, von der Monina spricht,

Volker: dass eine Unverändertheit des Inhalts dargestellt wird. Damit wissen wir noch

Volker: nicht, ob er richtig oder falsch ist.

Volker: Wir wissen zumindest, dass er innerhalb dieser Kette nicht manipuliert wurde.

Volker: Also das Wasserzeichen wurde nicht zerstört.

Volker: Ein Foto wurde weiter gepostet und das Foto ist nicht weiter manipuliert worden.

Volker: Das ist das, was diese Hash-Werte, also können wir auch in den Shownotes ein

Volker: bisschen was zuschreiben, was diese Hash-Werte machen.

Volker: Das andere ist das, was Monina erwähnt hat und Ingo auch gerade anspricht.

Volker: Wieder diese Vertrauensquelle.

Volker: Also wenn das jetzt von einem Handy aufgenommen wurde und das Handy in dem Bild

Volker: kodiert wurde, dann müsste ich eigentlich das Handy nachher haben,

Volker: um zu sagen, konnte das Handy an der Zeit, an dem Ort wirklich mit der Person gewesen sein.

Volker: Und das ist dann die perfekte Vertrauenskette. Da habe ich dann nämlich wieder

Volker: die Evidenz als Wahrheit plus das, was wir in der Cybersecurity als Integrität bezeichnen,

Volker: also die Unverändertheit der Nachricht als Vertrauenskette.

Volker: Das wäre schon perfekt. und hier wieder auch unsere Aufforderung oder meine

Volker: zumindest an Nutzer und Nutzerinnen von sozialen Medien, versucht euch das zu generieren.

Volker: Also guckt, wo kam die Nachricht her? Wurde sie auf dem Weg verändert?

Volker: Und wenn sie legitim erscheint, schaut euch auch nochmal denjenigen oder diejenige

Volker: an, die diese Nachricht erzeugt hat.

Volker: Produziert sie immer solche Nachrichten und schon immer?

Volker: Und wie ist die Community-Reaktion auf diese Person und dann,

Volker: naja, der Rest ist dann wieder der andere Teil der Wahrheit,

Volker: bin ich Dogmatiker, also sage ich, das ist so,

Volker: egal, ob ich es nachweisen kann, bin ich Skeptiker, das kann so nicht sein,

Volker: egal, wie viele Leute mir das andere sagen oder lasse ich mich halt,

Volker: lasse ich mich leiten durch die von mir generierte Wahrheit.

Ingo: Ich glaube, es ist Nummer vier.

Ingo: Wir sind bequem. Es ist viel leichter, Informationen nicht zu hinterfragen oder

Ingo: einfache Antworten zu nehmen, als dogmatisch skeptisch oder so zu sein und einfach

Ingo: zu sagen, wenn es leicht und einfach zu verstehen ist, passt das, dann akzeptiere ich es.

Volker: Du bist gemein, jetzt habe ich so viel geredet und jetzt machst du das einfach,

Volker: meine drei Varianten mit einer vierten kaputt.

Volker: Aber jetzt mache ich deine vierte kaputt, weil ich sage, dafür gibt es Berufszweige, die machen das.

Volker: Das sind nämlich die Faktchecker. Und da komme ich nämlich auf eine neue Angriffsmethode.

Volker: Da sind zum Teil die Fact-Checker drauf reingefallen und haben auch eine eigene

Volker: Abwehrmethode entwickelt, das nämlich das Overloading.

Volker: Was wurde gemacht? Es wurden bewusst generierte Falschinhalte zu den Factcheckern geliefert.

Volker: Dutzende bis hunderte am Tag. Punkt eins, konnten sie gar nicht so schnell prüfen.

Volker: Also so eine Art Denial-of-Service-Attacke. Kriegen wir auch später nochmal in einer anderen Folge.

Volker: Das heißt, erstens waren sie sehr stark damit belastet, Falschinformationen

Volker: zu prüfen. und danach haben sie dann initial diese Falschinformationen als falsch

Volker: auch in ihre Netzwerke gekennzeichnet.

Volker: Und was heißt das? Sie haben die Originalinformationen genommen,

Volker: haben gesagt, die ist falsch, dadurch hat die Originalinformationen aber einen Klick mehr gekriegt.

Volker: Und die Leute haben sich dann immer die falschen Originalinformationen immer

Volker: wieder angeguckt, wodurch sie noch mehr Klicks bekommen haben.

Volker: Und ich sage mal wieder aus Sicht der Cyber Security, echt eine intelligente Attacke.

Volker: Ich lasse ihn Falschinformationen dadurch verbreiten, dass andere Leute sagen,

Volker: sie ist falsch und wodurch die echte Falschinformation, also die wirklich falsche

Volker: Information Klicks und Klicks und Klicks und Klicks kriegt, weil immer mehr Leute sie verbreiten.

Volker: Das ist schon eine geniale Attacke, wodurch, und jetzt kommen wir mal in diese

Volker: sozialen Netzwerke, wenn ihr das verhindern wollt als Hörerinnen und Hörer unseres Podcasts,

Volker: leitet nicht die Falschinformationen weiter, sondern sagt, es ist dort abgelegt.

Volker: Gebt meinetwegen auch ein Screenshot davon weiter und sagt,

Volker: das steht da, das ist falsch, streicht den vielleicht sogar nochmal durch den

Volker: Screenshot, damit KIs den nicht ohne weiteres benutzen können und dementsprechend

Volker: verbreitet diese Falschinformation nicht als Retweet oder wie man es auch immer

Volker: bezeichnen will weiter.

Ingo: Und das ist ganz schön schwer, wenn man selbst zu Späßen neigt und es auch gerne

Ingo: mag, mal eine Falschinformation in seinem Freundeskreis zu verteilen,

Ingo: weil es einfach lustig ist, darüber nachzudenken, was manche Menschen sich so

Ingo: alles vorstellen können, wie die Welt aussehen könnte.

Ingo: Also das ist ein großes Thema. Ich glaube, das waren wichtige Tipps,

Ingo: die du eben gegeben hast, Volker.

Ingo: Wir sind trotzdem noch eine Antwort schuldig auf unsere Eingangsfrage,

Ingo: nämlich auf die Frage, sind politische Parteien und Politikerinnen und Politiker,

Ingo: die öffentlich aktiv sind, eigentlich schuldig der Wahlmanipulation oder nicht?

Ingo: Und da würde ich grundsätzlich sagen, die Aufgabe von Politikerinnen und Politikern

Ingo: ist eigentlich, über die eigenen Arbeitsweisen, die eigenen Ideen und Vorstellungen zu informieren.

Ingo: Und eine Information ist direkt noch keine Manipulation. Eine Manipulation würde

Ingo: ich eigentlich eher dann sehen,

Ingo: wenn man etwas darüber hinaus erreichen möchte, also nicht nur die Informationen

Ingo: zum Menschen bringen, sondern eine bestimmte Reaktion auf diese Informationen erzeugen möchte.

Ingo: Und das ist etwas, was wir, gerade wenn wir uns mit Sprache beschäftigen,

Ingo: immer so ein bisschen vergessen.

Ingo: Sprache ist eigentlich eine absichtsvolle Handlung.

Ingo: Also wenn ich mich jetzt gerade der Öffentlichkeit hier mitteile.

Ingo: Dann versuche ich ja dabei Informationen zu verbreiten und meine Idee dabei,

Ingo: wenn ich jetzt Worte zu Sätzen aneinander füge und Sätze zu absetzen und zu

Ingo: langen Exkursen wie jetzt gerade aneinander füge,

Ingo: ist meine Idee dabei, dass diese Informationen bei euch, liebe Hörerinnen und

Ingo: Hörer ankommen und ihr das als neue Informationen in eurem Kopf hinzufügt.

Ingo: Und damit ein größeres Weltbild habt als vorher.

Ingo: Und diese Idee, dass eben diese Sprache eine bestimmte Absicht erzeugt,

Ingo: gilt natürlich auch bei politischen Botschaften und auch beim Reden,

Ingo: bei den öffentlichen Darstellungen von Parteien und soll natürlich eigentlich

Ingo: zu einer Handlung führen, nämlich zu der Wahlhandlung, dass wir diese Partei wählen.

Ingo: Also insofern könnte man schon sagen, es manipuliert in einer bestimmten Form,

Ingo: aber mir ist der Begriff eigentlich immer noch etwas zu scharf,

Ingo: wenn ich das mal sagen darf.

Monina: Du meinst der Begriff der Manipulation hier? Der Absichtlichen?

Ingo: Genau. Also die Politikerinnen und Politiker einer Wahlmanipulation zu bezichtigen,

Ingo: finde ich etwas zu sehr auf den Punkt gebracht.

Ingo: Also ich denke, dass es schon darum geht, uns mit Informationen zu versorgen

Ingo: und eben durch die Verkürzungen, die eben aber wissentlich oder unwissentlich

Ingo: zu Fehlinformationen führen.

Ingo: Und wenn ich das jetzt mal aus diesem Kontext unserer Begrifflichkeiten herausnehmen darf,

Ingo: also ob das nun eine Malinformation ist, wo sie sich bewusst sind,

Ingo: dass sie es falsch machen oder ein bewusstes Verkürzen, wenn eine Partei sagt,

Ingo: sie möchte halt irgendwie ein Unternehmen entlasten, aber sie nicht gleichzeitig sagt,

Ingo: ob sie die normalen Bürger belasten wollen, dann kann das natürlich eine Manipulation

Ingo: sein, wo man sagen will, glaubt uns, dass wir der Wirtschaft was Gutes tun wollen,

Ingo: unabhängig davon, was mit euch passiert.

Ingo: Aber trotz alledem ist das Wahlkampfspiel und ich sehe schon.

Ingo: Dass es einen großen Unterschied gibt zwischen Menschen sind in einer Partei

Ingo: davon überzeugt, dass sie etwas Gutes beitragen können, wenn sie eine bestimmte

Ingo: Form von Politik in unserem Land etablieren.

Ingo: Das ist etwas anderes als ein ausländisches, ein ausländischer Akteur,

Ingo: wie Akteure, die in Amerika oder in Russland zu Hause sind, die auf der einen

Ingo: Seite nicht wollen, dass wir stark stehen in der Verteidigung an unseren Außengrenzen

Ingo: und auf der anderen Seite die Amerikaner sich darüber freuen,

Ingo: wenn bei uns die Wirtschaft gerade nicht so gut läuft und die Wirtschaft und

Ingo: Bedingungen nicht so gut sind, weil dann die Unternehmen verleitet sind,

Ingo: nach Amerika zu gehen und dort zu produzieren in Zukunft und damit den Wohlstand dort zu schaffen.

Ingo: Und also da gibt es schon Manipulationen, die absichtsvoll mit einem negativen

Ingo: Einschlag verbunden sind.

Ingo: Ich glaube, wenn wir von Wahlmanipulation sprechen, dann klingelt bei uns dann

Ingo: eine Glocke im Kopf, die sagt sowas wie, das sind böse Absichten, die da zugrunde liegen.

Ingo: Und das würde ich den Politikerinnen und Politikern fast unabhängig davon,

Ingo: welcher Partei sie angehören, nicht unterstellen wollen.

Monina: Du meinst, da ist dem Hörer oder der Hörerin, dem Nutzer dieser Informationen,

Monina: die eine Partei veröffentlicht, klar, dass das gerade im Kontext der Wahlwerbung

Monina: alles mit einem gewissen Maß der Übertreibung zu sehen ist, mal mehr, mal weniger.

Monina: Und deswegen ist es nicht eins zu eins so zu interpretieren von den Leuten,

Monina: die diese Informationen bekommen.

Volker: Okay, dann würde ich das vielleicht anders darstellen wollen.

Volker: Also ich gehe soweit mit, dass ich im Allgemeinen es nicht als boshafte Wahlmanipulation

Volker: bezeichnen würde, wenn Politiker hier im Wahlkampf sind. Okay,

Volker: würde ich einen Haken hinter machen.

Volker: Also für mich, das können andere gerne anders sehen.

Volker: Ich würde es aber als boshaft gewollte Manipulation bezeichnen,

Volker: wenn sich irgendwelche ausländischen Kräfte von wo auch immer inhaltlich in

Volker: unseren Wahlkampf einmischen.

Volker: Das war ja auch über Jahrzehnte gut gepflegter Brauch, dass dieses als illegitim bezeichnet wird.

Volker: Also für eine äußere Einmischung in

Volker: Wahlangelegenheiten eines Landes wurde eigentlich nicht so gerne gesehen.

Volker: Okay, kann ich mitgehen.

Volker: Dass wir die Gesellschaft abstumpfen, solche Informationen, von wo auch immer

Volker: sie kommen, einfach zu akzeptieren, weil es einfach so gegeben ist.

Volker: Und da finde ich es aber sehr schön, dass wir ja in unserer Demokratie so Checks

Volker: and Balances haben, wie man das so schön aus den USA jetzt immer wieder hört.

Volker: Dass wir haben ja nun auch die Presse oder Leute wie uns, die Podcasts rausgeben,

Volker: und schön, das habe ich jetzt letztens auch wieder in einem Podcast gehört,

Volker: ich sage hier auch gerne welcher, Lage der Nation, das können wir euch mal verlinken in den Shownotes,

Volker: wo genau das gefordert wird, dass die Presse sich nicht immer auf Headlines

Volker: stürzt, sondern die Presse bei

Volker: jedem Argument auch gerne das schlagende Gegenargument mitbringen soll,

Volker: damit die wohlinformierten Bürgerinnen und Bürger dieses selbst für sich abwägen können.

Volker: Das heißt, lass die Politik wahlkämpfen, wie sie wollen.

Volker: In Klammern, lass dann auch akzeptieren, dass das Ausland versucht,

Volker: sich auf dieser Schiene in die Wahlkämpfe mit einzumischen.

Volker: Wenn wir als Informationsmedium beide Seiten immer zeigen, dürfen entsprechende

Volker: Nutzerinnen und Nutzer sich das selbst aussuchen, was sie gerne glauben möchten.

Ingo: Ja, das ist ein guter Punkt.

Ingo: Das führt noch zu einem weiteren Aspekt, den wir, glaube ich,

Ingo: noch besprechen sollten, den wir jetzt ganz kurz ansprechen sollten.

Ingo: Und zwar ist es die Frage des Vertrauens in unabhängige Berichterstattung.

Ingo: Und das ist ja etwas, was im Moment massiv unter Druck gerät,

Ingo: auch wieder durch Desinformation, durch Malinformation, also insbesondere durch

Ingo: große Player, die versuchen, die Glaubwürdigkeit von der Presse zu diskreditieren.

Ingo: Und auch bei Podcast müssen wir natürlich darauf achten, immer alle glaubwürdig

Ingo: zu bleiben, also auch wirklich uns sehr sorgfältig mit den Materien zu beschäftigen,

Ingo: über die wir sprechen und eben auch versuchen, das auch entsprechend einzuordnen.

Ingo: Also ich würde sagen, du hast da recht, aber nochmal aufgreifen,

Ingo: dein Vertrauensbegriff von vorhin, Volker, wir müssen wirklich sehen,

Ingo: dass wir dort Instrumente des Vertrauens schaffen,

Ingo: damit wir wieder die glaubwürdige Einordnung zurückerhalten oder sie weiter

Ingo: bewahren, je nachdem, wie man den aktuellen Zustand beschreibt.

Volker: Dann fasst ihr doch mal zusammen, also jetzt nicht als generelle Zusammenfassung,

Volker: aber welche Essenz geben wir jetzt unseren Hörerinnen und Hörern mit?

Volker: Wie sollen die sich gegen Falschinformationen im Sinne von Desinformationen

Volker: und Malinformationen schützen, wehren?

Monina: Na, ein Punkt, den wir hatten, war die Gruppe, von der man seine Informationen

Monina: bezieht, mal anzuschauen und auf die Glaubwürdigkeit der entsprechenden Leute

Monina: zu prüfen. Also woher kommt die Information?

Monina: Ist das eine Quelle, der ich vertrauen möchte auch, was sie sagt?

Monina: Kann ich das vielleicht auch nochmal nachprüfen, wenn die Information mehr relevant

Monina: genug ist, dass ich jetzt wirklich diese einzelnen Informationen auch nochmal

Monina: mehr Zeit widmen möchte als ein Punkt?

Monina: Und wenn ich ein bisschen aufmerksam auf Quellen schaue, wie beispielsweise

Monina: Webseiten oder woher auch immer die Informationen kommen, dass ich da vielleicht

Monina: mal einen zweiten Gedanken auch rein investiere, wie die ausschaut,

Monina: die Quelle, wo das Ganze herkommt.

Ingo: Ja, also ich würde sagen, wir sollten dort ruhig die Tipps und Tricks,

Ingo: die es im Internet auch an verschiedenen Stellen verfügbar gibt,

Ingo: mal lesen oder auch mal versuchen zu verinnerlichen.

Ingo: Also wir werden euch da auch Beispiele von der Hans-Seidel-Stiftung anfügen,

Ingo: in denen die Punkte sind,

Ingo: die man abarbeiten sollte, wenn man sich mit Informationen sehr sorgfältig beschäftigen

Ingo: möchte oder auch Informationen von den Landesmedienanstalten,

Ingo: die da entsprechende Aufbereitungen haben.

Ingo: Also das ist ein Thema, das dort ganz gut beschrieben wird mit eben genau diesen

Ingo: Punkten, dass man überlegt, wer hat es geschrieben, wo wurde es publiziert,

Ingo: ist es plausibel und aktuell und ich würde auch wirklich dazu raten,

Ingo: Plausibilität nicht zu vernachlässigen.

Ingo: Wenn es sich schon komisch anfühlt, sehr wahnsinnig überraschend anfühlt,

Ingo: dann ist die Wahrscheinlichkeit, dass es falsch ist, schon relativ hoch.

Ingo: Und ein bisschen einen positiven Ausblick noch zu geben für diese Folge.

Ingo: Es gibt auch einen anderen Podcast, der auch sehr gut über Desinformationen

Ingo: im Wahlkampf informiert hat.

Ingo: Das ist von Frauen und Technik mit Eckart und Wolfhangel.

Ingo: Und das lohnt sich auch dort reinzuhören, die auch einen positiven Ausblick

Ingo: geben und sagen, es ist nicht ganz so schlimm, wie wir öffentlich diskutieren.

Ingo: Also auch dieses ganz starke, wir sind unterwandert und unsere Informationen

Ingo: sind alle ganz furchtbar schlecht.

Ingo: Die ausländischen Institutionen versuchen uns alle gerade zu manipulieren.

Ingo: Das ist zum Teil so, aber es wird von den Menschen viel weniger wahrgenommen,

Ingo: als sie es befürchten. Also von daher ein bisschen Optimismus ruhig.

Ingo: Wir werden eine sehr gute Wahl erleben, die eben auch wieder ein schönes Beispiel

Ingo: unserer lebendigen Demokratie sein wird.

Volker: Dann würde ich mal sagen es ist genug gesagt wir sind halt gekommen von der

Volker: Definition was ist eigentlich Fake News jetzt benutze ich gerne mal den Begriff

Volker: und wie lässt er sich unterteilen was machen diese Desinformationen mit uns,

Volker: aber auch warum machen wir Desinformationen, weil wir teilweise auch ganz ungewollt

Volker: verkürzen sind dann so ein bisschen in die Mechanismen reingegangen wie werden

Volker: diese verbreitet durch Ghostwriting,

Volker: durch Twinning, durch Doppelgänger, Overload, Amplification.

Volker: Das sind so Stichworte, die wir auch in den Shownotes noch mal genauer darstellen werden.

Volker: Wir haben Maßnahmen, technische Maßnahmen gebracht, KI, aber auch klassisch

Volker: IT-System generiert, sind dann auf die Eigenverantwortung auch von Nutzerinnen und Nutzern gegangen.

Volker: Die sind immer noch ganz oben in ihrer Verantwortung.

Volker: Und ganz zum Schluss,

Volker: Haben wir dann nochmal nach einer kleinen philosophischen Diskussion,

Volker: was ist Wahrheit und was ist Vertrauen, eigentlich den Bogen bekommen.

Volker: Was empfehlen wir uns und euch, auch mit ein paar kleinen Hörtipps von anderen

Volker: Podcasts zur Weiterverbreitung.

Volker: Und das ist eigentlich immer die Frage, ich muss selbst an einer Balance,

Volker: dem Ursprung und der Unveränderbarkeit meiner Information interessiert sein.

Volker: Und wenn ich dieses Interesse habe, dann muss ich es bei jeder Information,

Volker: die ich prüfe, wieder anwenden.

Monina: Genau, herzlichen Dank fürs Zuhören bis hierhin. Die Sicherheitslücke findet

Monina: ihr auch online unter sicherheitslücke.fm.

Monina: Schreibt dann die Lücke mit UE. Dort könnt ihr die Folgen auch kommentieren

Monina: und uns Feedback geben, Vorschläge für kommende Folgen machen.

Monina: Wir sind da natürlich ein bisschen im Voraus, aber wir nehmen das dann gerne

Monina: noch an für die künftigen Folgen. E-Mails erreichen uns unter post-at-sicherheitslücke.fm.

Monina: Bei Mosterdon sind wir beispielsweise auch zu finden.

Monina: Link dazu findet ihr in den Shownotes. Wie gesagt, schreibt uns da gerne Ideen,

Monina: Feedback und Kritik dazu.

Monina: Genau, die Links zu den besprochenen Themen, weitere Kontaktmöglichkeiten findet

Monina: ihr ebenfalls in den Shownotes.

Monina: Die Kapitelbilder zu den Podcasts mit kleinen Sketches und seinen Themen,

Monina: die stammen von Anne Vogt. Hier vielen Dank nochmal.

Monina: Das sind sehr niedliche kleine Sketches. dass wenn die Podcast-App-Kapitelbilder

Monina: nicht richtig angezeigt werden, ordentliche Podcast-Apps sollten das eigentlich

Monina: können. Wir verlinken davon auch nochmal ein paar in den Shownotes.

Monina: Die Sicherheitslücke ist ein Podcast der Hamburg Open Online University und

Monina: da hier auch nochmal besten Dank für die Unterstützung und natürlich an die

Monina: Produktion, an Christian Friedrich, die fantastische Stimme im Hintergrund.

Monina: Wir verabschieden uns und hören uns in der nächsten Folge wieder.

Ingo: Monina Schwarz, Ingo Timm.

Volker: Und Volker Skwarek. Einen schönen Tag noch.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.