Die Lügner-Dividende: Einblicke aus einem Kroll-Bericht über die Auswirkungen von KI in der Politik

Künstliche Intelligenz ist kein entferntes Risiko mehr – sie gestaltet die politische Informationslandschaft aktiv um. Ein neuer Bericht von Kroll, dem globalen Risikoinformationsunternehmen, dokumentiert, wie generative KI-Tools die Produktion und Verbreitung politischer Desinformation beschleunigen und es gleichzeitig erschweren, böse Akteure zur Rechenschaft zu ziehen.

Schlüsselkonzept
Lügner-Dividende

Der strategische Vorteil, den böse Akteure aus der weit verbreiteten Skepsis gegenüber authentischen Inhalten ziehen. Wenn Deepfakes und KI-generierte Desinformationen sich verbreiten, können echte Beweise – reale Aufnahmen, echte Aussagen – als Fälschung abgetan werden. Die Rechenschaftspflicht schwindet nicht, weil die Wahrheit verborgen ist, sondern weil ihr nicht mehr vertraut werden kann.

Wie generative KI politische Desinformation umgestaltet

Der Kroll-Bericht identifiziert generative KI als einen Multiplikator für Desinformationskampagnen. Was früher erhebliche technische Expertise erforderte – die Fälschung eines überzeugenden Audioclips, die Produktion eines realistischen Videos einer öffentlichen Person, die Generierung Tausender plausibler Social-Media-Beiträge – kann nun von einem einzelnen Akteur mit einem handelsüblichen Laptop und einer Internetverbindung bewerkstelligt werden.

Das durch KI ermöglichte Ausmaß und die Geschwindigkeit bedeuten, dass Desinformation einen Nachrichtenzyklus sättigen kann, bevor Faktenprüfer Zeit haben zu reagieren. Schlimmer noch, die visuelle und akustische Qualität von KI-generierten Inhalten hat sich in den letzten zwei Jahren dramatisch verbessert, was die Erkennung sowohl für Plattform-Moderationssysteme als auch für normale Benutzer zunehmend erschwert.

Die Lügner-Dividende: Eine Waffe gegen die Rechenschaftspflicht

Die vielleicht heimtückischste Erkenntnis im Kroll-Bericht betrifft nicht die Fälschung – sie betrifft den Zweifel. Selbst wenn echte Aufnahmen von Politikern, Führungskräften oder Amtsträgern existieren, bietet die Verbreitung von Deepfakes bösen Akteuren eine neue Verteidigungslinie: einfach behaupten, der authentische Inhalt sei KI-generiert.

Diese Strategie – die Lügner-Dividende – nutzt die wachsende Unsicherheit der Öffentlichkeit darüber aus, was real ist. Eine durchgesickerte Aufnahme echten Fehlverhaltens kann als Deepfake abgetan werden. Ein verifiziertes Video einer Politikänderung kann als synthetisch bezeichnet werden. Das Ergebnis ist ein asymmetrisches Umfeld, in dem Desinformation nicht nur von der Verbreitung von Unwahrheiten profitiert, sondern auch das Vertrauen in die Wahrheit selbst untergräbt.

Das größte Risiko besteht nicht darin, dass KI überzeugende Fälschungen erstellt – sondern darin, dass sie das Echte wie eine Fälschung aussehen lässt. Sobald die Öffentlichkeit nicht mehr zwischen beiden unterscheiden kann, bricht die Rechenschaftspflicht zusammen.

— Kroll Risikointelligenz-Bericht, 2024

Beispiele für generative KI-Desinformation bei Wahlen

Der Bericht dokumentiert eine Reihe von dokumentierten Vorfällen aus den Wahlzyklen 2023–2024, bei denen KI-generierte Inhalte eine wesentliche Rolle bei der Gestaltung des öffentlichen Diskurses spielten:

01

Gefälschte Audioaufnahmen

KI-geklonte Sprachaufnahmen von Kandidaten, die aufrührerische Aussagen machten, wurden Tage vor der Wahl auf Messaging-Plattformen verbreitet, ohne dass genügend Zeit für glaubwürdige Widerlegungen blieb.

02

Synthetische Bilder

Fotorealistische Bilder, die Kandidaten in kompromittierenden Situationen darstellten, wurden generiert und in sozialen Medien geteilt, wobei Verzögerungen bei der Inhaltsmoderation der Plattformen ausgenutzt wurden.

03

Automatisierte Propaganda

LLM-gestützte Konten generierten große Mengen gezielter politischer Nachrichten, wobei die Rahmung basierend auf demografischen Benutzerdaten angepasst wurde, um die emotionale Wirkung zu maximieren.

04

Leugnung authentischer Inhalte

Echtes Filmmaterial öffentlicher Erklärungen wurde von den Betroffenen selbst fälschlicherweise als KI-generiert bezeichnet, was die Rechenschaftspflicht für dokumentierte Positionen und Handlungen verhinderte.

Zukunftsplanung

Krolls Empfehlungen konzentrieren sich auf drei Reaktionsebenen: technisch, regulatorisch und institutionell. Auf technischer Seite fordert der Bericht größere Investitionen in Provenienztechnologien – kryptografische Inhaltsauthentifizierung, die eine Nachweiskette für echte Aufnahmen und Bilder etablieren kann. Auf regulatorischer Seite drängt er auf eine schnellere Einführung von KI-Kennzeichnungspflichten, insbesondere während Wahlperioden, und eine größere Haftung für Plattformen, die unbestätigte KI-generierte politische Inhalte verbreiten.

Die institutionelle Dimension mag am schwierigsten anzugehen sein. Das Wiederherstellen des öffentlichen Vertrauens in authentische Beweise erfordert nachhaltige Anstrengungen von Medienorganisationen, zivilgesellschaftlichen Gruppen und den politischen Akteuren selbst. Der Kroll-Bericht kommt zu dem Schluss, dass Untätigkeit keine neutrale Option ist: Mit fortschreitenden KI-Fähigkeiten verengt sich das Zeitfenster für die Etablierung robuster Normen und technischer Schutzmaßnahmen.

Für EU-Politikexperten sind die Implikationen direkt. Die Verpflichtungen des EU-KI-Gesetzes (AI Act) bezüglich Transparenz und Kennzeichnung synthetischer Medien sind ein Ausgangspunkt – doch die Ergebnisse des Berichts deuten darauf hin, dass die Umsetzungsfristen möglicherweise beschleunigt werden müssen, um mit den Realitäten der Bereitstellung vor Ort Schritt zu halten.

Berichtsquelle
Kroll Risikointelligenz — KI & Politischer Desinformationsbericht (2024)

Kroll ist ein globaler Anbieter von Risiko- und Finanzberatungslösungen. Ihr Bericht von 2024 über KI und politische Desinformation stützt sich auf Fallstudien aus der Wahlbeobachtung auf vier Kontinenten, Interviews mit Spezialisten für Kampagnensicherheit und die Analyse dokumentierter KI-generierter Einflussoperationen der letzten 18 Monate.

Verwandte Analysen

KI in der Politik
Alexas KI-Bias: Implikationen für die US-Wahl 2024
KI in der Politik
KI in der Diplomatie: Einblicke von Elizabeth Allen zu Technologie und globalen Angelegenheiten
Sagen Sie uns, was Sie überwachen müssen

Kein Spam. Keine automatische Anmeldung. Wir werden Sie direkt kontaktieren, um Ihr Setup zu besprechen.