Home » News » KI-basierte Desinformation gefährdet Wahlen

KI-basierte Desinformation gefährdet Wahlen

2024 ist ein Wahljahr mit Veranstaltungen in über 60 Ländern und rund 2 Milliarden potenziellen Wählern. Dies bietet eine perfekte Grundlage für politisch motivierte Kampagnen, die großflächig Fehlinformationen verbreiten wollen. Eine neue Machbarkeitsstudie zeigt die wachsende Rolle von generativen KI-Technologien bei der effektiven Verbreitung von Desinformationen im politischen Bereich.

1 Min. Lesezeit
Desinformation
Foto: ©AdobeStock/chiew

Große Sprach- und Bildmodelle geben Cyberkriminellen mächtige Werkzeuge an die Hand, um gezielt politische Desinformation in großem Maßstab zu verbreiten. Was früher aufwendig und schwer umzusetzen war, ist durch diese Technologien einfacher geworden. Das Risiko, das von böswilligen Akteuren ausgeht, nimmt dadurch erheblich zu.

Einsatz von Künstlicher Intelligenz in Betrugsmaschen

Immer häufiger nutzen Kriminelle Künstliche Intelligenz für Betrugsmaschen und Täuschungen, zum Beispiel durch generierte Texte in betrügerischen Nachrichten, gefälschte Bilder für irreführende Social-Media-Posts oder „Deepfake“-Videos und -Stimmen für gezielte Täuschungen. Diese Methoden werden zunehmend auch in politischen Fehlinformationskampagnen eingesetzt.

Anpassungen und Gegenmaßnahmen

„Die Auswirkungen dieser neuen Technologien auf gezielte Desinformation sind erheblich“, sagt Ben Gelman, Senior Data Scientist bei Sophos. „Eine der größten neuen Bedrohungen ist der Einsatz von generativer KI für maßgeschneiderte Fehlinformationen. Beim Micro Targeting werden Desinformationen gezielt an Menschen gesendet, die wahrscheinlich darauf reagieren. Das macht solche Kampagnen erschreckend effizient.“

Sophos X-Ops hat ein speziell entwickeltes Tool getestet, das automatisch betrügerische Kampagnen erstellt, ursprünglich für E-Commerce-Betrug. Nach Anpassungen konnte dieses Tool Websites für politische Kampagnen erstellen und in Kombination mit gefälschten Social-Media-Profilen personalisierte E-Mails verschicken, um Menschen gezielt zu beeinflussen – auch wenn sie normalerweise nicht mit den verbreiteten Inhalten übereinstimmen.

„Die Fähigkeit, personalisierte politische Inhalte zu erzeugen, stellt ein großes Risiko dar“, so Gelman. „Um das zu bekämpfen, braucht es technologische Verbesserungen, Aufklärung und gesetzliche Regelungen.“ Verbesserte KI-basierte Tools zur Erkennung von Fehlinformationen und eine stärkere Sensibilisierung der Öffentlichkeit könnten helfen, die Auswirkungen zu mindern. Auch der Gesetzgeber wird eine wichtige Rolle spielen, um den Missbrauch von Künstlicher Intelligenz einzudämmen.

Andere interessante News

Zwei rote Tastaturtasten mit den Symbolen Fadenkreuz und Deutschlandkarte sowie den Wörtern Cyber und Sicherheit

Digital unter Beschuss: Wie Bundesinnenministerium und BSI Deutschlands Cyberabwehr stärken wollen

Cyberangriffe, Desinformation und digitale Sabotage nehmen rasant zu. Die Bedrohung für Staat, Wirtschaft und Gesellschaft wächst – und mit ihr der Handlungsdruck. Bundesinnenminis...

Hohe Wellen im Ozean kombiniert mit fallenden digitalen Binärcodes als Symbol für Datenflut

Wie intelligente Dateninfrastrukturen zum Schutz der Ozeane beitragen – und was Unternehmen daraus lernen können

Die UN Ocean Conference 2025 macht deutlich: Der Schutz der Meere braucht mehr als Appelle – er braucht Technologie. Denn ohne moderne Dateninfrastruktur lassen sich marine Ökosyst...

Digitalisierte Pakete mit Datenüberlagerung auf einem Förderband in einem automatisierten Hochregallager

Warum das neue KRITIS-Dachgesetz die Logistikbranche neu definiert

Kaum eine Branche ist so lebenswichtig – und gleichzeitig so verwundbar – wie die Logistik. Mit dem KRITIS-Dachgesetz rückt dieser systemrelevante Sektor nun stärker in den Fokus g...