Home » News » KI-basierte Desinformation gefährdet Wahlen

KI-basierte Desinformation gefährdet Wahlen

2024 ist ein Wahljahr mit Veranstaltungen in über 60 Ländern und rund 2 Milliarden potenziellen Wählern. Dies bietet eine perfekte Grundlage für politisch motivierte Kampagnen, die großflächig Fehlinformationen verbreiten wollen. Eine neue Machbarkeitsstudie zeigt die wachsende Rolle von generativen KI-Technologien bei der effektiven Verbreitung von Desinformationen im politischen Bereich.

1 Min. Lesezeit
Desinformation
Foto: ©AdobeStock/chiew

Große Sprach- und Bildmodelle geben Cyberkriminellen mächtige Werkzeuge an die Hand, um gezielt politische Desinformation in großem Maßstab zu verbreiten. Was früher aufwendig und schwer umzusetzen war, ist durch diese Technologien einfacher geworden. Das Risiko, das von böswilligen Akteuren ausgeht, nimmt dadurch erheblich zu.

Einsatz von Künstlicher Intelligenz in Betrugsmaschen

Immer häufiger nutzen Kriminelle Künstliche Intelligenz für Betrugsmaschen und Täuschungen, zum Beispiel durch generierte Texte in betrügerischen Nachrichten, gefälschte Bilder für irreführende Social-Media-Posts oder „Deepfake“-Videos und -Stimmen für gezielte Täuschungen. Diese Methoden werden zunehmend auch in politischen Fehlinformationskampagnen eingesetzt.

Anpassungen und Gegenmaßnahmen

„Die Auswirkungen dieser neuen Technologien auf gezielte Desinformation sind erheblich“, sagt Ben Gelman, Senior Data Scientist bei Sophos. „Eine der größten neuen Bedrohungen ist der Einsatz von generativer KI für maßgeschneiderte Fehlinformationen. Beim Micro Targeting werden Desinformationen gezielt an Menschen gesendet, die wahrscheinlich darauf reagieren. Das macht solche Kampagnen erschreckend effizient.“

Sophos X-Ops hat ein speziell entwickeltes Tool getestet, das automatisch betrügerische Kampagnen erstellt, ursprünglich für E-Commerce-Betrug. Nach Anpassungen konnte dieses Tool Websites für politische Kampagnen erstellen und in Kombination mit gefälschten Social-Media-Profilen personalisierte E-Mails verschicken, um Menschen gezielt zu beeinflussen – auch wenn sie normalerweise nicht mit den verbreiteten Inhalten übereinstimmen.

„Die Fähigkeit, personalisierte politische Inhalte zu erzeugen, stellt ein großes Risiko dar“, so Gelman. „Um das zu bekämpfen, braucht es technologische Verbesserungen, Aufklärung und gesetzliche Regelungen.“ Verbesserte KI-basierte Tools zur Erkennung von Fehlinformationen und eine stärkere Sensibilisierung der Öffentlichkeit könnten helfen, die Auswirkungen zu mindern. Auch der Gesetzgeber wird eine wichtige Rolle spielen, um den Missbrauch von Künstlicher Intelligenz einzudämmen.

Andere interessante News

Eine mysteriöse Gestalt in einem roten Kapuzenpullover sitzt vor einem Laptop, Cybercrime-Foren

BKA: Zwei weltweit größten Cybercrime-Foren ausgehoben

Die Generalstaatsanwaltschaft Frankfurt am Main – Zentralstelle zur Bekämpfung der Internetkriminalität – und das Bundeskriminalamt (BKA haben vom 28. bis 30. Januar 2025 gemeinsam...

AI Act, EU-Flagge mit Leiterplattenmustern symbolisiert ethische KI-Governance.

Europäischer Datenschutztag: Welche Neuerungen Unternehmen im Datenschutz-Jahr 2025 erwarten

Der Europäische Datenschutztag markiert einen jährlichen Aktionstag des Europarats, der 2025 besonders brisant ist: Mit der KI-Verordnung (AI Act) und der neuen Einwilligungsverord...

Europakarte mit virtuellem Hammer und Soundblock und AI-Wort. Konzept des von der EU kürzlich verabschiedeten AI Act.

Neue Gesichtserkennungs-Technologie für Waffenschränke

Biometrische Sicherheit für Jäger und Sportschützen: Hartmann Tresore und Rheinmetall Dermalog SensorTec präsentieren auf der Jagd & Hund (28. Januar – 2. Februar 2025, Dortmund) d...