Künstliche Intelligenz in der Politik: Chancen, Risiken und Wahrnehmung

Autor:in

Jakob Scherer

Veröffentlichungsdatum

15. Februar 2025

Eine aktuelle Studie von Dr. Simon Kruschinski, Dr. Pablo Jost, Tobias Scherer und Hannah Fecher wirft erstmals einen detaillierten Blick darauf, wie die deutsche Bevölkerung den Einsatz von KI-generierten Inhalten in politischen Kampagnen wahrnimmt. Die Ergebnisse zeigen ein Spannungsfeld zwischen Skepsis, Unsicherheit und vorsichtiger Akzeptanz.

Large Language Modelle und Diffusionsmodelle in politischen Kampagnen

Künstliche Intelligenz (KI) hat in den letzten Jahren erhebliche Fortschritte gemacht und spielt eine zunehmend wichtige Rolle in verschiedenen gesellschaftlichen Bereichen – darunter auch in der politischen Kommunikation. Insbesondere Large Language Modelle (LLMs) und Diffusionsmodelle ermöglichen die Erstellung und Verbreitung von Text- und Bildinhalten auf einem neuen Niveau. Diese Technologien bieten Chancen, bergen aber auch Risiken, insbesondere im Kontext politischer Kampagnen.

Was sind Large Language Modelle (LLMs)?

LLMs sind KI-Modelle, die auf die Verarbeitung natürlicher Sprache spezialisiert sind. Sie werden mit riesigen Mengen an Textdaten trainiert, darunter Bücher, wissenschaftliche Publikationen, Nachrichtentexte und Social-Media-Inhalte. Ihr Ziel ist es, Texte zu analysieren, Muster in der Sprache zu erkennen und neue Inhalte zu generieren. Bekannte Beispiele sind ChatGPT (OpenAI), CoPilot (Microsoft) oder Gemini (Google).

Die Funktionsweise von LLMs basiert auf Transformer-Architekturen, insbesondere dem „Attention-Mechanismus“, der es ermöglicht, Beziehungen zwischen Wörtern in einem Satz zu verstehen. Ein typisches LLM besteht aus zwei Hauptkomponenten:

  • Encoder: Zerlegt Texte in kleine Einheiten (Tokens) und wandelt diese in mathematische Repräsentationen um.
  • Decoder: Erzeugt auf Basis dieser Repräsentationen neue Texte, indem er Wahrscheinlichkeiten berechnet, welche Wörter logisch folgen könnten.

Diffusionsmodelle: Bilderzeugung durch KI

Während LLMs Sprache verarbeiten, sind Diffusionsmodelle auf die Erstellung realistischer Bilder und Videos spezialisiert. Sie lernen aus riesigen Bilddatenbanken und erkennen Strukturen, Farben und Muster, um auf Basis von Texteingaben neue visuelle Inhalte zu generieren. Beispiele für solche Text-to-Image-Modelle (TTI) sind Midjourney, DALL·E (OpenAI) oder Stable Diffusion.

Durch Fortschritte in der KI-Entwicklung sind diese Modelle in der Lage, täuschend echte Bilder zu erzeugen, was sie für verschiedene Anwendungen – darunter Marketing, Design und Medienproduktion – attraktiv macht. Auch die Erstellung von Deepfakes fällt in diesen Bereich.

Generative KI in politischen Kampagnen

Die Nutzung generativer KI in politischen Kampagnen ist bereits Realität. Sie wird eingesetzt, um Inhalte schneller zu erstellen, Reichweite zu erhöhen und personalisierte Botschaften zu verbreiten. Hier einige Anwendungsbereiche:

  • Automatisierte Textgenerierung für Reden, Social-Media-Beiträge und Pressemitteilungen
    Politische Akteure nutzen LLMs, um Inhalte in verschiedenen Tonlagen und Stilen zu erstellen.
    Beispiele: Schnell erstellte Wahlkampfslogans, personalisierte Antworten auf Wählerfragen.

  • Visuelle Kampagnen durch KI-generierte Bilder und Videos
    Politiker oder Parteien nutzen Diffusionsmodelle, um aufmerksamkeitsstarke Bilder für Werbekampagnen zu erstellen.
    Beispiel: Erzeugung idealisierter Szenen oder Plakate, die perfekt auf bestimmte Botschaften abgestimmt sind.

  • Manipulation und Desinformation durch Deepfakes
    Eine der größten Herausforderungen ist der Missbrauch von KI zur Verbreitung gefälschter Inhalte.
    Deepfake-Videos oder manipulierte Bilder können genutzt werden, um politische Gegner zu diskreditieren oder falsche Informationen zu verbreiten.
    Beispiel: Ein gefälschtes Video eines Politikers, das bestimmte Aussagen suggeriert, die in Wirklichkeit nie getätigt wurden.

Chancen und Risiken generativer KI in der Politik

Chancen:

  • Effizientere Kampagnenführung durch schnellere Inhaltserstellung.
  • Demokratisierung der politischen Kommunikation durch niederschwelligen Zugang zu KI-Tools.
  • Personalisierte und zielgerichtete Wähleransprache.

Risiken:

  • Verbreitung von Fake News und Desinformation.
  • Vertrauensverlust in die Authentizität politischer Inhalte.
  • Manipulation der öffentlichen Meinung durch KI-generierte Inhalte.

Fazit

LLMs und Diffusionsmodelle eröffnen neue Möglichkeiten für politische Kampagnen, werfen aber gleichzeitig ethische Fragen auf. Während sie helfen können, Inhalte effizienter und gezielter zu verbreiten, besteht auch die Gefahr, dass sie zur Desinformation oder Manipulation eingesetzt werden. Die zukünftige Herausforderung wird darin bestehen, Regulierungen und Kontrollmechanismen zu schaffen, um den verantwortungsvollen Umgang mit generativer KI zu gewährleisten.