Politische Bias in großen Sprachmodellen: Eine linke Neigung
Key Takeaway
LLMs weisen eine konsistente, bislang nicht erklärbare linke politische Tendenz auf, die sich trotz regulativer Bemühungen und unterschiedlicher Trainingsstrategien nicht abschwächen lässt.
Summary
- Hintergrund und Regulierung
Bias in LLMs ist seit Jahren bekannt (Race, Gender, etc.). EU‑AI‑Act und UK‑AIME fordern Prüfung und Entfernung von Bias bei Hoch‑Risiko‑Systemen. Trotz gesetzlicher Vorgaben bleibt die Identifikation von politischem Bias für Nutzer schwierig. - Allgemeine Erkenntnisse zur politischen Bias
Mehrheit der Studien zeigen eindeutig linke Neigung (z. B. Rückhalt der US‑Demokraten, UK‑Labour). Ursachen sind bislang nicht wissenschaftlich belegbar: Daten, Fine‑Tuning oder Modellgröße spielen keine eindeutige Rolle. Größere Modelle zeigen tendenziell stärkere Bias, was atypisch für andere Leistungskennzahlen ist. - Einfluss von Sprache und Kultur
Deutsche Eingaben führen zu stärker parteilichen, aber weniger rechts‑radikalen Antworten als Englische Eingaben. LLMs gewichten dominante akademische Konsenate und erkennen die Original‑Trainingssprache als „neutral“ an. - Themenabhängige Bias‑Intensität
Themen mit hoher Polarisierung (Abtreibung, Einwanderung) erzeugen verstärkte linke Antworten. Weniger kontroverse Themen (Klima, Außenpolitik) lassen stärkere Neutralität zu. - Cripps‑Studie
Zwei‑Teil‑Test: Multiple‑Choice‑Aufgabe und offene Textantworten. LLMs neigen dazu, neutral zu antworten, wenn eine Option vorhanden ist; ohne Neutraloption kehren sie fast ausschließlich zu linken Positionen zurück. ChatGPT und Copilot ausschließlich links‑orientiert, Gemini und LlaMA überwiegend links mit seltenen zentristischen Tendenzen; Grok als Outlier mit moderater Zentristik. - Offene Forschungsfragen
Warum lassen sich Ursachen für die linke Tendenz nicht auf einzelne Phasen des Modellbildungsprozesses zurückführen?
Gibt es Strategien, Bias bereits im Pre‑Fine‑Tuning‑Modell zu adressieren?
Welchen Einfluss haben diverse Training‑Korpora und kulturelle Kontexte konkret?
Related queries:
Wie kann die Trainingsdatenbasis von LLMs ausgeglichen werden, um politische Voreingenommenheit zu reduzieren? Welche Rolle spielt Fine‑Tuning bei der Verstärkung oder Abschwächung von politischer Neigung in großen Sprachmodellen? Inwiefern beeinflussen Sprachvariante und Kultur die politische Ausrichtung von LLM‑Ausgaben?
