Transparenz bei KI-Chatbots: Quellenangaben, Schritt‑für‑Schritt‑Erklärungen und klare Disclaimer
Erklärungen von KI‑Chatbots sind häufig unzuverlässig, was zu übermäßigem Vertrauen führt. Designer sollten klare, prüfbare Quellen, realistische Erwartungen und transparente Disclaimer einsetzen, um die Vertrauensbildung kritisch zu beeinflussen.
Key Takeaway
Die wichtigsten Erkenntnisse aus der Studie zeigen, dass unzuverlässige Quellen und fehlende Disclaimer die Glaubwürdigkeit von Chatbots erheblich mindern.
Technische Grenzen und Gefahren
- Moderne Modelle sind so komplex, dass Entwickler oft nicht nachvollziehen können, warum ein Ergebnis zustande kommt.
- Chatbots liefern manchmal selbstgewonnene („halluzinierte“) Quellen oder Verweise auf nicht existierende URLs.
- Benutzer klicken selten auf Quellenlinks, wodurch verlässlichere Quellen ignoriert werden.
Bestehende Erklärungsmuster
- Quellenangaben: häufig ungenau, 404‑Fehler oder irrelevante Inhalte.
- Schritt‑für‑Schritt‑Erklärungen: scheinbar nachvollziehbar, aber oft nachträglich rationalisiert.
- Disclaimer: wirken nur, wenn klar, direkt und an strategischer Stelle platziert.
Design‑Empfehlungen
- Quellen: Höhere Sichtbarkeit, Trennung vom Haupttext, Verlinkung zu relevanten Textstellen.
- Schritt‑für‑Schritt: Vermeiden unrealistische Sicherheit, stattdessen klare Quellenangaben.
- Disclaimer: Klare, jargonfreie Sprache, Aktionsaufforderung und Hervorhebung.
- Sprachstil: Neutral, faktenbasiert, vermeiden anthropomorpher Ausdrucksweise.
Praxisbeispiele
- Copilot: Quellen als klickbare Chips mit Hover‑Vorschau, getrennt vom Haupttext.
- Perplexity: Inline‑Zitate, direkte Prüfung im Kontext.
- Claude: Deutlicher Disclaimer mit Handlungsaufforderung.
Weitere Fragen: Wie beeinflussen halluzinierte Quellen das Vertrauen der Nutzer in KI?
