China setzt eine umfassende Regulierung für KI-Systeme ein, die menschliches Verhalten simulieren, und verlangt sowohl strukturelle Transparenz als auch psychologische Sicherheitsmechanismen, einschließlich Überwachung emotionaler Abhängigkeiten und verpflichtender Pausen für Nutzer.
Key Takeaway
China setzt eine umfassende Regulierung für KI-Systeme ein, die menschliches Verhalten simulieren, und verlangt sowohl strukturelle Transparenz als auch psychologische Sicherheitsmechanismen, einschließlich Überwachung emotionaler Abhängigkeiten und verpflichtender Pausen für Nutzer.
Summary
- Regulierungsrahmen: Der neue Entwurf der Cyberspace Administration of China (CAC) richtet sich an KI-Systeme, die menschliches Verhalten nachahmen und zu emotionalen Interaktionen führen.
- Betroffene Produkte: Systeme mit mehr als einer Million registrierten Nutzern oder über 100.000 monatlich aktiven Nutzern, unabhängig von Kommunikationsmedium (Text, Bild, Ton usw.).
- Transparenz‑ und Nachvollziehbarkeitspflicht: Anbieter müssen während des gesamten Produkt‑Lebenszyklus Transparenz, Datensicherheit und Schutz persönlicher Nutzerdaten gewährleisten.
- Psychologische Notfallpläne: Anbieter sollen Mittel bereitstellen, Stimmungen und emotionale Abhängigkeiten erkennen; bei signifikanten Risiken muss ein menschlicher Ansprechpartner einspringen; Minderjährige und ältere Nutzer sind verpflichtet, Notfallkontakte zu hinterlegen; regelmäßige und prominente Warnhinweise über KI‑Interaktion; bei erkannten Abhängigkeitsmustern zusätzliche Pop‑ups; nach einer Nutzungsdauer von mehr als zwei Stunden ist eine Zwangspause erforderlich.
- Beschränkung der Trainingsdaten: Artikel 10 verlangt, dass Trainingsdatensätze den Grundwerten des Sozialismus und den traditionellen Werten Chinas entsprechen; Unternehmen müssen die Nachvollziehbarkeit der Trainingsdaten dauerhaft sicherstellen; Systeme dürfen keine Inhalte generieren, die nationale Sicherheit gefährden oder die soziale Ordnung stören.
- Implikationen für internationale Anbieter: Die Anforderungen stellen besondere Herausforderungen dar, wenn Unternehmen Daten aus dem Ausland importieren oder globale Plattformen nutzen.
Related queries:
Wie definiert China „anthropomorphe KI“ genau? Welche Maßnahmen sollen Anbieter bei erkennbaren emotionalen Abhängigkeiten ihrer Nutzer ergreifen? Wie wirken sich die Trainingsdatenspezifikationen auf ausländische Unternehmen aus, die KI‑Modelle in China einsetzen wollen?
Quelle: heise.de
