Können wir KI-Mythen entlarven? – NeurIPS 2025 in San Diego
Der Autor berichtet von seinem Besuch bei NeurIPS 2025 in San Diego, einer der größten KI‑Forschungskonferenzen. In einem kleinen Raum erläuterte Max Tegmark – ein prominentes Mitglied der AI‑Safety‑Community – potenzielle Gefahren von AGI (Artificial General Intelligence) und betonte, dass die Technologie das Ende der Menschheit herbeiführen könnte.
Tegmark lud den Autor zusammen mit fünf Journalisten zu einer privaten Briefing‑Session ein, in der er einen „AI‑Safety‑Index“ präsentierte. Alle teilnehmenden Unternehmen erzielten in diesem Index lediglich C+ – keine herausragenden Ergebnisse. Der Artikel reflektiert die wachsende Diskussion um superintelligente KI, wobei die Terminologie „AGI“ von Führungskräften wie Sam Altman des OpenAI als „schwach definiert“ kritisiert wird.
Ungeachtet des großen Einflusses hat generative KI bereits tiefgreifende Änderungen im Arbeitsleben und der Kultur bewirkt. Das Stück kritisiert überholte Narrative aus der KI‑Industrie, darunter die Vorstellung, KI lerne wie ein Mensch, über „emergente“ Fähigkeiten verfüge, dass Modelle tatsächlich „denken“ und dass die Technologie sich autonom weiter verbessern werde.
Die Atmosphäre des Events – inklusive exklusiver Partys und Buffets, die von AI‑Forscher:innen veranstaltet wurden – lässt den Autor die Debatte in einem breiteren gesellschaftlichen Kontext einordnen. Kulturkritiker haben in den letzten Jahren zunehmend die Sicherheit von KI als akutes Problem anerkannt, was auch die Autor*innen von The Atlantic in diesem Artikel betonen.
**Relatierte Fragen**
- Was sind die wichtigsten Kriterien des AI‑Safety‑Index von Max Tegmark?
- Wie bewertet die KI‑Forschung die Wahrscheinlichkeit einer AGI‑Basierrevolution?
- Welche Rolle spielen gesellschaftliche Kritiker in der Debatte um KI‑Risiken?
Quelle: The Atlantic
