KI erzeugt falsche Archivreferenzen: Warnung des ICRC
Künstliche Intelligenz erzeugt falsche Archivreferenzen, was zu massiven Anfragen nach imaginären Zeitschriften führt und die wissenschaftliche Integrität gefährdet. Der ICRC warnt, dass populäre KI‑Modelle wie ChatGPT und Gemini Studienarbeiten mit nicht existierenden Quellen verzerren können.
Die gefälschten Referenzen führen zu einer Rekordzahl an Anfragen bei Repositorien, die legitime Forschungsarchive betreiben, und stören die wissenschaftliche Arbeit. Der ICRC ruft zur Aufmerksamkeit der KI‑Entwickler auf und wirft die Frage auf, wie Datenmodelle validisiert und ihre Ausgaben überwacht werden können.
Scientific American hat die Betreiber der KI‑Modelle zur Stellungnahme aufgefordert und betont die Bedeutung von Faktenkontrolle und akademischer Integrität im Zeitalter der generativen KI.
Quelle: Scientific American Artikel
