Kategorien
KI-News

Schatten über der Wissenschaft: KI-Textgeneratoren in Forschungsarbeiten

In den Universitäten sorgt die Verwendung von Künstlicher Intelligenz (KI) in wissenschaftlichen Arbeiten für Unruhe. Im vergangenen Jahr wurden auffällige Spuren von Textgeneratoren in Studien entdeckt. Von vermeintlichen Quellenangaben bis hin zur unbeabsichtigten Einfügung von ChatGPT-Texten reichen die Schwierigkeiten, die Forscher plagten. Besonders brisant: Eine Mathe-Studie musste sogar zurückgezogen werden, nachdem die Schaltfläche „Regenerate Response“ unbeabsichtigt integriert wurde.

Das zentrale Problem dabei ist die intransparente Nutzung von KI-Texten, die Leistungen vortäuschen kann. Experten warnen davor, dass Programme wie ChatGPT, obwohl sie auf Befehle reagieren können, noch weit von menschlicher Intelligenz entfernt sind. In Universitäten herrscht Alarmstimmung, da die bisherigen Detektoren-Software oft unzuverlässig ist und kaum zwischen menschlichem und maschinengeneriertem Text unterscheiden kann.

Die Berliner Plagiatsforscherin Debora Weber-Wulff betont, dass bisherige Detektoren-Software nicht effektiv sei und eine einfache Lösung nicht in Sicht sei. Laut einer Studie, an der Weber-Wulff beteiligt war, wurden etwa fünfzehn Detektoren getestet, von denen keiner zuverlässige Ergebnisse lieferte. Das Hauptproblem liegt darin, dass rund jeder fünfte mit KI erzeugte Text unerkannt bleibt, was sich noch verschärft, wenn der Text vom Menschen überarbeitet wurde.

Die Schwierigkeit, KI-Texte zu identifizieren, macht es Hochschulen schwer, Fehlverhalten zu beweisen. Im Gegensatz zu Plagiaten fehlen klare Belege und eine Gegenüberstellung mit dem Original. Die Unsicherheit führt dazu, dass die Systeme dazu neigen, menschliche Verfasser anzunehmen, um falsche Anschuldigungen zu vermeiden.

Debora Weber-Wulff betont die Dringlichkeit, dass Universitäten ihre Haltung zu KI-Textgeneratoren klären müssen. In einer Studie über Detektoren wird darauf hingewiesen, dass Bildungseinrichtungen nicht darauf vorbereitet waren, wie schnell sich KI-Tools verbessern können.

Ein Sprecher der Landeskonferenz der Rektoren und Präsidenten in Berlin teilt mit, dass man die Entwicklung genau beobachte und über den Umgang mit KI in Lehre und Forschung diskutiere. Bisherige Handreichungen erlauben den Einsatz von KI-Tools, legen jedoch die Entscheidung in die Hände der Lehrenden. Eine gemeinsame Berliner Strategie steht noch aus.

Debora Weber-Wulff kritisiert, dass bisher keine gemeinsame Ombudsstelle für wissenschaftliche Praxis existiert, um Fälle zu überprüfen. Die LKRP plant zwar eine solche Stelle, aber ein genauer Zeitplan steht noch aus. Weber-Wulff fordert eine Überprüfung der Leistungsmessung und eine transparente Nutzung von KI-Tools. Die Vermittlung von Standards des akademischen Schreibens sei entscheidend, um dem problematischen Einsatz von KI entgegenzuwirken.

https://www.welt.de/wissenschaft/article249776684/Betrug-mit-ChatGPT-Es-ist-ein-grosses-Problem-dass-die-Universitaeten-dazu-bisher-schweigen.html

Schreibe einen Kommentar