Faulheit und Arbeit
Von Felix Bartels
Wer wissenschaftliche Arbeit zu anstrengend findet, sollte sich wenigstens beim Bescheißen Mühe geben. Monument dieses Leitgedankens ist die berüchtigte Doktorarbeit des Karl-Theodor zu Guttenberg. Eine Collage, gesammelt und zusammengestellt mit einer Arbeitswut, die den Gedanken nahelegt, dass die hierfür nötige Energie auch gleich in wissenschaftliches Arbeiten hätte gesteckt werden können. Plagiieren findet stets zwischen den Polen der Krafteinsparung und des zur Illusion nötigen Aufwands statt. Mit dem Erscheinen von künstlicher Intelligenz (KI) wurde letzterer verschoben, es ist weniger Fleiß nötig, und das kann dazu führen, dass die Essichleichtmacher es sich noch leichter machen, zu leicht.
KI-Protokolle wie Chat-GPT und Deep Seek haben längst Eingang in wissenschaftliches Arbeiten gefunden. Das ist zunächst nicht anstößig. Mit Hilfe der Tools lassen sich große Datenmengen zügiger auswerten und Muster ermitteln, die aufgrund von Unüberschaubarkeit wohl verborgen blieben. Auch bei Übersetzungen in andere Sprachen oder beim Erfassen von Sekundärliteratur sind die Programme hilfreich. Fachjournale fordern allerdings, dass die Beteiligung von KI beim Erstellen von Forschungstexten angegeben werden muss. Zudem haben fast alle Fachverlage KI-betreffende Richtlinien in ihre Geschäftsbedingungen aufgenommen. Als opportun wird vor allem die sprachliche Feinjustierung von Texten angesehen, die in eine andere Sprache übersetzt wurden. Diese Beihilfe muss deklariert werden, während das vollständige Erstellen eines Textes durch KI weiterhin verboten bleibt.
Eine Untersuchung an der University of Economics in Katowice hat sich diesem Problem gewidmet. »Es wird zunehmend beobachtet, dass von Chat-GPT generierter Inhalt undeklariert und unentdeckt in wissenschaftlichen Journalen erscheint«, schreibt Artur Strzelecki in Learned Publishing, einem Fachblatt für Fragen und Probleme wissenschaftlicher Publikationstätigkeit. »Das deutet auf ein wachsendes Problem mit der Peer-Review und dem Editions- und Begutachtungsprozess in wissenschaftlichen Publikationen hin.«
Ansatz der Untersuchung war, dass KI-Programme Standardphrasen benutzen, wie »Gerne, hier sind einige …«, »Meinem letzten Wissensupdate zufolge …«, »Ich habe keinen Zugang zu …« oder »Als KI-Sprachmodell kann ich …«. Autoren, die KI-Texte verwenden, wären gut beraten, solche Phrasen aus »ihren« Texten zu tilgen. Dass das offensichtlich nicht alle tun, ist Resultat der Untersuchung von Strzelecki, der einschlägige Datenbanken gezielt nach solchen Wendungen durchsucht hat. So fand er für den Zeitraum von Ende 2022 bis Anfang 2024 ingesamt 1.362 Fachtexte mit entsprechenden Merkmalen und ohne Angabe einer KI-Mitarbeit. Die meisten der identifizierten Fälle fanden sich in weniger renommierten Zeitschriften. 89 Arbeiten aber erschienen in durchaus angesehenen Journalen, besichtigt durch sogenannte Peer-Reviews (wissenschaftlich fundierte, von Fachkollegen unabhängig von der zu begutachtenden Forschungsarbeit vorgenommene Prüfungen).
Mehr noch als die Nachricht dieser KI-Arbeit verblüfft demnach, dass die betreffenden Forscher damit durchkamen. »Wie kann man«, so Strzelecki, »wissenschaftlichen Journalen trauen, wenn selbst sie so nachlässig geprüfte Inhalte veröffentlichen?«
links & bündig gegen rechte Bünde
Jetzt den kostenlosen jW-Newsletter abonnieren – täglich das Beste aus der Tageszeitung junge Welt, direkt in Ihr Postfach. Ihre E-Mail-Adresse wird natürlich niemals an Dritte weitergegeben.
Mehr aus: Natur & Wissenschaft
-
Der Knick in der Optik
vom 18.02.2025