ChatGPT & Co.

Berliner Schummel-Studenten: Immer mehr täuschen mit KI-Programmen!

Eine Berliner Plagiatsforscherin erklärt, dass die Hilfe durch Künstliche Intelligenzen oft kaum noch zu erkennen ist. Hochschulen reagieren hilflos.

Teilen
Immer mehr Berliner Studenten nutzen unbemerkt KI-Programme für ihre Arbeiten.
Immer mehr Berliner Studenten nutzen unbemerkt KI-Programme für ihre Arbeiten.Julian Stratenschulte/dpa

Ist es Betrug oder ein nützliches Helferlein? Immer mehr Berliner Studenten lassen sich bei ihren Arbeiten von Künstlichen Intelligenzen (KI), von sogenannten KI-Textgeneratoren, helfen und verschaffen sich auf diese Weise Vorteile. Und immer mehr Studenten werden beim Schummeln erwischt. Doch auch immer mehr Arbeiten rutschen durch, ohne dass die Universitäten die KI-Hilfe erkennen. Eine Plagiatsforscherin geht von verbreiteter Nutzung aus und rechnet nicht mit technischen Gegenmitteln.

Es ist wohl die Spitze des Eisbergs, die da zutage getreten ist: Im vergangenen Jahr sind in einzelnen wissenschaftlichen Arbeiten deutliche Hinweise auf den Einsatz von Textgeneratoren auf der Basis von Künstlicher Intelligenz (KI) gefunden worden. Zum Beispiel Angaben zu vermeintlichen Quellen, die bei genauerem Hinsehen nicht existierten, weil sie wohl von der KI erfunden worden waren. Oder Texte aus der ChatGPT-Benutzeroberfläche, die von den Verfassern offensichtlich versehentlich mit in ihre Arbeit hineinkopiert wurden. Etwa die frühere Schaltfläche „Regenerate Response“ („Antwort erneuern“) – deshalb wurde eine Mathe-Studie sogar zurückgezogen, wie im September 2023 in einem Nature-Nachrichtenbeitrag zu lesen war.

ChatGPT & Co.: Mehr als jeder fünfte mit KI erzeugte Text wird nicht als solcher erkannt

Als Problem gilt KI-Text-Nutzung insbesondere dann, wenn sie nicht transparent gemacht wird. Wenn also womöglich Leistungen vorgetäuscht werden. Die Frage nach dem Umgang mit der Technologie stellt sich auch an Hochschulen, seit ChatGPT Ende 2022 veröffentlicht wurde und einen KI-Hype auslöste. Das Programm und weitere ähnliche Angebote können auf Befehle hin Texte auf dem Sprachniveau von Menschen formulieren und beispielsweise Informationen zusammenfassen. Von menschlicher Intelligenz sind sie laut Fachleuten bisher aber weit entfernt.

Inzwischen gibt es Programme, mit denen man KI-Texten auf die Schliche kommen können soll. Ist damit Schluss mit Schummeln? Keineswegs, meint eine Expertin. „Die Hoffnung, dass es eine einfache Softwarelösung zum Enttarnen von KI-Texten gibt, wird sich nicht erfüllen“, sagte die Berliner Plagiatsforscherin Debora Weber-Wulff von der Hochschule für Technik und Wirtschaft. „Es gibt zwar sehr viel angebliche Detektoren-Software, aber sie tut nicht das, was sie soll.“ 

Debora Weber-Wulff ist Professorin an der Hochschule für Technik und Wirtschaft Berlin. Die Plagiatsforscherin ist Expertin für Künstliche Intelligenz.
Debora Weber-Wulff ist Professorin an der Hochschule für Technik und Wirtschaft Berlin. Die Plagiatsforscherin ist Expertin für Künstliche Intelligenz.Arne Dedert/dpa

An einer Studie, für die 14 angebliche KI-Detektoren getestet wurden, hat Weber-Wulff mitgearbeitet. Demnach lieferten diese Tools keine verlässlichen Ergebnisse, wenn es um die Frage ging, ob ein Mensch oder eine Maschine einen Text verfasst hat. Davon berichtete das Forschungsteam Ende Dezember im International Journal for Educational Integrity. „In unsicheren Fällen neigen die Systeme dazu, menschliche Verfasser anzunehmen“, erklärt Weber-Wulff. „Denn es ist natürlich nicht gewollt, dass Leute zu Unrecht beschuldigt werden. Das wäre im Bildungsbereich auch katastrophal.“

Die Studie macht aber als Kernproblem aus, dass rund jeder fünfte mit KI erzeugte Text nicht als solcher erkannt wurde. Die Rate nicht von den Programmen erkannter KI-Nutzung steigt laut der Studie weiter an, wenn der KI-Text vom Menschen noch überarbeitet wurde.

Universitäten schweigen bisher zu diesem Problem

Die Ergebnisse der Detektoren seien für Durchschnittsnutzer auch nicht einfach zu interpretieren: Manche lieferten eine Prozentangabe zur Wahrscheinlichkeit, dass der Text von einem KI-Tool produziert worden sei. Konkrete Belege fehlten – sodass es Hochschulen sehr schwer haben dürften, auf dieser Grundlage Fehlverhalten nachzuweisen. „Anders als bei Plagiaten ist ja keine Gegenüberstellung mit dem Original möglich“, sagt Weber-Wulff.

Zu etwaigen bisherigen Verstößen von Studenten, die einen KI-Einsatz nicht deklarieren, liegen der für Wissenschaft zuständigen Berliner Senatsverwaltung keine Informationen vor, wie es auf Anfrage heißt. Weber-Wulff kennt nach eigenen Angaben aber Fälle, in denen Dozenten Verdacht schöpften und Studenten die KI-Verwendung einräumten.

Dass diese KI-Textgeneratoren „auf breiter Front“ nutzten und wohl auch häufig kein Unrechtsbewusstsein hätten – davon sei auszugehen. „Es ist ein großes Problem, dass die Universitäten dazu bisher schweigen. Wir müssten klarstellen: Was wollen wir, was erlauben wir und was nicht?“

In der Studie über Detektoren halten die Fachleute fest, dass höhere Bildungseinrichtungen nicht darauf vorbereitet gewesen seien, wie schnell und radikal sich frei zugängliche KI-Tools verbessert hätten. Die Anwendung sei auch nicht zwangsläufig immer unethisch.

Das Programm ChatGPT wurde im November 2022 veröffentlicht und breitet sich rasant aus.
Das Programm ChatGPT wurde im November 2022 veröffentlicht und breitet sich rasant aus.Sebastian Bozon/AFP

Berliner Hochschulen beobachteten die Entwicklung aufmerksam und man diskutiere an den Einrichtungen über den Umgang mit dem Einsatz von beispielsweise ChatGPT in Lehre und Forschung, teilt ein Sprecher der Landeskonferenz der Rektoren und Präsidenten (LKRP) mit. Zwar setze man sich auch mit Lösungen und Möglichkeiten auseinander, um durch KI erzeugte Inhalte in Forschung und Lehre zu erkennen. Im Fokus stehe „aber insbesondere die Frage nach einem zukunftsfähigen Umgang mit den Möglichkeiten, die KI-basierte Tools bieten. Auch über eine gemeinsame berlinweite Strategie wird nachgedacht, diese liegt aber noch nicht vor.“

Ombudsstelle an den Hauptstadt-Hochschulen existiert bisher nicht

Bisher gibt es individuelle Handreichungen zum Thema. In einem Eckpunktepapier der Freien Universität Berlin zum Beispiel wird klargestellt, dass die Dozenten selbst entscheiden können, ob und wie sie die Tools einsetzen. Zur Pflicht darf dies bisher nicht gemacht werden. Zu Prüfungen heißt es: Sofern KI-basierte Tools nicht ausdrücklich dafür zugelassen sind, täuschten Studenten durch deren Einsatz über die Eigenständigkeit ihrer Leistung.

An der Freien Universität Berlin heißt es: Studenten schummeln beim Einsatz von KI-basierten Tools für Arbeiten, wenn diese nicht ausdrücklich zugelassen sind.
An der Freien Universität Berlin heißt es: Studenten schummeln beim Einsatz von KI-basierten Tools für Arbeiten, wenn diese nicht ausdrücklich zugelassen sind.Jens Kalaene/dpa

Weber-Wulff bemängelt, dass eine gemeinsame Ombudsstelle der Hauptstadt-Hochschulen für gute wissenschaftliche Praxis bisher nicht existiert, obwohl deren Einrichtung 2021 im Berliner Hochschulgesetz festgeschrieben wurde. Die Stelle sollte zum Beispiel auf Antrag von Hochschulen Einzelfälle prüfen und wäre aus Sicht der Informatikerin geeignet, sich auch der KI-Fragen anzunehmen. Laut LKRP ist die gemeinsame Stelle derzeit in Planung, einen genauen Zeitplan gebe es aber noch nicht. An den drei großen Unis und der Charité etwa stehen jedoch Ombudspersonen zu guter wissenschaftlicher Praxis bereit.

„Wir müssen sehr stark überdenken, wie wir Leistung messen“, fordert Weber-Wulff. Das kann heißen, dass Aufgaben künftig ganz anders als bisher gestellt werden sollten. Zum Beispiel, dass es darum geht, Fehler in Antworten von KI-Tools zu finden. Weber-Wulff nennt sie „Papageien“: Sie plapperten nur nach, was sie einmal gehört hätten.

Wichtig sei daher, Studenten die Standards akademischen Schreibens zu vermitteln, etwa den Sinn von Fußnoten. Wenn KI-Systeme genutzt würden, sei ein transparenter Umgang damit geboten. „Und man muss die volle Verantwortung für allen Mist übernehmen, der vom System produziert wurde. Keine Ausreden.“ ■