Direkt zum Seiteninhalt springen

Generative KI

Was ChatGPT für Bildung und Wissenschaft bedeutet

Bild: Ascannio/Shutterstock

Sie schreiben Seminararbeiten, wissenschaftliche Fachartikel und können sogar Experimente konzipieren. Welche Folgen Sprach-KI-Systeme wie ChatGPT für Bildung und Wissenschaft haben, hat das Büro für Technikfolgenabschätzung in einer umfangreichen Studie bewertet. Wir sprachen mit Steffen Albrecht, Autor der Studie.

Die Sprach-KI ChatGPT liefert Texte, die wirken, als hätte ein Mensch sie geschrieben. Das verändert den Alltag an Schulen und in der Forschung radikal: Der Chatroboter erleichtert Betrug genauso wie den Zugang zu Wissen. Das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) hat die Auswirkungen im Auftrag des Deutschen Bundestages untersucht. Das Büro wird vom Karlsruher Institut für Technologie (KIT) betrieben und berät das Parlament bei forschungs- und technologiepolitischen Fragen. Steffen Albrecht ist wissenschaftlicher Mitarbeiter im TAB.

Herr Albrecht, vor kurzem haben KI-Forschende gemeinsam mit KI-Entwickler:innen einen offenen Brief veröffentlicht: Sie fordern ein Moratorium. Weltweit sollen keine KIs mehr trainiert werden, die leistungsfähiger sind als die neueste Version von ChatGPT. Viele renommierte Fachleute haben den Aufruf unterschrieben, mittlerweile zählt das Schreiben fast 28.000 Unterschriften. Haben auch Sie den Brief unterschrieben?

Nein, dafür finde ich den offenen Brief etwas zu weltfremd: Das Moratorium soll nur für sechs Monate gelten. In dieser Zeit sollen die Gesetzgeber weltweit Regeln für den Gebrauch von Modellen wie ChatGPT erlassen – so schnell laufen politische Prozesse aber nicht. Auch wir Forscher:innen werden nicht innerhalb eines halben Jahres zu einem abschließenden Urteil über die Auswirkungen kommen. Durch das Moratorium entsteht zudem der Eindruck, dass lediglich neue KI-Systeme Risiken bergen, während die bereits existierenden vollkommen unproblematisch seien – was nicht stimmt. Und mich verwundert auch, dass so viele KI-Entwickler:innen den Aufruf unterzeichnet haben: Sie könnten doch sofort reagieren und mögliche Fehlentwicklungen in ihrer eigenen Firma stoppen. Stattdessen hat zum Beispiel Elon Musk das Moratorium unterzeichnet – und gleichzeitig ein KI-Unternehmen gegründet. Insofern hinterlässt mich dieses Moratorium mit sehr gemischten Gefühlen.

Sind es tatsächlich gemischte Gefühle? Sie lehnen es doch eindeutig ab

Steffen Albrecht. Bild: TAB/Konstantin Börner

Nein, denn die Forderung nach einem Moratorium hat für große öffentliche Aufmerksamkeit gesorgt. Es ist sinnvoll, jetzt eine breite Debatte darüber zu führen, wie wir mit KI-Systemen umgehen wollen. Die Gesellschaft muss sich klar machen, auf was sie sich da einlässt und welche Regeln wir vereinbaren wollen. Auf den offenen Brief kamen dann ja auch viele Reaktionen: Zahlreiche Fachleute haben auf die Chancen hingewiesen, die derartige Programme bieten, andere betonen, dass wir die Fähigkeiten von Programmen wie ChatGPT zum Teil überschätzen – sie wirken mitunter intelligenter und damit bedrohlicher, als sie tatsächlich sind.

Erste Städte, Länder und Hochschulen haben ChatGPT aber sogar verboten oder lassen es nur eingeschränkt zu. Halten Sie das für sinnvoll?

Ein generelles Verbot ist in meinen Augen zu pauschal, denn Systeme wie ChatGPT bergen Gefahren und Potenziale gleichermaßen. Einerseits können sie für uns zum Beispiel lästige Routineaufgaben übernehmen oder den Zugang zu Wissen vereinfachen. Andererseits liefern sie aber auch Fake-News oder reproduzieren bestimmte Vorurteile, indem sie etwa Geschlechtsstereotypen bedienen. Selbst für uns als Expert:innen für Technikfolgen ist es deshalb noch zu früh, die Auswirkungen der Programme abschließend zu beurteilen – darauf weisen wir auch in unserer gerade veröffentlichten Studie hin.

Es stellen sich aber schon jetzt konkrete Fragen, zum Beispiel in der Forschung. Die Software dürfte verlockend sein für Wissenschaftler:innen, die betrügen wollen.

Natürlich, das ist ein großes Thema! Programme wie ChatGPT könnten die Zahl der Betrugsfälle in der Wissenschaft potenzieren, denn schon heute herrscht dort ein hoher Druck, möglichst viel zu publizieren. Es ist also leicht vorstellbar, dass sich Forschende dazu verleiten lassen, ein KI-System ihre Studien schreiben zu lassen. Das lehnen viele Wissenschaftsverlage allerdings kategorisch ab, schließlich kann ChatGPT keine Verantwortung für die Inhalte eines Textes übernehmen. Gleichzeitig deutet sich aber an, dass das System beim wissenschaftlichen Schreiben auch hilfreich sein könnte, zum Beispiel wenn es darum geht, sich einen Überblick über die relevante Literatur zu verschaffen oder in einer anderen als der Muttersprache zu publizieren.

Kann ChatGPT schon ganze Studien oder wissenschaftliche Artikel schreiben?

Die Überlegungen gehen sogar schon darüber hinaus: Solche Systeme könnten künftig nicht nur Forschungsergebnisse formulieren, sondern sogar chemische Experimente konzipieren und durchführen – das hat eine Studie gezeigt. Darin hat ChatGPT Versuchsreihen zu einer vorgegebenen Fragestellung geplant und sie weitergeleitet an ein automatisiertes Pipettiersystem. Auch wenn damit bisher nur die Machbarkeit gezeigt werden sollte, verdeutlicht diese Studie, wie grundlegend die wissenschaftliche Praxis betroffen sein könnte. Die bislang erschienenen Artikel, die teilweise oder weitgehend mithilfe von ChatGPT oder verwandten Systemen verfasst wurden, zeigen dagegen eher die Grenzen des Systems auf – allzu originell sind die Ergebnisse nicht ausgefallen. Aber das lässt sich natürlich nur für die Fälle beurteilen, in denen die Nutzung von ChatGPT transparent gemacht wurde.

Wird es in absehbarer Zeit technisch möglich sein zu erkennen, ob Texte von einer KI stammen?

Das bezweifle ich stark, denn ChatGPT erzeugt meist Unikate: Die Texte setzen sich nicht zusammen aus Versatzstücken aus verschiedenen Quellen, sondern sie werden gewissermaßen auf jede Anfrage hin Wort für Wort neu zusammengesetzt. Bereits existierende Software zum Aufspüren von Plagiaten scheitert hier also – und neue Programme werden zwar trainiert, laufen bislang aber nur mit mäßigem Erfolg. Vielversprechender wäre eine Art Wasserzeichen: Dabei werden bestimmte Muster in die Texte eingestreut, die uns Menschen beim Lesen nicht stören, maschinell jedoch erkennbar sind. Technisch stellen sich dabei aber noch einige Herausforderungen, zudem müssen die Entwickler:innen der KI-Systeme mitspielen und das Verfahren in ihren Systemen verwenden.

Wie können wir Leistungen dann noch fair beurteilen, etwa an Schulen und Hochschulen?

Indem wir zum Beispiel die Prüfungen dort anders gestalten: Schüler:innen und Studierende geben nicht mehr nur einen fertigen Text ab, der dann als gut oder schlecht bewertet wird, sondern sie tauschen sich schon viel früher mit ihren Lehrkräften aus. Etwa über die Entwicklung einer Fragestellung, über die Suche nach Quellen oder den Aufbau einer Argumentation – gerade im Umgang mit Quellen kann ein KI-System wie ChatGPT nur sehr bedingt helfen. Bereits diese Zwischenschritte werden dann von den Professorinnen und Lehrern begutachtet. Die Begleitung der Lernenden steht also stärker im Fokus, das ist gerade an Schulen wichtig.

Warum?

Weil die Programme sonst soziale Ungleichheiten verstärken könnten. Das hat sich schon bei anderen digitalen Lehr- und Lernangeboten gezeigt: Von solchen Apps profitieren Studien zufolge bislang vor allem leistungsstarke Schüler:innen. Eher schwächere Kinder und Jugendliche lernen damit weniger effektiv. Ähnliches erzählen uns Lehrerinnen und Lehrer auch über ChatGPT. Am TAB sorgt uns aber auch noch ein weiteres Problem: der Datenschutz.

Welche Risiken sehen Sie?

Schüler:innen nutzen mit ChatGTP ein System, das von einer Privatfirma in den USA betreut wird. Sie füttern es womöglich mit einer großen Menge an sehr persönlichen Daten und legen dabei auch Informationen über ihre Leistungen offen. Das sehen wir als sehr bedenklich an. Die italienische Datenschutzbehörde hat ChatGPT deshalb sogar verboten und fordert von den Entwicklern Nachbesserungen. Wir am TAB sehen aber auch große Chancen in derartigen Programmen.

Welche?

Bleiben wir kurz bei den Schulen: Dort könnten sprachbasierte Systeme wie ChatGPT helfen, Lernangebote differenziert aufzubereiten. Sie entwickeln dann Aufgaben zum selben Inhalt, aber auf unterschiedlichen Schwierigkeitsgraden – je nach Lernniveau des jeweiligen Kindes. Hier sehe ich sehr großes Potenzial!

Und an den Hochschulen?

Dort sind die Programme in erster Linie für Fächer interessant, die viel mit Sprache arbeiten, also vor allem in den Sozialwissenschaften. Erste Lehrende setzen ChatGPT dort bereits wie einen Sparringspartner ein: Die App entwirft stimmige Gegenargumente zu einer Position, , mit denen sich die Studierenden dann auseinandersetzen müssen – das schult das eigene Denken. Schwieriger sieht es in den Naturwissenschaften aus: Dort sind logisches Denken und mathematische Fähigkeiten zentral und auf diesen Feldern ist ChatGPT bisher schwach.

Gibt es Überlegungen, das Programm auch in der Forschung zu nutzen?

Ja, zum Beispiel in der Medizin: KI könnte in der Genomanalyse hilfreich sein, denn die Modelle lesen genetischen Code in ähnlicher Weise wie menschliche Sprachen – und erkennen darin Muster und Unregelmäßigkeiten. Dieser Forschungszweig nutzt allerdings auch schon andere KI-Systeme, die weit entwickelt sind. Ob ChatGPT deren Ergebnisse übertrifft, müssen wir noch abwarten. Das System entwirft außerdem Programmcode – auch diese Fähigkeit könnte für die Wissenschaft interessant sein, denn Forschende nutzen oft speziell designte, wissenschaftliche Software ebenso wie kleinere Hilfsprogramme. ChatGPT beherrscht verschiedene Programmiersprachen und liefert Code, der zwar nicht immer direkt nutzbar ist, nach einer Überarbeitung aber schon recht überzeugend läuft. Oder es werden Verbesserungspotenziale aufgezeigt, elegantere Lösungen. Hier zeigen Systeme wie ChatGPT ihren großen Nutzen, weil sie uns die Arbeit leichter machen – nicht nur in der Wissenschaft, auch in vielen anderen Bereichen.

Haben Sie ein Beispiel?

Ja, die Rechtsberatung. Jurist:innen arbeiten oft sehr routiniert, etwa wenn sie Verträge prüfen. Das kann künftig möglicherweise ein KI-System genauso gut übernehmen,, dazu läuft am Oberlandesgericht Stuttgart ein Pilotprojekt. Positive Effekte könnten sich aber zum Beispiel auch für die Inklusion behinderter Menschen zeigen: Noch immer sind erst wenige Texte in leichte Sprache übersetzt, hier könnten künftig ChatGPT oder verwandte Systeme einen wichtigen Beitrag leisten. Das System birgt also zahlreichen Chancen, genauso wie Risiken – auf beide weisen wir in unserer Studie hin. Sie liefert ein Nebeneinander von Pro und Contra, das lässt sich im Moment noch nicht vermeiden. Für eine Festlegung ist es derzeit noch zu früh.

Leser:innenkommentare