de / en
Ein offenes und ein geschlossenes Buch liegen schräg aufeinander, aus deren Seiten fallen einzelne Buchstaben heraus und sammeln sich daneben unsortiert.

ChatGPT in der Wissenschaft: Text als Mittel zum Zweck?

Der Einsatz generativer Sprachmodelle eröffnet Fragen über die Bedeutung von Textarbeit in der Wissenschaft. Wir sprachen mit Anne Krüger und Ingmar Mundt über Kennzeichnungen, Publikationsfluten und Forschungsethik.

 

Ihr forscht zum Einsatz von KI-Sprachmodellen in der Wissenschaft. Wo werden die Tools bereits eingesetzt, wo können sie hilfreich sein – oder sogar die Qualität von Arbeiten verbessern?

Anne Krüger: ChatGPT und andere textgenerierende KI sind auch in der Wissenschaft ziemlich eingeschlagen und werden seitdem umfassend diskutiert: einerseits im Hinblick auf Auswirkungen auf die Lehre; andererseits aber auch mit Blick auf die Forschung und insgesamt den wissenschaftlichen „Alltag“, der auch aus jeder Menge administrativer Aufgaben besteht. Vor allem bei letzterem werden die Potenziale von textgenerierender KI positiv diskutiert und als Unterstützung administrativer Prozesse gesehen, indem beispielsweise aus Stichworten dann dem jeweiligen Kontext angemessener Text generiert werden kann.

Als mögliche Verbesserung wird aber auch die Unterstützung bei der Erstellung von wissenschaftlichen Texten diskutiert. Beispielweise wird hier argumentiert, dass insbesondere Personen, deren Muttersprache nicht Englisch - die  geläufige „Sprache der Wissenschaft“ - ist, von den Übersetzungsfähigkeiten und auch sprachlichen Verbesserungsvorschlägen profitieren können. Das könnte auch dazu beitragen, bestehende Ungleichheiten im Wissenschaftssystem zu relativieren.

Ingmar Mundt: Jedoch wird auch schnell deutlich, dass das Ausmaß der Unterstützung je nach Fachdisziplin sehr unterschiedlich eingeschätzt wird. Als Informatikerin mittels ChatGPT einen Programmcode schreiben oder prüfen zu lassen, ist etwas anderes, als in den Sozialwissenschaften die KI zu nutzen, um einen Artikel zu bearbeiten. Entscheidend ist hier, welchen Stellenwert Text an sich in einer Disziplin hat. Ist er Mittel zum Zweck, um Ergebnisse zu veröffentlichen? Oder ist ein Text und seine Argumentation selbst das Produkt wissenschaftlicher Arbeit?


Welche Probleme lauern beim Einsatz von ChatGPT in der Wissenschaft?

Anne Krüger:  Entscheidend sind hier sowohl technische Fähigkeiten, aber auch eine notwendige Fähigkeit zur Reflexion. Einerseits muss man insgesamt wissen, wie man so ein Tool bedient. Andererseits muss man aber auch weiterhin selbst einschätzen können, wie gut der KI-generierte Text tatsächlich ist. Ein Problem ist, dass oftmals nicht klar ist, was eigentlich die Datenbasis ist, auf deren Grundlage Text erzeugt wird. Hier werden aktuell neue Ungleichheiten befürchtet, da die Generierung von Text – vereinfacht gesagt - auf Wahrscheinlichkeiten und Häufigkeiten basiert, was dazu führen kann, dass weniger stark vertretene Themen und Thesen noch weiter in den Hintergrund gedrängt werden.

Ingmar Mundt: Es lässt sich ebenso die Frage stellen, ob diese Texte überhaupt einen informativen Neuigkeitsgehalt vorweisen. Manche befürchten sogar schon das Ende der Innovation, wenn textgenerierende KI zunehmend auf KI-generierte Texte zugreift. Soweit würden wir zwar erst einmal nicht gehen. Aber wir sehen auch, dass hierdurch jetzt die Möglichkeit gegeben ist, sehr schnell wissenschaftliche bzw. wissenschaftlich klingende Texte zu erzeugen. Es gibt Tools, die dazu gedacht sind, eine Zusammenfassung des aktuellen Stands der Fachliteratur zu erstellen. Es gibt Tools, die helfen sollen, Daten automatisiert auszuwerten und auch gleich in Grafiken aufzubereiten. Und ChatGPT hilft dann sowohl bei der Entwicklung einer Forschungsfrage als auch bei der Erstellung eines sprachlich passenden Textes für ein entsprechendes Journal. Die Befürchtung ist, dass es neben einer verantwortungsvollen Nutzung auch viele Personen geben wird, die hierbei wissenschaftliche Sorgfalt vermissen lassen, was jedoch in Zukunft wesentlich schwieriger zu überprüfen sein wird.

Anne Krüger:  Gleichzeitig wird aber auch über das Problem der Kommerzialisierung von solchen digitalen Infrastrukturen diskutiert. Dies könnte sich in Zukunft noch weiter verschärfen, wenn KI-gestützte Tools für den Forschungsprozess zentral werden, aber weiterhin von kommerziellen Anbietern vertrieben werden, so dass die zur Verfügung stehenden Ressourcen einer Forschungseinrichtung darüber entscheiden, wer sie nutzen und damit einen Vorsprung in der Antragsstellung, Durchführung und Publikation von Forschung erzielen kann.


Sind diese Probleme neu, oder werden damit bestehende Schwachstellen im Wissenschaftssystem offengelegt?

Anne Krüger: Diese mögliche Publikationsflut ist in ihrer Masse sicherlich neu. Jedoch besteht dieser Anreiz, möglichst viele Publikationen zu produzieren, schon länger und dies nicht zuletzt deshalb, weil Publikationen die „Währung“ in der Wissenschaft sind. Viel zu oft wird wissenschaftliche Leistung an der Anzahl von Publikationen gemessen. Wir benötigen hier schon lange ein Umdenken, damit wieder die Inhalte in den Blick genommen werden und deutlich wird, dass Wissenschaft nicht nur in Form von Publikationen stattfindet. Vielleicht bewirkt diese Publikations- und Antragsflut aber auch eine Inflation dieser „Währung“. Schließlich müssen all diese Publikationen und Anträge auch begutachtet werden. Vielleicht investiert man dann doch lieber die Zeit darin, Wissenschaftler:innen anhand ihrer inhaltlichen Erkenntnisse zu bewerten anstatt auf quantitative Metriken zu schauen.


Welche Fragen wirft das für eure Forschung auf?

Anne Krüger: Textgenerierende KI wird die wissenschaftliche Praxis verändern. Darin sind sich alle einig. Die Frage ist nur, wie? Deshalb brauchen wir die Wissenschafts- und Technikforschung, um zu verstehen, welchen Einfluss diese Technologie auf Wissenschaft hat. Welche neuen Potenziale, aber auch Risiken ergeben sich je nach Disziplin, wie wirkt sich dies auf wissenschaftliche Qualitätskontrolle aus, und welchen Effekt hat der Einsatz von textgenerierender KI auf das Wissenschaftssystem insgesamt, seine politische Steuerung und die Verteilung von Ressourcen. 

Wir müssen darüber nachdenken, welche KI-Tätigkeiten das wissenschaftliche Arbeiten zukünftig erleichtern können und welche Arbeit auch weiterhin menschliche Fähigkeiten und Kompetenzen voraussetzt. Welche Fähigkeiten müssen Wissenschaftler:innen zukünftig erlernen, um diese Werkzeuge einzusetzen und die Qualität der eigenen Forschungsarbeit zu erhöhen? Und wie verändert dies den wissenschaftlichen Erkenntnisprozess?

Zentral ist hier sicherlich aber auch der Blick darauf, woher die unterschiedlichen Tools kommen, wer sie unter welchen Voraussetzung und mit welchen Vorstellungen von wissenschaftlicher Praxis entwickelt und auch welcher Markt an unterschiedlichen Angeboten hier entsteht. Deutlich wird bereits jetzt, dass die Firmen, die sich in den letzten Jahren im Bereich der sogenannten „research analytics“ positioniert haben und bereits über umfangreiche Datenbanken verfügen, aktuell dabei sind, neue kommerzielle Nutzungsmöglichkeiten zu entwickeln.

Ingmar Mundt: Eine wichtige Frage im direkten Arbeiten mit den Tool ist, wo jeweils die Grenze zwischen Unterstützung und eigenständigem Beitrag gesehen wird bzw. wie man mit KI-generiertem Text umgeht: Wird der Text einfach unkritisch übernommen oder wird die Möglichkeit zur schnellen Datenverarbeitung genutzt, um hieraus vor dem Hintergrund eigener Überlegungen und Kenntnisse Anregungen und Informationen zu ziehen. Wie viel Fachwissen ist nötig, nicht nur um einen entsprechenden Text zu erzeugen, sondern auch, um auf diese Weise produzierten Text selbst einschätzen und bewerten zu können?

Und letztlich müssen wir uns fragen, wie wir mit den Ergebnissen einer KI unterstützten wissenschaftlichen Arbeit umgehen und welche Kennzeichnungspflichten eventuell nötig werden, um transparent dazulegen, welche Technologien im Prozess eingesetzt wurden.


Viele Universitäten kämpfen gerade damit, das Mitwirken von ChatGPT bei Hausarbeiten und Abschlussarbeiten zu  überprüfen. Wie sinnvoll ist der Einsatz dieser KI-Kontrollen?

Ingmar Mundt: Wie auch bereits in vielen anderen Bereichen der Digitalisierung ist die technische Entwicklung der KI immer schneller als ihre gesellschaftlichen oder politischen Kontrollmöglichkeiten. Eine Kontrolle ist daher nur begrenzt möglich; wichtiger ist es, den richtigen Umgang mit diesen Technologien beizubringen, wie man diese als Instrument nutzen kann und sie auch zur Verfügung zu stellen, weil sonst Ungleichheiten entstehen zwischen denen, die Zugang haben, und denen, die keinen Zugang haben.

Wer Technologien missbräuchlich einsetzen möchte, wird auch zukünftig immer neue Wege finden. Das ändert aber nichts daran, dass diese Tools zukünftig eine bedeutende Rolle spielen werden oder sollten. In gewisser Weise erinnert dies an frühere Diskussionen um Wikipedia. Das dort hinterlegte Wissen galt zunächst auch nicht als vertrauenswürdig und war in schulischen und wissenschaftlichen Kontexten nicht zitierfähig. Natürlich gibt es noch immer berechtigte Kritik an manchen Praktiken von Wikipedia, aber heute ist die Plattform oftmals die erste Anlaufstelle, um sich einen Überblick zu einem Thema zu verschaffen, von wo aus man sich anhand der hinterlegten Quellen tiefer in die Materie einarbeiten oder auch das dort hinterlegte Wissen kritisch hinterfragen kann. Auch mit Blick auf ChatGTP wird es mit der Zeit einen Normalisierungseffekt geben, auch wenn die Entwicklung eines angemessenen Umgangs damit uns sicherlich noch vor einige Herausforderungen stellen wird.


Wie könnten sich einheitliche Regeln für den Umgang mit ChatGPT und weiteren Tools etablieren? Welche Akteure sind hier relevant? 

Anne Krüger: Grundsätzlich sind hier mehrere Akteure gefragt, um einen Konsens über die Verwendung von Sprachmodellen in der Wissenschaft zu erzielen. Allen voran liegt es an den jeweiligen Fachgesellschaften und Verbänden, hier eine Regelung zu finden, die der guten wissenschaftlichen Praxis in der jeweiligen Disziplin entspricht. Aber auch wissenschaftliche Journals müssen sich darauf verständigen, wie weit der Einsatz von textgenerierender KI gehen darf und wie er gekennzeichnet sein muss. Und auch die Geldgeber:innen sind gefragt, welche Regeln für das Schreiben von Anträgen gelten sollen. Wichtig ist, dass man sich hier überall darauf verständigt, welches Verständnis von Autorschaft und Authentizität man hat und einfordert. Und dies betrifft nicht nur das Verfassen von Publikationen und Drittmittelanträgen, sondern auch deren Begutachtung. Gerade bei dieser oftmals unbeliebten, weil sehr arbeitsintensiven, aber dennoch für die betroffenen Wissenschaftler:innen extrem wichtigen Aufgabe sollte man ebenfalls den Einsatz von textgenerierender KI regeln.

Ingmar Mundt: Wie bei vielen technischen Entwicklungen kommt es aber auch auf ein ethisches Commitment der Forschenden an. Forschungsethiken wie beispielsweise den Umgang mit Quellen oder der Anonymisierung von personenbezogenen Daten sind heute die Grundlage guter wissenschaftlicher Praxis. Sie schützen natürlich nicht vor Missbrauch. Wer sich einen vermeidlichen Vorteil verschaffen möchte, der oder die wird auch weiterhin immer Wege finden und dafür auch jene nutzen, die sich durch neue digitale Technologien ergeben. Aber sicherlich werden sich auch mit der Zeit Wege finden, beispielsweise nicht kenntlich gemachte Verwendungen aufzuspüren.

Eine politische Herausforderung zur Regulierung - und zwar nicht der Anwender:innen, sondern der Hersteller:innen - besteht hinsichtlich des Datenschutzes. Denn alles, was in ChatGTP eingegeben wird, wird dort auch gespeichert. Das berührt die bereits aufgeworfene Frage nach Copyright und natürlich auch nach Schutz geistigen Eigentums, das erst noch im Forschungsprozess ist und gerade entsteht. Bei Projekten mit einer hohen Vertraulichkeit sollte derzeit wohl von einer Verwendung von ChatGTP abgesehen werden, solange es hier keine verbindlichen Regelungen gibt.

Vielen Dank für das Gespräch!

 

Anne Krüger ist Forschungsgruppenleiterin der Gruppe „Reorganisation von Wissenspraktiken.“ Als Soziologin beschäftigt sie sich in ihrer Forschung mit der Veränderung von Wissenspraktiken durch digitale Infrastrukturen und ist Teil der WI-Forschungsprojektes ELIZA reloaded – ChatGPT und die Veränderung von Wissensarbeit.

Ingmar Mundt ist Wissenschaftlicher Mitarbeiter in der Forschungsgruppe „Reorganisation von Wissenspraktiken.“ Als Techniksoziologe forscht er zur Rolle von digitalen Technologen (insb. prädiktive Algorithmen), Daten und Wissen in  Zukunfts- und Risikoprognosen.

Das Interview führte Leonie Dorn

Die Reihe künstlich&intelligent? setzt sich in Interviews und Beiträgen mit den neusten Anwendungen von generativen Sprachmodellen und Bildgeneratoren auseinander. Forschende am Weizenbaum-Institut gehen dabei auf die gesellschaftlichen Auswirkungen der Tools ein und begegnen den viel diskutierten Erwartungen und Ängsten mit aktuellen Studien und Forschungsergebnissen. Dabei wird auch der Begriff „Künstliche Intelligenz“ hinterfragt und im Geiste Joseph Weizenbaums die Allwissenheit und Macht dieser Systeme dekonstruiert. Der KI-Pionier und Kritiker, der einen der ersten Chatbots entwickelte, hätte dieses Jahr seinen 100. Geburtstag gefeiert.