Texte schreiben mit KI: Chancen, Herausforderungen und Perspektiven für die Hochschullehre
12.12.2024: Im Rahmen des e-teaching.org-Workshops „Schreiben mit KI – gemeinsam ausprobieren, anwenden und diskutieren“ haben die beiden Teilnehmer Christian Funk und Dr. Malte Miram ein Gespräch mit der KI-Schreibexpertin Nadine Lordick von der Ruhr-Universität Bochum geführt und für e-teaching.org aufgezeichnet. Im Interview gibt Nadine Lordick einen grundlegenden Einblick in generative Künstliche Intelligenz und geht auf die Möglichkeiten und Grenzen des (wissenschaftlichen) Schreibens mit generativen Modellen ein.
Dieser Podcast ist Teil des Erfahrungsberichts „Texte schreiben mit KI: Chancen, Herausforderungen und Perspektiven für die Hochschullehre“ und ist im Rahmen des Workshops „Schreiben mit KI – gemeinsam ausprobieren, anwenden und diskutieren“ entstanden.
Eine begleitende Dokumentation der Arbeitsschritte [PDF] bei der Vor- und Nachbereitung des Interviews mit Hilfe generativer KI-Tools wurde ergänzend bereitgestellt.
Transkript
Dr. Malte Miram: Willkommen zu unserem heutigen Gespräch, in dem wir uns mit einem brandaktuellen Thema beschäftigen, dem Schreiben mit generativer KI. Wir haben dafür eine herausragende Expertin bei uns, Nadine Lordick.
Christian Funk: Nadine war germanistische Mediavistin, ist Mitarbeiterin im Projekt KI:edu.nrw, im Schreibzentrum an der Ruhr-Universität Bochum tätig und Mitglied von VK:KIWA, dem virtuellen Kompetenzzentrum Künstliche Intelligenz und wissenschaftliches Arbeiten.
Dr. Malte Miram: Fangen wir direkt an. Was bedeutet eigentlich Texte schreiben mit generativer KI? Erfordert das Arbeiten mit KI eine grundlegende Fähigkeit, selbst Texte zu schreiben, oder können auch Schreibanfänger damit effektiv arbeiten?
Christian Funk: Zuerst müssen wir aber kurz ein Disclaimer noch machen. Wir führen nicht nur hier ein Gespräch über generative KI. Wir haben auch die Fragen, die ein oder andere, mit einer bekannten generativen KI erstellen lassen. Die Mehrfachüberarbeitungen, Prompt und das Ergebnis findet ihr im Link bei dieser Aufnahme. Hier werdet ihr auch einige Änderungen feststellen. Wir sind Malte und Christian, Politikwissenschaftler und Soziologe und arbeiten beide im Hochschulkontext. Wir sind beide mit dem wissenschaftlichen Schreiben sehr vertraut und beschäftigen uns auch seit Längerem mit generativer KI. Wir hatten die Freude, mit Nadine einen von e-teaching.org veranstalteten Workshop zum Thema Schreiben mit KI erleben zu dürfen. Wir sind also schon, was das Thema betrifft, sehr vorgeprägt.
Dr. Malte Miram: Nadine, was meint eigentlich Texte schreiben mit KI?
Nadine Lordick: Das ist eine gute Frage und es kann ganz, ganz vieles heißen. Diese großen Sprachmodelle, über die wir jetzt sprechen, seitdem es ChatGPT gibt, sind in der Lage, an ganz unterschiedlichen Stellen im Schreibprozess anzusetzen. Ich kann es nutzen, um mir Inspiration geben zu lassen, ich kann es nutzen, um mir Feedback geben zu lassen, ich kann es nutzen, um mir eine Rechtschreibkorrektur geben zu lassen. Deswegen ist das nicht so einfach zu beantworten, was das eigentlich bedeutet.
Christian Funk: Also es klingt erstmal nach einer Schnittstelle zwischen Mensch und Maschine. Wenn wir uns jetzt kurz den Schreibprozess uns vergegenwärtigen, wo könnte man das da einsetzen? Vor allem vielleicht, wenn wir uns überlegen, Schreiben könnte als kreativer und kognitiver Prozess aufgefasst werden. Also wie komplex stellt es sich dann für dich dar, bzw. welche Rolle spielen dabei bestimmte Fähigkeiten, wie zum Beispiel kritisches Denken, Reflexion oder Sprache grundsätzlich?
Nadine Lordick: Ich habe das Gefühl, das ist eine Frage von ChatGPT, die klingt sehr elaboriert und da steckt auch ganz viel drin, aber da steckt so viel drin, dass ich das gar nicht so einfach beantworten kann. Also da kommt kognitiv und kreativ und es kommt, welche Rolle spielen kritisches Denken, Reflexion und Sprache. Es würde jetzt sehr lange dauern, glaube ich, auf jeden einzelnen Punkt davon einzugehen. Alles davon kann eine Rolle spielen. Schreiben kann kreativ sein, es muss nicht kreativ sein. Es kann Reflexion erfordern, es muss nicht Reflexion erfordern. Es hat in irgendeiner Form immer mit Sprache zu tun, die spielt natürlich immer eine Rolle. Aber wenn man jetzt gerade auf den wissenschaftlichen Schreibprozess guckt, das kann sehr, sehr unterschiedlich aussehen. Das muss nicht kreativ sein, das kann kreativ sein. Es muss nicht mal reflexiv sein, es kann reflexiv sein.
Christian Funk: Aber ist es nicht reflexiv, wenn ich bestimmte Prozesse innerhalb, also bestimmte Stufen innerhalb des Schreibprozesses betrachte? Zum Beispiel am Anfang vielleicht Themenfindung und Fragestellung. Muss ich dann nicht mindestens meine eigene Position mit reflektieren?
Nadine Lordick: In manchen Fächern nicht. In manchen Fächern kriegt man das Thema vorgegeben und die Fragestellung. Dann muss ich auch nicht großartig reflektieren. In anderen Fächern ist das natürlich der Fall. Da steckt allein in der Aufgabe, eine gute wissenschaftliche Fragestellung zu finden, schon ganz viel an Reflexion und darüber, wie eigentlich der Forschungsdiskurs funktioniert, was eigentlich schon an Forschung da ist und so weiter. Von daher kann man nicht für alle Fächer gleich beantworten.
Dr. Malte Miram: Das ist ja schon mal spannend. Vielleicht kommen wir da später nochmal drauf zurück. Wir wollten jetzt einfach nur ganz kurz allgemein in den Schreibprozess am Anfang einmal einsteigen, um uns dann jetzt aber eigentlich dem Thema Schreiben mit KI zu widmen. Bevor wir das tatsächlich dann nochmal tun, vielleicht ein genauerer Blick auf die Technologie hinter generativen Modellen. Wie funktionieren eigentlich generative Modelle wie ChatGPT, LlAMA oder Gemini? Was unterscheidet einen klassischen Algorithmus, wie sie Suchmaschinen oder Bibliothekskatalogen zugrunde liegen, eigentlich von generativen Modellen?
Nadine Lordick: Das ist eine gute Frage und eine Frage, bei der dieser Begriff der künstlichen Intelligenz auch eine große Rolle spielt, weil er auch für Missverständnisse sorgt. Algorithmen sind erst mal Prozesse, bei denen bestimmte Schritte immer wieder durchlaufen werden. Insofern zählt auch das maschinelle Lernen, was wir jetzt klassischerweise dann irgendwie als KI deklarieren seit einigen Jahren, spielt da eine Rolle. Es ist halt eine bestimmte Form von Algorithmus. Was bei KI eigentlich, wenn wir über das Thema Künstliche Intelligenz sprechen, eine sinnvollere Unterscheidung ist, ist die zwischen regelbasierten Systemen und Systemen, die mit neuronalen Netzen und maschinellem Lernen funktionieren.
Bei regelbasierten Systemen, da versuche ich, möglichst viele Regeln aufzustellen, um das System dazu zu bekommen, zum Beispiel eine Entscheidung oder eine Vorhersage zu treffen. Bei maschinellem Lernen, das ist in der Regel immer Statistik. Da sind statistische Verfahren dahinter. Und das ist auch das, was bei den großen Sprachmodellen wichtig ist zu verstehen. Das sind Wahrscheinlichkeitsverteilungen. Da geht es darum, dass bestimmte Wörter sehr häufig mit anderen Wörtern in einem bestimmten Kontext auftreten. Und das Modell hat das gelernt und kann aus diesen Wahrscheinlichkeiten heraus dann Text produzieren, der für uns dann so klingt wie Sprache.
Christian Funk: Und das bedeutet im Umkehrschluss klassischerweise eben diese Algorithmen, wie eben bei den Suchmaschinen, eben nicht, oder eher regelbasiert?
Nadine Lordick: Ich glaube, ich kenne mich jetzt ehrlich gesagt nicht so gut aus, aber ich glaube auch bei Google spielt maschinelles Lernen eine Rolle. Da geht es aber um andere Sachen als zum Beispiel Wörter, sondern da geht es zum Beispiel um Verlinkungen. Aber wie gesagt, da würde ich mich jetzt aus dem Fenster lehnen, da jetzt genau was drüber zu sagen. Also dieser Begriff KI meint halt so viele Dinge, dass wenn jetzt Aussagen getroffen werden wie, ja, wir haben jetzt die KI und die schreibt jetzt für uns oder so, dann kommt oft als Gegenargument, ja, die KI haben wir ja schon viel länger zum Beispiel, weil auch Google über KI funktioniert. Und dann werden oft so Setzungen gemacht mit, ja, wir können KI nicht verbieten, weil KI ist ja viel mehr als nur Sprachmodelle. Da liegt das Problem aber nicht an dem Verbot sozusagen von Sprachmodellen, sondern davon, dass wir so viele Sachen als KI bezeichnen. Und natürlich muss man überlegen für jedes System… also wir sollten genauer über die Dinge sprechen. Meine ich ein großes Sprachmodell oder meine ich einen Suchalgorithmus, um dann Entscheidungen zu treffen, wie wollen wir damit umgehen und nicht einfach alles unter dem Begriff KI subsummieren.
Dr. Malte Miram: Dann bleiben wir vielleicht bei den KI-Modellen, KI-Tools, die sich fürs Schreiben tatsächlich eignen würden. Was siehst du da besonders herausstechend, was vielleicht auch nicht und wie ist dann damit umzugehen?
Nadine Lordick: Also ich glaube, dass für die meisten ChatGPT so der Standard ist. Man kann damit ja auch schon ultra viel machen. Ich kann Dokumente hochladen, also wenn ich entsprechend dafür zahle, kann ich sehr, sehr viel machen. Ich kann Bilder generieren, ich kann Texte hochladen. Es kann an allen möglichen Stellen im Schreibprozess irgendwie eine Anwendung finden. Es gibt spezialisiertere Tools, zum Beispiel welche, wo ich dann, die tatsächlich nur dafür da sind, dass ich eine PDF hochlade und mir dann dazu Fragen beantworten lasse. Aber ich glaube, dass in Zukunft das nicht der Fall sein wird, dass wir auf spezialisierte Tools zurückgreifen, sondern dass wir für die allgemeinen Sachen, die meisten halt, irgendwie so was wie ChatGPT, wahrscheinlich ChatGPT nutzen werden. Und dass dann in den normalen Softwareanwendungen, die wir eh schon nutzen, wie Microsoft Office, Adobe PDF Reader und so weiter, dass da dann bestimmte Funktionen vorhanden sind. Was jetzt zum Teil auch schon der Fall ist. Also, dass man sich eine PDF zusammenfassen lassen kann. Oder dass man dann, wenn man im E-Mail-Fach ist, auf einen Knopf drückt und dann wird der Rest der E-Mail weiter generiert.
Christian Funk: Aber allen diesen Tools ist gemeinsam, dass sie die Ausgabe aufgrund von statistischen Werten ausgeben.
Nadine Lordick: Ja, genau. Man muss halt immer genau hingucken bei den Tools, was eigentlich dahinter liegt. Und in der Regel, wenn es darum geht, dass sich das irgendwie bewirbt als Schreiben mit KI, dann wird da irgendein großes Sprachmodell hinterliegen. Wahrscheinlich irgendein GPT-Modell oder eben eins von den anderen großen Modellen. Und dann ist die Funktionalität sozusagen darübergestülpt, dass dann gesagt wird, und jetzt kannst du da mit PDFs zusammenfassen. Was für mich deshalb immer ganz wichtig ist, ist, wenn ich mir ein Tool angucke, dann interessiert mich natürlich auch die Funktionalität, aber ich versuche oft auch rauszufinden, was steckt eigentlich dahinter. Und für mich war das ein großer AHA-Effekt, als Literaturrecherche-Tools diskutiert wurden. Und Semantic Scholar zum Beispiel als Tool dann oft genannt wurde. Und das hat erstmal gar nichts mit den großen Sprachmodellen wie ChatGPT zu tun. Es wurde in dem gleichen Zusammenhang diskutiert, aber das gibt es eigentlich schon länger. Und die sind auch sehr transparent damit, was eigentlich ihre Datenbasis ist und wo die das herkriegen und so weiter. Und dann guckt man in andere Tools wie zum Beispiel Elicit und versucht rauszufinden, was da eigentlich dahinter liegt. Und dann kommt man irgendwann darauf, dass da Semantic Scholar dahinter liegt. Das heißt, das wäre eigentlich auch das, was ich mir wünschen würde, dass Leute halt bei den Tools genauer hingucken, was eigentlich dahinter liegt für ein Modell.
Dr. Malte Miram: Also wenn wir sozusagen nochmal einen Schritt zurückgucken und auf die verschiedenen Phasen von wissenschaftlichen Schreibprozessen schauen, haben wir dann doch nochmal mehr Tools als sozusagen die klassischen Large Language Models, egal ob es jetzt Llama, ChatGPT oder Gemini ist, sondern auch noch andere Tools, die du damit andeutest, die in diesem Prozess eine zentrale Rolle auch noch spielen könnten und die man nutzen könnte, bewusst.
Nadine Lordick: Ja klar. Also wie gesagt, in der Regel wird da ein GPT-Modell dahinterstecken. Und was dann aber gemacht wird, ist halt eine bestimmte Funktionalität darübergestülpt, sag ich mal. Sodass es dann halt spezifisch für bestimmte Kontexte funktioniert. Also was ja viel im Bildungsbereich diskutiert wird, ist zum Beispiel, ob man Implementationen in Moodle oder anderen Lernmanagementsystemen hat, die dann dafür sorgen, dass zum Beispiel nur die Inhalte ausgelesen werden, die in diesem Moodle-Kurs drin sind oder in anderen Lernmanagementsystemen und dass das dann eben als Grundlage dient für, wenn ich zum Beispiel mir was zusammenfassen lasse.
Christian Funk: Wenn man sich aber kurz klarmacht, wenn das alles Statistik ist und ich mir eine Zusammenfassung ausgeben lasse, wie viel Sinn steckt dann damit drin?
Nadine Lordick: Also Sinn steckt in den Modellen gar keiner. Also das, was die Modelle machen, ist Wahrscheinlichkeiten berechnen von Wörtern, wie sie in einem bestimmten Kontext zueinander auftreten. Alles, was an Sinn und Bedeutung da reinkommt, ist etwas, was wir als Menschen leisten, wenn wir mit diesem System interagieren. Das finde ich zum Beispiel wichtig bei dem Begriff der Datenhalluzination, der oft genutzt wird, um darauf hinzuweisen, dass eben bestimmte Inhalte, die solche Modelle rausgeben, auch mal falsch sein können. Und dieser Begriff Halluzination ist irreführend, weil das Ding eigentlich nichts anderes tut als Halluzinieren. Es gibt halt immer auf gleiche Weise statistisch wahrscheinliche Sätze raus. Und der Sinn und die Entscheidung darüber, ob das jetzt richtig ist oder falsch, liegt bei uns Menschen. Und insofern, es halluziniert immer, nur manchmal sagen wir, das stimmt halt mit der Realität überein oder nicht.
Christian Funk: Hat eine große Übereinstimmung. Wenn Studierende aber jetzt KI-Tools nutzen, um wissenschaftliche Essays zum Beispiel zu schreiben, was würden sie dann aus deiner Sicht eigentlich tatsächlich lernen? Oder ist der Lernprozess ein anderer?
Nadine Lordick: Also das Lernen an sich ändert sich nicht, kognitiv. Nicht so lange, bis wir dann tatsächlich Chips in unserem Kopf haben, die dann die Neuronen anders befeuern oder keine Ahnung. Das heißt, das Lernen bleibt erstmal gleich. Und ich zitiere hier meinen Partner, der Erziehungswissenschaftler ist, der immer sagt, man kann Lernen gar nicht verhindern. Also die Studis lernen, auch wenn sie mit dem System interagieren. Die Frage ist nur, was lernen sie? Und das ist die Frage, die sich Lernende und Studierende dann stellen müssen, wenn sie mit solchen Systemen arbeiten. Was lerne ich wirklich, wenn ich das mache? Und was würde ich lernen, wenn ich es ohne so ein System mache? Und das kann beides gut sein. Also ich lerne ja zum Beispiel, wenn ich mit solchen Systemen interagiere, ja auch was über das System und über die Nutzung und wie kriege ich da gute Inhalte raus? Manchmal kann es gut sein, darauf zu verzichten, weil ich andere Sachen lerne, wenn ich etwas selber mache. Ich mache das öfter in Workshops, dass ich so eine Aufgabenstellung gebe von „Paraphrasiert mal selber und beobachtet, was dabei passiert. Und dann lasst mal ChatGPT paraphrasieren und guckt, was dabei passiert.“ Und es passiert immer was. Und es passiert auch irgendwas an Lernen, aber nicht unbedingt das Gleiche. Und das ist ganz interessant, das dann auch in der Selbstreflexion und Beobachtung mitzukriegen.
Christian Funk: Und die Studierenden, die benennen die Unterschiede dann aber auch sehr explizit?
Nadine Lordick: Das ist eine spannende Frage. Also ich habe schon sehr unterschiedliche Reaktionen auf diese Übungen gehabt. Ich glaube, die interessanteste Reaktion, die ich einmal hatte, war von einer Schreibtutorin, die eigentlich auch viel über das Schreiben weiß und über das, was beim Schreiben passiert. Und die dann irgendwie meinte so, ich habe ehrlich gesagt gar nicht mehr gelesen, was ChatGPT mir da rausgegeben hat, ich habe es einfach rauskopiert. Die hat es dann auch selber so gesagt und ich weiß gar nicht, ob das jetzt so gut war. Und das heißt, da kommen, also das ist ja auch subjektiv so ein bisschen, was ich denke, was da passiert. Also ich habe das selber auch gemacht und ich habe gemerkt, dass ich, wenn ich selber paraphrasiere, ganz anders über Nähe und Ferne zum Text nachdenke, als wenn ich es mit ChatGPT mache, wo ich dann eher gucke, stimmt der Inhalt oder so. Also kann ich nur empfehlen, das mal selber zu machen.
Christian Funk: Eine schöne Übung, ja.
Dr. Malte Miram: Damit sind wir bei einer der vielen Herausforderungen, die sich sozusagen im Verhältnis von Schreiben und KI, wissenschaftlichem Schreiben und KI im Besonderen eigentlich ergeben. Wo liegen denn für dich dann darüber hinaus die größten Herausforderungen, insbesondere dann auch im Spannungsverhältnis, möglicherweise zwischen Eigenleistung und Hilfsmittel?
Nadine Lordick: Das ist eine Frage, die ich auch so oft natürlich mitbekomme, also die nach der Eigenleistung. Und es ist auch eine total relevante und wichtige Frage. Und zwar aus dem Grund, dass Eigenständigkeit sowieso schon ein Konzept ist, was gar nicht so klar ist. Wir hatten das auch vorher schon, also ich habe oft so eine Visualisierung, wo ich zwei Pole habe. Auf der einen Seite ist irgendwie alles komplett selber machen und auf der anderen Seite ist Ghostwriting. Und das sind so die klassischen Fälle, wo man sagt, okay, das wollen wir nicht. Wir wollen Ghostwriting natürlich nicht, das brauche ich jetzt nicht begründen. Aber wir wollen auch in der Wissenschaft nicht dieses komplett selber schreiben. Also das interessiert mich dann nicht unbedingt, was jetzt eine Person persönlich subjektiv darüber denkt, wenn sie eine Fragestellung hört. Das geht dann halt schon los mit Forschungsliteratur und dem ganzen Forschungsdiskurs, den ich natürlich mit aufnehmen muss. Im Kontext von Lehre sind das auch Seminarinhalte. Also ich erwarte von meinen Studis, dass sie natürlich auch mitbekommen haben, was im Seminar passiert ist und da vielleicht auch Ideen aus Diskussionen mitgenommen haben. Ich spreche mit Studierenden über Hausarbeiten, ich helfe und betreue dabei. Die tauschen sich auch untereinander aus und das ist dann halt schon so eine riesige Grauzone von was ist jetzt irgendwie selbstständig gemacht oder eigenständig gemacht und was nicht. Und das ist etwas, wo wir die Studierenden ja auch hinein sozialisieren. Was ist gute wissenschaftliche Praxis, was muss ich transparent machen? Und dafür haben wir Konventionen, zum Beispiel zitieren. Wir haben aber auch einfach Erwartungen, wie zum Beispiel, dass ich erwarte, dass die im Seminar mal zugehört haben.
Und da spielt ganz viel eine Rolle darüber, wie ich Eigenständigkeit einschätze. Und am Ende ist es halt eine Entscheidung, die mir subjektiv unterliegt, wo ich sagen muss, ich habe das Gefühl, das ist meins oder ich sage, das ist nicht meins. Ich muss es in irgendeiner Form kenntlich machen. Und das, wie gesagt, ist gar nicht so einfach. Es ist auch subjektiv etwas, was ich vielleicht, wo ich sagen würde, das ist nicht meins, da gebe ich euch jetzt irgendwie als die Person an, die mich da auf die Idee gebracht haben. Das muss aber nicht für alle gleich gelten. Manche haben vielleicht schneller das Gefühl, das war jetzt meine eigene Idee. Und in dieses Spannungsfeld, was wir eh schon haben, da kommen jetzt die generativen Modelle. Und die können dann auch an unterschiedlichen Stellen, sie können als Gesprächspartner fungieren, sie können als Ghostwriter fungieren, sie können mir als Informationsquelle dienen. Und deswegen lässt sich da auch nicht einfach beantworten, das war eigenständig und das war nicht eigenständig. Und wir haben noch keine Konventionen und noch keine Erwartungen. Oder wir haben bestimmte Erwartungen, vorgestellte Erwartungen darüber, wie Leute wohl reagieren, wenn ich sage, ich habe es mit KI gemacht. Die müssen aber nicht stimmen. Es gibt ja eine große Skepsis. Wenn ich jetzt einfach irgendwo drunter schreibe, wurde mit KI erstellt, ja was bedeutet das?
Dr. Malte Miram: Und all diese Herausforderungen vielleicht nur als Ergänzung aus meiner Perspektive, gelten ja auch fürs wissenschaftliche Schreiben von Nicht-Studierenden.
Nadine Lordick: Ja, ja genau! Total.
Dr. Malte Miram: Das ist vielleicht auch nochmal wichtig, das mitzudenken in diesem ganzen Komplex an Hochschulen, dass da ja auch andere Menschen noch schreiben, die sich diese Fragen auch immer wieder stellen müssen und damit mit dieser Herausforderung auch konfrontiert sind und sich selber reflektieren dürfen.
Nadine Lordick: Ja, das stimmt.
Christian Funk: Wie können wir dann Studierende oder auch Fachkräfte dabei trotzdem unterstützen, KI dann verantwortungsvoll einerseits und für den wissenschaftlichen Schreibprozess vielleicht auch andererseits sinnvoll zu nutzen?
Nadine Lordick: Da das sehr fachspezifisch ist, wie so eine sinnvolle Nutzung aussehen kann, wäre es am besten, wenn das im Fach passiert. Ich bin öfter in Kontakt sowohl mit Lehrenden als auch mit Studierenden. Und ich mache mit den Lehrenden ein bisschen was anderes als mit den Studierenden. Bei den Studierenden geht es halt darum, wie kann ich meinen eigenen Schreibprozess gestalten, während ich mit Lehrenden natürlich viel über Lernziele und usw. spreche. Und man könnte jetzt sagen, dass da so ein bisschen ein Ungleichgewicht ist. Dass ich den Lehrenden eigentlich mehr Verantwortung übertrage. Ich glaube, es gibt keinen anderen Weg, weil Lehrende sind halt die Expert/innen für das Schreiben in ihrem Fach. Und ich kann nicht mit den Studierenden über fachliches Schreiben sprechen, außer vielleicht für den kleinen Bereich, in dem ich mich damit auskenne. Das müssen die Lehrenden tun. Und deswegen muss das eigentlich in den Veranstaltungen stattfinden, wo die Studierenden eben auch fachlich arbeiten.
Dr. Malte Miram: Was brauchen die Lehrenden dann dafür, um diese Aushandlungsprozesse gewissermaßen mitgestalten zu können?
Nadine Lordick: Verschiedenes. Die brauchen ein bisschen technisches Verständnis. Die brauchen ganz viel Verständnis darüber, was eigentlich die Funktion von Schreiben in dem eigenen Fach ist. Ein bisschen sowas wie Toolkenntnis, also zu wissen, was eigentlich geht, gehört auch dazu. Aber viel ist eigentlich auch wirklich die Auseinandersetzung mit Lernzielen. Dass ich mir darüber klar werde, was sollen meine Studierenden eigentlich am Ende dieser Veranstaltung erreicht haben. Und davon ausgehen kann man dann überlegen, ob Tools wie ChatGPT oder sonst was da eine Rolle spielen können oder eben auch nicht.
Christian Funk: Denkst du, dass dann sowas hilfreich sein kann, wenn man auch über den Wert von wissenschaftlichem Denken spricht mit Studierenden? Dass sie erkennen, okay, wenn ich jetzt etwas schreibe, dann dient mir das im Erkenntnisprozess zum Beispiel. Aber es ist natürlich jetzt ein spezifisch gesellschaftstheoretischer Blick jetzt da drauf.
Nadine Lordick: Aber tatsächlich fürs Lernen ist diese Transparenz sowieso sehr wichtig. Wir sprechen im Prinzip darüber, dass… Es gibt ja diesen Generalverdacht, Studis nutzen das jetzt, weil sie sich die Arbeit erleichtern möchten. Und für einige Studis wird das bestimmt zutreffen. Viele Studis kommen aber tatsächlich auch an die Uni, weil sie was lernen wollen. Und was ich dann versuche, wenn es zum Beispiel darum geht, dass Lehrende sagen, die versuchen es vor allem um zu täuschen und so weiter, um das ein bisschen aufzubrechen, wirklich auf die Motivation zu gucken. Selbst wenn Studierende versuchen, das zu nutzen, um sich Arbeit zu erleichtern, warum tun die das? Und dann kommt man auf ganz unterschiedliche Punkte.
Ich mache immer so eine Übung, die mache ich dann sowohl mit Lehrenden als auch mit Studierenden. So dieses: „Ich wäre viel, viel glücklicher, wenn ich ... niemals mehr schreiben müsste.“ Und dann kommen halt so Sachen wie den Methodenteil oder wenn ich mich nicht mehr um Zitationen kümmern müsste. Also sehr unterschiedliche Sachen. Und dabei bleibt es aber nicht stehen, sondern dann kommt immer die Frage, warum? Und dann kommt man zu den Punkten, die eigentlich dahinterstecken. Und die können sehr unterschiedlich sein. Das kann Angst sein. Und das ist für Studis natürlich relevant. Die schreiben eigentlich fast nur in Bewertungskontexten. Druck. Es kann Frustration sein. Es kann auch wirklich Langeweile sein. Keine Lust. Es kann mangelnde Wertschätzung sein. Die Hausarbeiten schreiben für die Schublade und so weiter. Und all das kann dazu führen, dass ich mir denke, dann nehme ich ChatGPT oder irgendein anderes Modell.
Und es ist halt ... an manchen dieser Punkte kann ich halt rütteln. Also zum Beispiel kann ich versuchen, Angst rauszunehmen oder Druck rauszunehmen. An anderen Punkten kann ich nicht rütteln. Ich kann die Motivation der Studierenden nicht kontrollieren. Wenn die sagen, ich habe keinen Bock, dann haben die halt keinen Bock. Dann muss ich eher damit klarkommen, dass es halt Studis gibt, die keinen Bock haben. Aber wenn ich eben darauf gucke, was die Gründe sind und dann, wenn ich halt denke, dass die ... und erst mal so optimistisch davon ausgehe, dass Studierende lernen wollen und dann in die Veranstaltung gehe und sage, dann für diese Übung solltet ihr das ausnutzen, dass wir das jetzt mal ohne ChatGPT machen, denn ich glaube, daran könnt ihr das und das lernen. Und dann hoffen, dass die Studis da mitgehen.
Dr. Malte Miram: Um nochmal den Blick zu weiten auf andere Menschen, die an Hochschulen schreiben, Lehrende, Forschende. Machst du mit denen die gleiche Übung auch? Also fragst du die auch mal, was würden sie am liebsten nie mehr schreiben und was schreiben sie am allerliebsten? Und wie sind da die Antworten und was könnten dahinter dann Vermutungen sein?
Nadine Lordick: Also es ist tatsächlich ähnlich. Also genau, ich mache das sowohl mit Studierenden ... Also ich mache es mit Schreibenden, sage ich mal so. Und das sind dann durchaus auch Promovierende und so weiter. Es wird immer ein bisschen kritisch. Ich versuche ... Die Workshops, die ich mache, sollen auch eine Art Schutzraum sein, um offen darüber zu sprechen, wie man was nutzt. Und es wird schwer, wenn man Studierende und Lehrende in einem Raum hat, weil die dann anfangen zu diskutieren, weil da unterschiedliche Perspektiven sind. Und insofern, ich hatte solche Workshops für Promovierende und für Studierende, jetzt noch nicht für weitere wissenschaftliche Schreibende. Aber eigentlich mache ich mit allen Schreibenden genau diese Übungen. Und es kommen sehr ähnliche Ergebnisse. Also wir schreiben halt aus ähnlichen Gründen. Wir schreiben aus ähnlichen Gründen nicht. Und dann individuell auch wieder total unterschiedlich.
Christian Funk: Was sind dann aus deiner Sicht vielleicht die größten Kritikpunkte eigentlich an diesen Modellen? Und vielleicht in der Folge davon, sollte deswegen die Nutzung davon immer auf eine Art und Weise gekennzeichnet sein? Also wie wichtig ist dann Transparenz eben auch bei diesen Werkzeugen?
Nadine Lordick: Ja, Transparenz ist halt ein Wert, den wir in der Wissenschaft sowieso haben. Und der für das gute wissenschaftliche Arbeiten sehr wichtig ist, weil wir uns in der Wissenschaft darauf geeinigt haben, dass wir den Prozess, den es braucht, um zu einem Erkenntnisgewinn zu kommen, offenlegen, damit er kritisiert werden kann, damit er überprüft werden kann. Und das gilt natürlich auch für die Nutzung von solchen Modellen. Wenn die in irgendeiner Form bei diesem Erkenntnisprozess eine Rolle spielen, dann sollte das auch nachvollziehbar irgendwie dargestellt werden.
Insofern bin ich sehr dafür, das zu kennzeichnen, auch jetzt in Prüfungskontexten. Dann herrscht auf beiden Seiten, kann man dann sagen, also die Studis legen halt offen, wie sie es genutzt haben. Und die Lehrenden können dann sagen, das auch bewerten, so wie sie es gemacht haben. Und dann hat man auch nicht mehr diesen Verdacht von, also wenn ich sehe, dass die Studierenden es auf diese und diese Weise genutzt haben, dann weiß ich ja, ob sie es gut genutzt haben oder nicht. Und dann ist nicht so ein per se Verdacht da drin, dass die es halt schlecht genutzt haben, sag ich mal.
Das ist aber nicht so einfach, weil eben noch viel Skepsis bei dem Thema mit dabei ist. Und es gibt ja auch schlechte Nutzungen. Das kann man ja auch nicht wegdiskutieren. Es gibt gute Nutzungen, aber es gibt eben auch schlechte Nutzungen. Und dann wird es auch noch schwierig, weil wir haben schon darüber gesprochen, dass der Schreibprozess halt sehr komplex ist. Und je nachdem, an welcher Stelle ich dann ChatGPT nutze oder ein anderes Modell, müsste ich es eigentlich auch anders angeben. Also wenn ich es wirklich einfach zitiere, dann kann ich es in Anführungszeichen machen, meinetwegen. Dann ist eher die Frage, ist das eine zitierfähige Quelle? Wenn ich das nutze, um zum Beispiel zu einer Fragestellung zu kommen oder für die Argumentation, dann ist es vielleicht eher eine Methode, die ich angewandt habe. Und dann müsste es in den Methodenteil rein. Und wenn ich es nur für Rechtschreibkorrektur nutze, dann muss ich es vielleicht gar nicht angeben. Und das macht es dann auch wieder schwierig, weil wir eben diese Konventionen noch nicht haben.
Dr. Malte Miram: Stichwort fehlende Konventionen. Das ist sozusagen eine Schwierigkeit, die wir jetzt gerade damit auch haben, die wir erarbeiten müssen. Es gäbe ja unter dem ganzen Thema Kritik am Umgang mit Sprachmodellen in der Hochschule oder vielleicht auch in der Gesellschaft darüber hinaus auch noch ein paar andere Themen, wer sind eigentlich die Big Player, die großen Firmen, die die ganze Diskussion ja auch immer noch mal schwieriger machen. Vielleicht aber zum Abschluss eher ein bisschen eine andere Frage nochmal. Gibt es so etwas wie eine wünschenswerte Zukunft im Hinblick auf das Schreiben mit generativen Modellen? Und wie kommen wir da eigentlich hin?
Nadine Lordick: Was ich mir wünschen würde für die Nutzung in der Zukunft, ist, dass wir frei in der Entscheidung bleiben, ob wir es nutzen wollen oder nicht. Und das ist, was mir Sorgen macht, ob wir diese Entscheidungsfreiheit haben. Denn es bestehen bestimmte Zwänge in dem System, in dem wir sind. Wir kennen das alle mit Publish or Perish und so weiter und die Studis, die natürlich unter Notendruck stehen. Und das schafft natürlich gewisse Anreize. Und dann gibt es diese Narrative von, nicht die KI wird dir den Job klauen, sondern jemand, der KI nutzt. Was zum Teil auch einfach Narrative sind, die zu selbsterfüllenden Prophezeiungen werden. Weil dann nutzt es natürlich jeder und wir haben das alle im Kopf und wir wollen alle produktiver und effizienter und so weiter sein. Und deswegen sehe ich, dass diese Entscheidungsfreiheit eigentlich… also das ist für mich eigentlich das Problematische, dass ich Angst habe, dass wir diese Entscheidungsfreiheit verlieren. Und das wäre aber auch mein großer Wunsch.
Und das ist auch das, was ich mit Studierenden und Lehrenden und Schreibenden in Workshops mache. Ich versuche denen eigentlich alles an die Hand zu geben, damit sie diese Entscheidung für sich selber treffen können. Und da spielen ganz unterschiedliche Sachen eine Rolle. Da spielt eine Rolle, was will ich lernen, will ich überhaupt was lernen, meine Motivation, meine Ziele, die ich habe beim Schreiben. Und eben auch ethische Aspekte, Werte. Also es gibt kaum ein unethischeres Produkt als die großen Sprachmodelle. Und es ist nicht nachhaltig. Es existiert im Prinzip nur aufgrund von Ausbeutung. Und das kann natürlich auch eine Rolle spielen bei dieser Entscheidung, ob ich es nutzen will oder nicht. Und deswegen versuche ich den Personen dann eigentlich alles an die Hand zu geben, damit sie am Ende eine Entscheidung darüber treffen können, wann und wie und wo will ich das nutzen. Und da spielt natürlich auch sowas wie Prompting eine Rolle, dass ich die Tools mal kennenlerne. Aber eben auch diese ganzen anderen Aspekte. Und ich fände es schön, wenn wir am Ende dann an einen Punkt kommen, wo wir alle selbst entscheiden können, schreibe ich heute selber oder schreibe ich mit ChatGPT und uns diese Entscheidung nicht abgenommen wird.
Christian Funk: Brauchen wir dann auch mehr Open-Source-Modelle?
Nadine Lordick: Ich fände es super, wenn wir mehr Open-Source-Modelle nutzen, um nicht abhängig zu sein von den Big Playern, wie du es gerade gesagt hast. Ich glaube, das löst aber nicht generell das Problem, dass große Sprachmodelle, so wie sie jetzt sind, also diese riesengroßen Sprachmodelle, an sich keine gute Idee sind.
Christian Funk: Super, vielen Dank für das Gespräch heute.
Dr. Malte Miram: Wir hatten ja am Anfang den Disclaimer gemacht, dass einiges von dem, was wir heute mit Nadine besprochen haben, in den Fragen uns von einem der großen Sprachmodelle ausgeschüttet wurde. Wenn du jetzt so auf das Gespräch mit uns zurückguckst, Nadine, was war es? Warst du irritiert an einigen Stellen?
Nadine Lordick: Ja, also die eine Frage, in der der einfach alles drin gesteckt hat, mit der Kognitiv und Kreativ und Reflexion und Sprache. Also das war schon… Da habe ich auch einfach gemerkt, dass das keine gute Frage ist. Und dass mir das total weitergeholfen hat, als wir darüber gesprochen haben, zu verstehen, was wollt ihr eigentlich wissen, nicht was will ChatGPT wissen. Das war ganz spannend. Ansonsten, ihr habt ja gesagt, einiges ist KI generiert, von daher gehe ich mal davon aus, dass... Also mir ist es bei keiner anderen Frage so doll aufgefallen, wie bei dieser einen.
Dr. Malte Miram: Was mir noch aufgefallen ist, Christian, wir sind doch stärker von ChatGPT im Gespräch abgewichen, als wir ursprünglich wollten. Also wir haben schon festgestellt, das eignet sich nicht so richtig gut für die Gesprächsführung. Das wäre mein Eindruck jetzt gewesen. Ich weiß nicht, wie deiner war.
Christian Funk: Ja, auf jeden Fall. Also ein lebendiges Gespräch ist doch was anderes. Wir haben es auch gemerkt im Schreibprozess. Wir haben ja zuerst ein Brainstorming gemacht ohne ChatGPT und haben das Ergebnis dieses Brainstormings eingespeist. Und stellten fest, dass das nicht wirklich einen Vorteil erbracht hat. Also dass wir wahrscheinlich dort selbst in der gleichen Zeit hingekommen wären, in diesem Fall.
Dr. Malte Miram: Und möglicherweise etwas flüssiger und nicht mit ganz so allgemeinen Fragen, wie sie ChatGPT, um das doch am Ende noch einmal zu nennen, für uns formuliert hat. Vielen Dank!
Nadine Lordick: Mir hat es trotzdem sehr viel Spaß gemacht, mit euch zu sprechen. Ich danke euch auch.