KI als Spannungsverstärker hochschuldidaktischen Handelns – warum eine Wertediskussion unerlässlich ist

24.04.2024: Hochschuldidaktik bewegt sich immer in einer inhärenten Spannung zwischen den Polen Wissenschaft, Praxis und Person. Im Interview mit e-teaching.org zeigen die Hochschulforscherinnen Prof. Dr. Gabi Reinmann und Alice Watanabe, wie KI diese Spannung verstärkt. Statt „einfache Antworten“ zu geben, die aus ihrer Perspektive nur zu reaktivem Verhalten von Lehrenden und Studierenden führen würden, plädieren sie für eine neue Diskussion über akademische Werte.

Hauptbild des Beitrags

Prof. Dr. Gabi Reinmann und Alice Watanabe (Universität Hamburg)

Innerhalb kurzer Zeit scheint Künstliche Intelligenz (KI) zu einem der wichtigsten Themen in der Hochschullehre geworden zu sein: Welche Bedeutung hat das Thema Ihrer Einschätzung nach derzeit in der Hochschuldidaktik? 

Alice Watanabe: KI ist schon länger ein Thema in der Hochschullehre: Intelligente Tutoren- oder adaptive Systeme etwa werden seit Jahren erprobt und beforscht, haben aber in der Hochschulpraxis bislang eher wenig Beachtung gefunden. Die Veröffentlichung von ChatGPT hat dagegen hohe Wellen geschlagen: Nun dürfe es kaum eine Hochschuldidaktikerin geben, die nicht davon ausgeht, dass KI viele didaktische Fragen und Antworten auf den Kopf stellt. ChatGPT ist ein Beispiel für textgenerative KI. Gemeint sind damit KI-Systeme, die als Antwort auf Fragen bzw. Prompts Textinhalte generieren. Diese Texte sind mitunter so gut, dass schwer zu entscheiden ist, ob ein Mensch oder eine Maschine Autor ist. Andere KI-Systeme zur Generierung von Bildern, zur Recherche usw. sind an Hochschulen bislang noch (etwas) weniger in Gebrauch. Die Verwendungsweise generativer KI-Systeme für Lehrende und Studierende sind vielfältig: Studierende etwa können sich wissenschaftliche Informationen zusammenfassen oder einfacher erklären, eigene Texte korrigieren oder überarbeiten lassen usw. Auch Lehrende können KI zur Entlastung einsetzen: bei der Erstellung von Lehrmaterial, beim Entwurf von Lehrkonzepten usw. Das klingt auf den ersten Blick vielversprechend.

Gabi Reinmann: Unserer Einschätzung nach aber müssen wir an Hochschulen einen tieferen Blick auf das richten, was da faktisch und potenziell passiert, und das, was wir dann sehen, bewerten. Dazu müssen wir uns klar machen, welche Funktionen Hochschulen und ein Hochschulstudium haben. Und das ist alles andere als trivial. Auch ohne KI agiert Hochschuldidaktik stets in einem Spannungsverhältnis. Ludwig Huber, der allen in der deutschsprachigen Hochschuldidaktik noch ein Begriff sein wird, hat bereits in den 1980er Jahren drei Pole bestimmt, die ein Spannungsfeld eröffnen: Wissenschaft, Praxis und Person. Das heißt: Auch die Hochschuldidaktik muss berücksichtigen, dass Lehren, Lernen und Bildung polyvalent sind, der Person und ihrer Entwicklung und Bildung dienen, der Ausbildung des wissenschaftlichen Nachwuchses und der Befähigung für einen Beruf. Aufgabe der Hochschuldidaktik ist es, diese Spannungen immer wieder auszubalancieren und jedem der Pole gerecht zu werden. KI wirkt auf alle drei Pole und deren Relationen und verstärkt bestehende Spannungen: Sie verändert das Handeln außerhalb der Hochschule (Praxis), beeinflusst die Disziplinen und deren Forschung (Wissenschaft) und wirkt auf den Menschen und das Menschsein zurück (Person). In der Folge wird sich durch KI auch das Verhältnis jeweils zwischen Person und Praxis, Wissenschaft und Praxis sowie Person und Wissenschaft wandeln. Daran dürfen wir in der Hochschuldidaktik nicht vorbeigehen.

Sie gehen also davon aus, dass Hochschuldidaktik bereits in einem Spannungsfeld agiert? Inwiefern ist KI hier ein Spannungsverstärker? Können Sie Beispiele dafür nennen?

Alice Watanabe: Ein illustratives Beispiel ist das wissenschaftliche Schreiben. Schauen wir aus berufspraktischer Sicht auf KI-gestütztes Schreiben, wird man zunächst zu dem Schluss kommen: Mithilfe von KI Texte zu formulieren, ist effizient und im Arbeitskontext in Zukunft vermutlich üblich. Die Folgerung liegt dann nahe, dass es für Studierende sinnvoll oder sogar notwendig ist zu lernen, wie man mit Hilfe generativer KI Texte formuliert und welche Prompts zum Ziel führen. Allerdings: Wer das wissenschaftliche Schreiben nicht selbst erlernt hat, wird abhängig von der Unterstützung durch KI, kann Fehler der KI schlechter oder gar nicht erkennen – und das kann auch im beruflichen Kontext schaden. Nehmen wir die Perspektive der gesellschaftlichen Praxis ein, sehen wir im KI-gestütztes Schreiben vielleicht als erstes eine probate Möglichkeit für Inklusion: Menschen, die ohne KI nicht über ausreichende Schreibkompetenzen für eine akademische Ausbildung verfügen, wird so ein Tor zum Studium eröffnet. Kollektive Kompetenzverluste im wissenschaftlichen Schreiben als eine mögliche Folge des KI-Einsatzes aber können der Gesellschaft wiederum auch schaden.

Gabi Reinmann: Ich ergänze mal die Sichtweise aus den Fachwissenschaften heraus. So ist die Bedeutung des wissenschaftlichen Schreibens für verschiedene Disziplinen und Studiengänge durchaus unterschiedlich: Erkenntnismittel in den Naturwissenschaften sind weniger natürliche Sprachen als vielmehr Mathematik und andere Notationssysteme. Entsprechend hat die Entwicklung von Schreibkompetenz einen anderen Stellenwert als etwa in den Geistes- und Sozialwissenschaften. In diesen gehört das Schreiben grundlegend zur akademischen Ausbildung. Die Verwendung generativer KI hat also je nach Lernzielen und Fachkultur sowohl Risiken als auch Vorzüge.

Alice Watanabe: Besonders wichtig ist am Beispiel wissenschaftliches Schreiben die Person im Spannungsgefüge: Sich selbst und die eigenen Gedanken differenziert und eigenständig auszudrücken zu können, lässt sich als eigenes Bildungsideal und einen Wert an sich ansehen. Werden Texte im Studium vorrangig mit KI erstellt und überarbeitet, nimmt man Studierenden die Chance, in der Textproduktion selbstwirksam zu werden.

Wie können wir den neuen Spannungen, die durch KI entstehen, begegnen?

Gabi Reinmann: Die Frage ist nachvollziehbar, aber eine einfache Antwort dürfte nicht möglich sein. Wir haben eben nur ein Beispiel erläutert. Weitere Beispiele, die KI als Spannungsverstärker skizzieren, zeigen wir in unserem Beitrag „KI in der universitären Lehre. Vom Spannungs- zum Gestaltungsfeld“ im Sammelband „KI:Text. Diskurse über KI-Textgeneratoren“. Diese machen zusammen deutlich, dass es bei der Bewertung von KI kaum möglich ist, absolute Urteile zu fällen. Wir werden um einen fachkulturell spezifischen und differenzierten Abwägungsprozess nicht umhinkommen. Dazu kommt, dass der Hochschuldidaktik Spannungsmomente grundsätzlich inhärent sind – auch ohne KI. Derzeit entstehen viele Konzepte, Diskussionspapiere oder Zukunftsszenarien zu KI. Viele dieser Vorschläge vernachlässigen diese Spannungen und damit die Komplexität, bieten griffige Thesen an und suggerieren mitunter eindeutige Antworten. Das mag erste Orientierung bieten, zumal da KI eben auch Orientierungslosigkeit verursacht. Aber da dürfen wir nicht stehen bleiben, weil das dem Wesen von Hochschulbildung nicht gerecht wird. Vor allem verleiten einfache Antworten zu einem reaktiven Verhalten seitens der Lehrenden und Studierenden. Das aber wäre aus unserer Sicht falsch. Wir brauchen an Hochschulen einen eigenen ethischen Kompass in Form akademischer Werte. Und diese wiederum müssen wir aushandeln; das läuft auf eine Wertediskussion hinaus.

Wie kann eine solche Wertediskussion, die Sie anregen, konkret aussehen?

Alice Watanabe: Die Denkfigur vom Spannungsgefüge in der Hochschuldidaktik ist ein möglicher Aufhänger für eine Wertediskussion. So können wir uns fragen: Welche Vorstellungen haben wir von der beruflichen und gesellschaftlichen Praxis, von der Wissenschaft und einzelnen Fachwissenschaften, vom individuellen und sozialen Menschsein? Welche Werte stehen dahinter? Wie gut passt das mit dem Einsatz von KI und den potenziellen Effekten zusammen? Wenn wir so fragen, nähern wir uns bildungsphilosophischen Debatten und die laden eigentlich immer zum tieferen Nachdenken und zum kritischen Abwägen ein. So könnten wir zum Beispiel für den Praxis-Pol Nutzen als Referenz für mögliche Werte heranziehen, für den Wissenschafts-Pol das Streben nach Erkenntnis als Grundlage für Werte und für den Pol Person Sinn oder Sinnhaftigkeit. Üblicherweise bleibt das alles implizit. Die Sicht auf die Phänomene rund um KI kann sich ändern, wenn wir unsere impliziten Wertvorstellungen explizieren oder auch neu ausrichten.

Gabi Reinmann: Dies ist natürlich nur eine mögliche Herangehensweise. Wir könnten alternativ bestehende Werte der Hochschuldidaktik aufgreifen und zum KI-Einsatz in der Hochschulbildung in Bezug setzen. Nehmen wir als Beispiel das Bildungsziel Mündigkeit. Da liegt etwa die Frage nahe: Hilft KI-gestütztes Lehren und Lernen Studierenden dabei, sich zu mündigen Menschen zu entwickeln, oder wird das dadurch eher behindert? Ein weiterer Weg wäre, ethische Überlegungen zu KI aus anderen Kontexten auf die Hochschulbildung zu beziehen. Beispielsweise diskutiert der Deutsche Ethikrat in seiner Stellungnahme vom März 2023 die Herausforderungen durch KI in verschiedenen Anwendungsfeldern außerhalb der Hochschule. Die angeführten Argumente ließen sich prüfend auf den Bereich Hochschule übertragen und eine entsprechende Wertediskussion anregen.

Sehen Sie auch neue Potenziale durch den Einsatz KI in der Hochschulbildung? Können Sie dafür konkrete Beispiele nennen?

Alice Watanabe: Bisher hat noch jede neue Technologie nicht nur Einfluss auf die Hochschulbildung genommen, sondern auch Wege gefunden, Lernen und/oder Lehren besser zu machen oder zumindest so zu gestalten, dass neue Vorzüge hervortreten. Das wird auch mit (generativer) KI der Fall sein bzw. ist stellenweise auch schon der Fall. Mittels KI lassen sich Lernmaterialien für Studierende personalisieren; KI wird als zusätzlicher „Lernbuddy“ eingesetzt; für Projektarbeiten aller Art nutzt man KI, um Literaturrecherchen durchzuführen, kreative Prozesse anzuregen, Texte zu verbessern usw. Es gibt tatsächlich viele Möglichkeiten für den KI-Einsatz in der Hochschullehre, die in wissenschaftlichen Beiträgen diskutiert werden und aus didaktischer Sicht eine neue Perspektive eröffnen.

Gabi Reinmann: Darüber hinaus eröffnet die aktuelle Entwicklung generativer KI-Systeme neue Forschungsfelder für die Hochschuldidaktik. Neben genuin didaktischen Fragestellungen zur Integration von KI in Studium und Lehre sind die gravierenden Eingriffe von KI in akademisches Handeln ein konkreter Anlass, wieder mehr über Technikfolgenabschätzung und bildungsphilosophische Themen nachzudenken.  

Welche Gefahren werden Ihrer Meinung nach derzeit in Bezug auf den Einsatz von KI in der Hochschulbildung übersehen oder nicht hinreichend diskutiert?

Alice Watanabe: Man kann beispielhafte Gefahren gleich direkt an die genannten Positiv-Beispiele koppeln, denn sie alle können – meist ungewollte – Nebeneffekte haben: So ist denkbar, dass Studierende durch personalisierte Lernmaterialien zwar schneller durchs Studium kommen, aber schlechter in der Selbsteinschätzung werden oder keine eigenen Lernstrategien entwickeln. Wer statt Peers nur mehr künstliche Lernbuddys heranzieht, verliert einen Teil der sozialen Eingebundenheit. Lehrende und Studierende sollten stets reflektieren, welchen Preis die Delegation von Aufgaben an KI jeweils hat.

Gabi Reinmann: In der aktuellen Debatte über die KI-Gefahren in der Hochschulbildung dominieren Täuschungsversuche und der Verlust wissenschaftlicher Integrität durch KI. Doch das ist nur ein Ausschnitt aus dem Risikoportfolio. Die schon erwähnte Stellungnahme des Deutschen Ethikrats gibt einen differenzierten Überblick über weitere Gefahren, die man bei aller Begeisterung für die Potenziale von KI im Blick behalten sollte. Aus unserer Sicht kann man die Risiken durch KI auf dem Hochschulsektor unter den Dreiklang Kompetenz-, Kontroll- und Sozialverluste fassen. Werden Aufgaben an KI delegiert, die zuvor Menschen ausgeübt haben, wird das dazu erforderliche Wissen und Können nicht mehr eingeübt und geht dem Individuum und der Gesellschaft verloren. Deskilling tritt ein – das klang schon beim wissenschaftlichen Schreiben an. Kontrolle geht dann verloren, wenn Lehrende und Studierende zum Beispiel nicht mehr nachvollziehen können, wie generative KI-Systeme zu ihren Ergebnissen kommen, wenn Lehrpersonen oder Gutachter wichtige Entscheidungen ganz oder teilweise über KI laufen lassen, wenn offenbleibt, was mit den eigenen Daten im Umgang mit KI-Systemen passiert – die Beispiele ließen sich fortsetzen. Sozialverluste wurden schon kurz angesprochen: KI als Partner kann einsam machen, kann einen daran gewöhnen, dass der scheinbare Dialogpartner immer adaptiv und „freundlich“, jedenfalls nie eine Zumutung ist, wie es die soziale Umwelt schon mal sein kann.

Zum Schluss die Frage: Gibt es didaktische Prinzipien, die diesen potenziellen Gefahren entgegenwirken könnten – oder umgekehrt, die dazu beitragen, KI möglichst gewinnbringend in die Lehre zu integrieren?

Gabi Reinmann: KI wird nicht wieder verschwinden. Daher kann die Diskussion um Risiken kein Plädoyer dafür sein, KI aus der Hochschule zu verbannen. Was wir aber für dringend erforderlich halten, ist ein aufgeklärten und verantwortungsvoller Umgang mit KI. Das betonen in der Regel auch alle Leitlinien zum Thema, die Hochschulen inzwischen erstellt haben. Allerdings ist damit noch lange nicht garantiert, dass das auch eine gelebte Praxis wird. Hier muss die Hochschuldidaktik ansetzen und eine aufgeklärte Lehr-Lernpraxis mit KI befördern. Wie das genau gehen kann, das gilt es erst einmal herauszufinden. Wir müssen also – mal wieder – didaktisch experimentieren.

Alice Watanabe: Aktuell beschäftigen wir uns mit KI und forschendem Lernen. Dieses didaktische Konzept eignet sich gut dafür, KI reflektiert und risikosensibel einzusetzen. Dazu ein paar Beispiele: Wenn Studierende selbst forschen, müssen sie die dazu erforderlichen Erkenntnismittel tatsächlich verstehen, sonst scheitern sie. So bringt es Studierenden wenig, wenn sie sich mit generativer KI einen Interviewleitfaden kreieren lassen, dessen Aufbau und Inhalt sie kaum verstanden haben. Spätestens bei der Durchführung des Interviews werden sie merken, dass ihnen dieses Wissen fehlt. Dagegen kann es sinnvoll sein, sich bei Transkriptionen von KI unterstützen zu lassen. Wenn Studierende im Team eine Forschungsfrage bearbeiten, können sie gemeinsam entscheiden, an welchen Stellen eine Entlastung durch KI legitim ist und an welchen Stellen zumindest kein schneller Konsens zu erzielen ist. Selbst am Ende eines Forschungsprozesses, wenn es darum geht, Ergebnisse zu kommunizieren, kann generative KI eingebunden werden – nun auch in Verbindung mit Fragen, die sich aktuell jede wissenschaftliche Fachgemeinschaft stellen muss: Wer kann, wer darf Autorenschaft in der Forschung beanspruchen? Forschendes Lernen ist also ein probates Übungsfeld für einen verantwortungsbewussten KI-Einsatz.

Gabi Reinmann: Vom forschenden Lernen lässt sich schließlich noch ein Bogen zum forschenden Lehren im Sinne von Scholarship of Teaching and Learning (SoTL) schlagen. Wenn der KI-Einsatz in der Forschung wie auch in der Lehre fachkulturell zu betrachten ist, dann erscheint es nur konsequent, wenn Hochschulbildungsforschung zu KI auch in Verbindung mit einzelnen Fachwissenschaften betrieben wird. In SoTL-Projekten können schließlich auch Studierende und ihre Erfahrungen einbezogen werden – Erfahrungen zu den Potenzialen von KI ebenso wie zu möglichen Kompetenz-, Kontroll- und Sozialverlusten.

Beitragende

Prof. Dr. Gabi Reinmann ist seit 2015 Professorin für Lehren und Lernen an Hochschulen, Leiterin des Hamburger Zentrums für Universitäres Lehren und Lernen (HUL) an der Universität Hamburg und Studiengangsleiterin des Masterstudiengangs Higher Education.
Ihre Schwerpunkte in Forschung und Lehre sind Hochschuldidaktik, Wissenschaftsdidaktik und Design-Based Research.
Alice Watanabe arbeitet als wissenschaftliche Mitarbeiterin im Projekt „Insel der Forschung 2.0“ an der Universität Hamburg im Hamburger Zentrum für Universitäres Lehren und Lernen (HUL).

Weitere Informationen

Dieser Erfahrungsbericht ist Teil des Themenspecials KI in der Hochschulpraxis.