Macht ChatGPT Studierende denkfaul? — Einblick in einen sinnvollen Umgang mit KI an der Universität Bern

27.03.24
Als PDF downloaden
Autorin
Carol Blaser

Für Sie zusammengefasst:

Künstliche Intelligenz (KI) entwickelt sich in einem rasanten Tempo und kann zunehmend menschliche Arbeit übernehmen. Gesellschaftlich sind wir deshalb mit der Frage konfrontiert, wie wir die Zusammenarbeit mit künstlicher Intelligenz gestalten wollen. Der Wissenschaftsphilosoph Prof. Claus Beisbart gibt in einem Gespräch Einblick in die Integration von KI an der Universität Bern.

Die Zukunft der Faulen

Bei der UniBE Foundation steht die Förderung von Forschung im Fokus, die zukunftsorientiert und innovativ ist, weshalb bei uns KI ein wiederkehrendes Thema ist. Die Arbeitsbereiche von KI erweitern sich zunehmend. Heute kann eine KI wie ChatGPT bereits kreative Tätigkeiten der menschlichen Arbeit – beispielsweise die Textproduktion – übernehmen. Es scheint, dass KI-Systeme Menschen das Denken und Lösen von Problemen vermehrt abnehmen. Möglicherweise können wir also dank KI bald mehr Zeit in unsere Hobbies stecken. Was aber, wenn ein breiter Einsatz von KI denkfaul macht? Für eine Denkfabrik wie die Universität Bern wäre eine solche Entwicklung durchaus gefährlich.

Im Gespräch mit Claus Beisbart, der am Institut am für Philosophie als Professor für Wissenschaftsphilosophie arbeitet, interessiert mich nun, welche Folgen der Einsatz von KI heute bereits an der Universität hat und welchen gesellschaftlichen Herausforderungen wir uns zukünftig noch stellen müssen.


Interview mit Prof. Claus Beisbart

UniBE Foundation: Herr Beisbart, was hat Sie dazu bewegt, einen Ihrer Forschungsschwerpunkte auf KI und Ethik zu legen?

Zurzeit führen viele Wege zur künstlichen Intelligenz. In der Wissenschaftsphilosophie habe ich mich früher bereits mit computerbasierten Methoden beschäftigt. Im Fokus standen vor allem Computersimulationen, die beispielsweise in den Klimawissenschaften zum Einsatz kommen, um Vorhersagen zu machen. Aktuell werden Computersimulationen jedoch immer mehr ersetzt oder ergänzt durch sogenanntes ‚machine learning‘. Um dieses ‚machine learning‘ gibt es derzeit einen richtigen Hype. Mich interessiert, was nun mit den Wissenschaften passiert, wenn solche Verfahren, die für uns weitgehend ‚black boxes‘ sind, angewendet werden. Auch Ethik wird da schnell relevant. Zum Beispiel ist eine ethische Frage, was wir über eine KI-Anwendung wissen müssten, um sie etwa in der Medizin einsetzen zu können.


KI trifft Entscheidungen, um zu einer Lösung zu gelangen. Meist sind die Abläufe im Entscheidungsprozess für uns nicht sichtbar. Ausserdem verstehen wir nicht, warum die KI eine bestimmte Entscheidung getroffen hat. Ist dies der Fall, dann gilt die KI als ‚black box‘.


Welche praktischen Wege sehen Sie, um eine inklusive und transparente KI in die Forschung miteinzubringen?

Da gibt es ganz unterschiedliche Ansätze. Ein grosses Problem für die Universitäten ist es, dass ChatGPT und andere grosse Modelle aus der Industrie kommen. Wir haben sie nicht selbst gemacht und können sie auch nur im Nachhinein untersuchen, wie sie auch alle Nutzer:innen untersuchen können. Die Universität sollte da vorangehen und selbst Modelle entwickeln. Ein anderer Ansatz ist explainable KI (XAI). Das heisst, die KI ist von Anfang an so gebaut, dass sie verständlicher ist. In Ansätzen mit Fokus auf Interpretierbarkeit versucht man im Nachhinein Algorithmen durch eine genaue Untersuchung verständlich zu machen. Solche Verfahren müssten an der Uni weiterentwickelt werden, damit sie dann auch in der Praxis eingesetzt werden können.

„Wir müssen KI unbedingt einsetzen. Sich ihr zu versperren, bringt nichts.“

Und was kann in der Lehre getan werden?

Grundsätzlich leisten wir als Uni einen Beitrag zur Aufklärung über KI. Es ist wichtig, dass die Menschen genau wissen, wie KI funktioniert, was die Gefahren, aber auch die Chancen sind, damit sie sensibel damit umgehen können. Hier haben wir einen wichtigen Bildungsauftrag. In diesem Kontext sollten wir KI unbedingt einsetzen. Sich ihr zu versperren, bringt nichts. Es geht darum, einen verantwortungsvollen Umgang mit ihr zu finden.

Für Studierende haben Sie ein digitales Modul zu Ethik und KI entwickelt. Was hat Sie dazu motiviert?

Vizerektorat-Lehre hatte die tolle Idee, für Studierende aller Fächer ein Online-Modul „Kompetenzen für die (digitale) Zukunft“ zu machen. Ich habe da gerne einen Beitrag zur Ethik geleistet. Die Gesellschaft muss Rahmenbedingungen dafür schaffen, KI verträglich in unser Leben einzubetten. Dabei ist es wichtig, dass dies nicht nur Konzerne vorantreiben und ihre eigene Politik machen. Ich denke, wir Menschen müssen uns damit auseinandersetzen, wo und wie wir KI einsetzen wollen. Letztlich geht es mir in dem Modul genau darum; das eigene Nachdenken über KI zu fördern.

Hier geht es zum Teaser des Online-Moduls „Ethik und Digitalisierung".

ChatGPT ist seit der Einführung vor gut einem Jahr im Unitalltag ein steter Begleiter geworden. Welche Herausforderungen sehen Sie im Umgang mit dieser KI in einem universitären Kontext?

Über die Undurchsichtigkeiten der KI haben wir schon gesprochen. ChatGPT ist ausserdem nicht darauf trainiert, die Wahrheit zu sagen oder Quellen anzugeben. Das kommt für akademische Arbeit sehr ungelegen. Man muss sich also sehr genau überlegen, wofür man ChatGPT einsetzt. Ich sehe ChatGPT als einen Versuch, über das, was in den Trainingsdaten aus dem Internet allso so gesagt wird, eine Art Mittelwert zu bilden. Wenn mich also interessiert, was allgemein über das Thema gesagt wird, ist ChatGPT die richtige Adresse. Aber wenn mich die Wahrheit interessiert oder was die Begründung und die Quellen sind, dann wird es mit ChatGPT schwierig.

Wie haben Sie im letzten Jahr den Umgang mit ChatGPT unter den Studierenden erlebt?

Dieses Semester habe ich das seit der Einführung von ChatGPT das erste Mal unseren Methodenkurs unterrichtet, in dem das philosophische Schreiben eingeübt wird. Für kleinere Aufgaben habe ich zugelassen, dass die Studierenden ChatGPT zu Hilfe zu ziehen. Die Begeisterung hielt sich jedoch in Grenzen. Generell habe ich den Eindruck, dass unsere Philosophiestudierenden gerne selbst schreiben. Sie sehen ein, dass sie schreiben lernen müssen und sind auch interessiert, dies zu tun. Besonders in der Philosophie ist es so, dass der sprachliche Ausdruck und das Denken eng miteinander zusammenhängen.

Arbeiten und Essays sind anfällig dafür, mit ChatGPT verfasst zu werden. Es gäbe die Möglichkeit andere Gefässe, beispielsweise mündliche Prüfungen, für die Leistungskontrolle einzuführen. Was halten Sie davon?

Ich sehe schon ein gewisses Problem mit ChatGPT. Es wird immer besser und es gibt auch andere Sprachmodelle, die zum Einsatz kommen können. Durch geschicktes Prompting kommt man in der nächsten Zeit wohl immer näher an eine gute Seminararbeit. Diese ist schwierig von ‚echten‘ Seminararbeiten oder Essays zu unterscheiden. Ausserdem gibt es Möglichkeiten den Text nachzubearbeiten und einige Rechtschreibfehler einzubauen, damit der Text eher wie eine studentische Arbeit aussieht.

Auch wenn es eine Betrugsgefahr gibt, würde ich aber nicht so weit gehen wollen, die Seminararbeit abzuschaffen. Bei uns in der Philosophie sind Seminararbeiten sehr wichtig. Studierende setzen sich über eine längere Zeit ausführlich mit einem Thema auseinander. Letztlich geht es um die gedankliche Weiterentwicklung, die für mich zur Persönlichkeitsentwicklung gehört. Die Studierenden hinterfragen ihre Annahmen, führen neue Begriffe ein und verfeinern ihre Argumentation. Dieser Prozess ist für die eigene Reflexion relevant. In einer mündlichen Prüfung kann das nicht so eingefordert werden. Was aber geschehen kann, ist eine Seminararbeit nachzubesprechen. Damit kann ich erkennen, wie gut die studierende Person die Thematik verstanden hat und ob die abgegebene Arbeit gegebenenfalls wirklich ihre eigene Leistung ist. Auch aus anderen Gründen ist ein solches Gespräch pädagogisch wertvoll – beispielsweise um Missverständnisse zu klären, die bei der Korrektur entstanden sein können.

Die Digitalisierung erfordert, dass Mensch und Maschine zusammenarbeiten. Welche Chancen gibt es da?

Die grosse Chance ist, dass die KI Arbeit übernimmt, die wir nicht gerne machen. Uninteressante oder langweilige Tätigkeiten könnte also die KI übernehmen. Es besteht auch die Möglichkeit, dass die KI diese Arbeit besser macht als wir. Beispielsweise liefert die KI in der Medizin teilweise bessere Diagnosen als der Mensch – allerdings geht es hier um sehr spezifische Aufgabenbereiche.

Und welche Risiken gibt es?

Ich arbeite mit computerbasierten Methoden. Mein Team und ich haben ein Forschungsprojekt, das ein Stück weit versucht, moralische und philosophische Reflexionen, auf dem Computer zu implementieren, was ansatzweise als KI gesehen werden kann. Dabei handelt es sich aber nicht um ‚machine learning‘, was momentan so gehyped ist. Dennoch ist es auch eine Art von künstlicher Intelligenz, da menschliche Überlegungsprozesse von einem Computer nachgebildet werden. Moralisches Denken wird ein Stück weit simuliert. Ausserdem habe ich einige Ideen wie ich ChatGPT in der Forschung verwenden könnte, aber diese habe ich noch nicht realisiert.

„Wir wollen auf jeden Fall eine menschliche Wissenschaft.“

Denken Sie, dass Forschende eines Tages aufgrund von KI unnötig werden?

Nein, das glaube ich nicht. Wobei man schon sagen muss, dass KI, was Einzelleistungen angeht, sehr gut ist. Es sind immer spezialisierte Aufgaben, die die KI übernimmt und wo sie so trainiert werden kann, dass sie besser ist als ein Mensch. Was der KI aber bisher fehlt, ist eine allgemeine Intelligenz. Auch die Entscheidung über ein relevantes Forschungsthema und die Verwendung meiner Zeit und Ressourcen kann mir die KI nicht so einfach abnehmen. Wir wollen auf jeden Fall eine menschliche Wissenschaft und keine automatisch vor sich hinlaufende Wissenschaft, die irgendwas erforscht, worauf wir gar keinen Einfluss mehr haben. So wie es momentan aussieht, braucht es den Menschen auch für viele intellektuelle Leistungen, beispielsweise um Querverbindungen herzustellen. Auf absehbare Zeiten wird es den Menschen also noch brauchen.


Nach einer halben Stunde verabschiede ich mich von Herrn Beisbart. Das Gespräch hat mir gezeigt, dass uns mit KI an der Universität und in der Gesellschaft sicherlich neue, interessante Wege offen stehen, um auf kreative Weise mit Wissen umzugehen. Es hat mich aber auch nachdenklich gestimmt und gezeigt, dass wir als Gesellschaft massgeblich an der Mitgestaltung der Nutzung von KI im Alltag wie auch an der Universität beteiligt sind. Wir sollten uns deshalb nicht davor scheuen, sich mit ihr auseinanderzusetzen.


PROF. CLAUS BEISBART ist Professor am Institut für Philosophie mit dem Schwerpunkt Wissenschaftsphilosophie an der Universität Bern. Ebenfalls ist er auch mit Center for Artificial Intelligence in Medicine (CAIM) verbunden.

In Zusammenarbeit mit dem Institut für Philosophie, dem Bereich Hochschuldidaktik und Lehrentwicklung sowie der Supportstelle für ICT-gestützte Lehre und Forschung (iLUB) gibt er in einem Online-Modul einen Einblick in Ethik der Digitalisierung. Bild zvg


KÜNSTLICHE INTELLIGENZ (KI) sind Technologien, die menschliche kognitive Prozesse imitieren, werden als künstliche Intelligenz beschrieben. Innerhalb der KI wird grob zwischen schwacher und starker KI unterschieden.

Starke KI kann selbstständig Aufgabenstellungen erkennen und eine Lösung dafür finden. Das Wissen zur Problemlösung kann sie sich selbständig erarbeiten. Starke KI kann also kreativ und innovativ mit Wissen umgehen, wie es auch ein Mensch kann. Eine solche KI ist jedoch noch nicht realisiert.

Schwache KI löst spezifische und wiederkehrende Probleme. Sie ist auf das Erkennen von Muster trainiert, wie es beispielsweise ein Navigationssystem oder eine Spracherkennungsapp tut. Auch ChatGPT ist eine schwache KI. Dabei handelt es sich um ein Sprachmodell, das auf ‚machine learning‘ beruht.

MACHINE LEARNING
Verfahren zum Entwickeln von statistischen Modellen, die auf selbstadaptiven Algorithmen beruhen, wird ‚machine learning‘ genannt. Dieses lässt KI in grossen Datensätzen Muster und Zusammenhänge erkennen. Erkannte Muster kann die KI dann auf unbekannte Situationen anwenden, um darauf zu reagieren und Vorhersagen zu treffen. Die interessanteste KI basiert heute darauf, dass die Systeme aus den Erfolgen und Misserfolgen ihrer Anwendung lernen.

Eine besonders leistungsstarke Art von ‚machine learning‘ ist Deep Learning. Diese involviert viele Schichten von künstlichen Neuronen. Auf diese Technologie greift auch ChatGPT zurück. Sie kann in besonders grossen Datensätzen Muster erkennen und dann mögliche Prognosen treffen.


chevron-down