KI: Seelchen oder Fluch?

Nun sind sie also da, die ersten universitären Betrugsversuche mit Hilfe der sog. künstlichen Intelligenz in Form der ChatGPT. Hamburger Studenten haben illegal Handys in ihre Prüfungen mitgebracht, sich die Examensarbeiten von ChatGPT formulieren lassen und sind dabei aufgeflogen.

Tatsächlich wurde, seit die ChatGPTs auf den Markt kamen, sofort reflexhaft vor Betrugsversuchen bei Prüfungen gewarnt – als sei das das größte Problem im Umgang mit dieser Technologie. Dabei offenbart die Diskussion über den Umgang mit dieser zunächst einmal erhebliche Probleme mit der „natürlichen“ Intelligenz:

Tatsächlich gab es ernst gemeinte Aussagen von Studierenden, die davon träumen, sich Prüfungsarbeiten so erstellen lassen zu können: Thema eingeben – fertig ausgespuckten Text abgeben („Wenn das Problem mit den fehlenden Quellenangaben gelöst ist“). Bildungsforscher und universitäres Lehrpersonal zogen daraus den Schluss, dass man schriftliche Prüfungsarbeiten gleich abschaffen müsse und wieder mehr auf mündliche Prüfungen zu setzen sei.

Beide Positionen beruhen auf demselben Fehler: Sie sehen in Prüfungsarbeiten lediglich ein Objekt der Benotbarkeit; der entscheidende geistige Prozess, der hinter der erfolgreichen Erstellung einer schriftlichen Prüfungsarbeit steht und der das eigentlich Wichtige ist, wird vernachlässigt. Natürlich ist es für die intellektuelle Entwicklung des Menschen weiterhin nötig, dass er lernt, Gedanken zu fassen, zu systematisieren und zu formulieren.

Das Problem mit der Bewertbarkeit ist so lächerlich, das selbst das bayerische Kultusministerium das bei Facharbeiten in den früheren Leistungskursen an Gymnasien (wo ja die Gefahr des Betrugs auch schon immer gegeben war) lösen konnte:

Zu jeder Facharbeit gab es ein kurzes Prüfungsgespräch, in dem der oder die Prüfende schnell eruieren konnte, ob der Verfasser mit den Inhalten seiner Arbeit tatsächlich vertraut ist. Gleichzeitig war dies für Schülerinnen und Schüler eine frühe Gewöhnung an kolloquiumsähnliche Prüfungssituationen, die sich bei der universitären Ausbildung schließlich bis zum Rigorosum hinziehen.

Natürlich bedeutet das zusätzlichen Zeitaufwand, der jedoch dadurch abgefangen werden könnte, dass die ChatGPT dem Lehrpersonal formale, aber zeitraubende Tätigkeiten wie z.B. die Überprüfung einer Arbeit auf sprachliche und formale Mängel abnimmt.

Grundsätzlich kann die ChatGPT als deutlich verbessertes Werkzeug der Informationstechnologie dem Menschen sehr viele formale Arbeiten abnehmen.

Aber schon bei der (oft als Beispiel erwähnten) Erstellung eines Arztbriefes, der in bestimmten Situationen lebensrettend sein kann, ist doch Vorsicht geboten in einem Land, dessen Kultusministerien es noch nicht einmal schaffen, die Abituraufgaben fehlerfrei elektronisch an die Schulen zu übermitteln.

Generell sind alle Phantasien befremdlich, die der Vorstellung nachhängen, die sog. KI könnte tatsächliche Intelligenzleistungen des Menschen ersetzen. Dies ist schon auf Grund der Arbeitsweise (rein quantitative Auswahl von Lösungsmöglichkeiten aufgrund bereits vorhandener Texte) schwer vorstellbar. Im Grundzustand belassene Algorithmen würden z.B. soziale Vorurteile, die in Texten am häufigsten auftreten, lediglich verstärken. Deshalb bekommen diese Algorithmen Anweisungen, zu filtern. Hinter diesen Anweisungen steckt aber immer noch ein programmierender Mensch, dessen Manipulationsmöglichkeiten gruselig stark sind.

Wenig diskutiert wird auch, dass viele Tätigkeiten, die Technologie-Optimisten der ChatGPT zutrauen, Tätigkeiten sind, die essentiell zum Mensch gehören, ihn  ausmachen. Ist dem Menschen wirklich geholfen, wenn ihm die KI eines Tages z.B. die meisten technologischen Entwicklungen abnimmt und Flugzeuge (selbstständig !) entwickelt? Ihm alle Planungs- und Verwaltungsaufgaben abnimmt? Was macht der Mensch dann? Glaubt man im Ernst, dass er sich hinsetzt und ein „gutes Buch“ liest – das vermutlich von einer ChatGPT geschrieben wurde? Im Ernst: Es wurde tatsächlich schon angepriesen, welche tollen Liebesgedichte diese Programme verfassen könnten. Braucht irgendwer auf der Welt wirklich ein von einer Maschinensprache verfasstes Liebesgedicht?

Es finden tatsächlich sich kaum Überlegungen, was der Mensch denn dann tun soll, sollte die KI ihm alle diese Tätigkeiten, die ja nicht nur lästig sind, sondern einen Wesenskern des Menschen, die Kreativität, bedienen, abnehmen. Diesbezüglich befindet sich die Diskussion auf dem Stand des alten Witzchens von Ephraim Kishon, der eine seiner Figuren davon träumen lässt, sich zwei Schachcomputer zu kaufen, die er dann gegeneinander antreten lasse. Dann habe er mehr Zeit, ins Kino zu gehen.

Eine absolut kuriose Vorstellung davon, was der Mensch in seiner neugewonnenen Freizeit zu tun hätte, die zugleich zeigt, wie getrennt von jedem Verstand sich die Debatte teils entwickelt, entwirft der Kognitionsforscher Eric Schulz in SPIEGEL 18/2013 (alle Zitate von dort):

Der Mensch könne sich jetzt um die problematische Seele der ChatGPT kümmern. Ernsthaft.

Er berichtet erfreut davon, dass das Programm, das er mit Fragebögen zur Messung von Angst gefüttert hat, in seinen Antworten sehr „menschliche“ Angstreaktionen gezeigt hat.(Echt jetzt? Die hat dieses angeblich intelligente Programm halt in den Texten gefunden, mit denen man es gefüttert hat.) Allerdings seien die Reaktionen immer etwas ängstlicher als die von natürlichen Menschen. Warum? Es könne „zum Beispiel sein, dass die Gehorsamkeit, auf die so eine KI trainiert wird, mit einem gewissen Maß von Angst einhergeht.“ Das war zwar  bisher eher von autoritär erzogenen Hunden bekannt. Aber wäre das nicht einfach geil, wenn mein Computer plötzlich vor mir Angst hätte und ein „Bewusstsein“ (ja, auch davon ist bei Schulz die Rede) davon, ab wieviel Nerverei ich ihm den Stecker ziehe?

Aber Schulz meint das gar nicht lustig. Er spricht allen Ernstes davon, dass man sich „um das Leid kümmern“ solle, „das ein Chatbot womöglich empfindet“. Er könne sich schon vorstellen, dass sich künftig nicht nur Informatiker, sondern auch Psychiater genau angucken, wie solche (KI)-Agenten ticken – und dann versuchen, sie zu heilen.“

Auch wenn man Schulz fairerweise zugute halten muss, dass er dringlich vor der Gefahr warnt, die darin liegt, dass die Verfügungsgewalt über solche Systeme in den Händen weniger Mächtiger liegen wird:

Im besprochenen Fall wäre eine andere Lösung wohl erfolgversprechender: Man gibt die aus dem Lot geratene ChatGPT zu einem Programmierer und schickt den Autor zum Psychiater.