Zum früheren Deutschunterricht gehörte nicht selten die Aufforderung, sich eine Geschichte auszudenken und/oder aufzuschreiben, in der einige festgelegte „Reizwörter“ vorkommen mussten. Je unzusammenhängender die vorgegebenen Wörter waren — Beispiel: Hexenhaus, Tirolerhut und Gorilla —, desto mühsamer gestaltete sich die Erledigung der Aufgabe. Ganz schwierig wurde es, wenn auch noch das Genre, etwa Märchen oder Science Fiction, und der Umfang beachtet werden mussten. In dieser Situation hätten sich die damaligen Schüler über einen Textgenerator wie ChatGPT sicher sehr gefreut und keinen Gedanken an mögliche langfristige Folgen verschwendet.
Diese unbekümmerte Art der Nutzung scheint noch immer vorzuherrschen, obwohl — oder weil — ChatGPT inzwischen schon ziemlich verbreitet ist.
Die begeisterten Befürworter schwärmen von der Schnelligkeit, mit der die angeforderten Texte erstellt werden, vom unerwartet großen Wissensspektrum oder von der sprachlich hohen Formulierungsqualität. Seitens einiger Professoren ist zu hören, dass sie überdies den Wegfall des auf die Rechtschreibung bezogenen Korrekturbedarfs sehr zu schätzen wissen.
Sehr attraktiv sind auch die vielen Einsatzmöglichkeiten: Briefentwürfe für und von Behörden, Erledigung buchhalterischer Aufgaben, launige Geburtstagsgrüße oder -gedichte, Trauerreden, Bewerbungsschreiben, Schnellübersetzungen, Gutachten, Recherchen sowie vielerlei schriftstellerische Texte. Darüber hinaus reagiert ChatGPT nicht nur auf Eingabebefehle, sondern lässt auch „mit sich reden“, indem es Fragen beantwortet oder bestimmte Auslassungen erläutert. Kurzum: Wir scheinen es hier mit einem „Wunderding“ zu tun zu haben, das unser Leben enorm erleichtert.
Auch wenn diese Einschätzung nicht grundsätzlich falsch ist, ergibt sich dennoch ein ganz anderes Bild, wenn wir uns den daraus resultierenden Folgen zuwenden. Um mit dem Bildungsbereich zu beginnen: Bei schriftlichen Hausaufgaben, Bachelor- und Masterarbeiten sowie anderen wissenschaftlichen Abhandlungen können sich die später Beurteilenden der Urheberschaft nicht länger sicher sein, sodass notgedrungen viel mehr mündliche Überprüfungen stattfinden müssen. Diese Möglichkeit ist aber nicht überall gegeben (Beispiel Preview-Verfahren).
Die von Benutzern wie Gerald Dyker durchgeführten Testläufe (1) haben ergeben, dass ChatGPT programmatische Lücken mit erfundenen Angaben füllt, die aber dermaßen echt wirken, dass sie leicht als glaubwürdig akzeptiert werden. Dazu ein Zitat aus dem von Dyker verfassten Zeitungsartikel:
„Zu einer medizinisch-neurologischen Fragestellung hat ChatGPT folgenden Literaturhinweis gegeben: ‚Die Studie aus dem Jahr 2015: Thalamic Connectivity and Response to TMS in Patients with Chronic Aphasia after Stroke‘ von (behaupteter Autorenname redaktionell entfernt) et al. In: Journal of Neuroscience, 35(8): 3965-3972.“
Obwohl hier in wissenschaftlich korrekter Form zitiert worden ist und sowohl die angeführte Zeitschrift als auch der von ChatGPT genannte Autor tatsächlich existieren, handelt es sich bei der Auskunft um eine komplette Falschaussage, da der Publikationstitel frei erfunden worden ist und es die angegebenen Seiten in der genannten Ausgabe der Zeitschrift gar nicht gibt. Nun stelle man sich vor, dass ein unter Zeitdruck recherchierender Journalist oder Wissenschaftler die Falschaussagen ungeprüft übernimmt und andere Kollegen — im Rahmen des berühmt-berüchtigten „Zitierkartells“ — auch noch für deren Verbreitung sorgen (2).
Dem eben angesprochenen Zeitungsartikel zufolge erfindet ChatGPT auch Autoren und interessante Buchtitel, „wenn es an passenden Informationen mangelt“. Hieraus ergibt sich noch keine existenzielle Bedrohung für schriftstellerisch tätige Menschen, die sich aber spätestens dann einstellen wird, wenn sie ihre eigene Urheberschaft nicht mehr zweifelsfrei nachweisen können. Welcher Verlag wird dann noch bereit sein, die von ihnen angebotenen Werke zu veröffentlichen?
Leider können wir uns selbst dann, wenn die Zahl der gefälschten Lückenfüller allmählich zurückgehen sollte, nicht entspannt zurücklehnen. Das ist auch deshalb nicht möglich, weil mithilfe von künstlicher Intelligenz (KI) nicht nur Texte, sondern auch Bilder und Videos generiert werden, deren Wahrheitsgehalt sich sogar noch schwerer nachweisen lässt.
In Anspielung auf die sogenannten Deepfake-Videos warnt inzwischen sogar der Google-Chef Pichai vor sozialen Schäden und fordert rechtliche Leitplanken für die neuen Technologien. Auch Elon Musk hat sich schon sehr kritisch geäußert, allerdings eher im Sinne der amerikanischen Rechten, die den KI-gestützten Programmen eine Art „Linksdrall“ vorwerfen.
Bleibt festzuhalten, dass das Fälschungs- und somit auch Manipulationspotenzial aller mit riesigen Datenmengen „gefütterten“ Programme sehr hoch ist, sodass wir, einschließlich der „öffentlich-rechtlich“ verbreiteten Nachrichten, irgendwann überhaupt keiner Information mehr trauen können. Bricht dann das Zeitalter der kompletten Desorientierung an? Anders gefragt: Wie sollen wir uns zukünftig verhalten, wenn wir keiner Aussage mehr „blind“ vertrauen können und wenn sich selbst die Urheberschaft sowohl von künstlerischen Werken als auch von politischen Stellungnahmen nicht mehr zweifelsfrei ermitteln lässt?
Auf jeden Fall ist nicht damit zu rechnen, dass sich die 1985 von der Aktion Gemeinsinn für die Zukunft empfohlene „kultivierte Technik“ noch realisieren lässt (3). Über diesen Punkt sind wir längst hinaus, und der — ebenfalls schon vor langer Zeit formulierte — Verhaltenskodex für das Internet wird uns auch nicht mehr weiterhelfen.
Stattdessen müssen wir konstatieren, dass mit ChatGPT ein weiteres Programm auf den Markt gekommen ist, das die für den sozialen Zusammenhalt so wichtigen Voraussetzungen wie Vertrauen und Verlässlichkeit grundlegend erschüttert und damit wertlos gemacht hat. ChatGPT ist zwar längst nicht der einzige Destabilisator, aber ein besonders verführerisches Element auf unserem Weg in eine „smarte Diktatur“.
Ein bisschen hoffnungsvoll stimmt die Beobachtung, dass sich so ganz allmählich doch etwas Gegenwehr formiert. Vor drei Wochen (Stand 19. April 2023) wurde bei change.org eine diesbezügliche Petition gestartet („Künstliche Intelligenz: Die Zeit ist knapp! — Für verantwortungsbewusste KI-Entwicklung!“), und in Berlin ist eine Initiative Urheberrecht entstanden, die „Maßnahmen zum Schutz vor generativer KI in der Europäischen KI-Verordnung“ fordert.
Quellen und Anmerkungen:
(1) Dyker, Gerald, Eine Intelligenz, die lügt, ohne rot zu werden, Berliner Zeitung vom 17.4.2023, Seite 19.
(2) Dabei sollte man sich nicht mit dem Gedanken „trösten“, dass wissenschaftliche Täuschungen auch schon früher relativ häufig vorgekommen sind. Auf entsprechende Beispiele hat die Autorin in einem aus dem Jahr 2018 stammenden Beitrag hingewiesen: Garrel, Magda von, Wissenschaftslügen. Vom Niedergang der wissenschaftlichen Glaubwürdigkeit, https://big.businesscrime.de/artikel/wissenschaftsluegen/.
(3) Aktion Gemeinsinn e. V., Droht uns die Zukunft?. Kultivierte Technik für Mensch und Natur, Bonn 1985, Autor: Nicolas M. Urmes
Wenn Sie für unabhängige Artikel wie diesen etwas übrig haben, können Sie uns zum Beispiel mit einem Dauerauftrag von 2 Euro oder einer Einzelspende unterstützen.
Oder senden Sie einfach eine SMS mit dem Stichwort Manova5 oder Manova10 an die 81190 und mit Ihrer nächsten Handyrechnung werden Ihnen 5, beziehungsweise 10 Euro in Rechnung gestellt, die abzüglich einer Gebühr von 17 Cent unmittelbar unserer Arbeit zugutekommen.