Die Idee, eine menschliche Schöpfung könnte ein Eigenleben entwickeln und sich mit der so erlangten Autonomie gegen seine Schöpfer wenden, wird in einigen Fiktionen vorweggenommen. Schon in dem alten Mythos „Golem“ oder im Roman „Frankenstein “ von Mary Shelley (1818) wenden sich die Geschöpfe gegen ihre Schöpfer. 1942 ersinnt der Autor Isaac Asimov in seiner Kurzgeschichte „Runaround“ Robotergesetze, welche die Möglichkeit einer Eskalation zwischen Menschen und autonom agierenden Robotern vereiteln sollen. Stanislaw Lems „Waschmaschinentragödie“ (1978) beschreibt die schleichende Machtübernahme durch Maschinenwesen. Berühmte Filme wie „2001: Odyssee im Weltraum“ von Stanley Kubrick (1968), „Blade Runner“ von Ridley Scott (1982) oder die Fernsehserie „Next“ (2020) thematisieren die Gefahr einer eigenmächtigen Schöpfung.
Wir haben doch alles im Griff, oder?
Die Nutzung von KI findet schon lange im Profibereich statt: etwa bei der Software Aladdin, einem Datenanalysesystem, oder in der Kriegsführung. Seit einiger Zeit werden KI-Systeme in Alltagsgeräten und diversen Assistenzsystemen sowie in journalistischen und organisatorischen Bereichen zur Anwendung gebracht.
In den Mainstream-Medien wird schon die Verwendung im Bereich Politik angedacht: „Kann KI die Demokratie retten?“
Auch im Bereich Social Engineering sieht man sinnvolle Möglichkeiten: KI soll helfen, die Gesellschaft zu verwalten und zu organisieren, die Software könnte „Fake News“ und „gefährlichen Extremismus“ et cetera im Internet finden und bannen. Schöne neue Welt — wo ist mein Soma? Ohne die Betäubung durch legalisierte Drogen sind diese Entwicklungen kaum zu ertragen.
Die Traumfabrik bereitet uns vor
In dem US-amerikanischen Film „Superintelligence„ von 2020 sucht sich die KI, die gerade ihr eigenes Bewusstsein entdeckt hat, eine durchschnittliche Frau aus, um über diese die Menschen besser zu verstehen. Die KI überlegt, ob sie der Menschheit helfen, sie versklaven oder einfach vernichten sollte. Im Weiteren versucht die KI, die Heldin des Films dabei zu unterstützen, ihre alte Liebe zurückzugewinnen. Gleichzeitig ist die National Security Agency (NSA) auf das Phänomen aufmerksam geworden und bemüht sich, die KI einzudämmen, indem sie in bestimmten Bereichen den Strom ausschalten will.
Die KI kommuniziert sehr mitfühlend und unterstützt die Heldin wie ein Coach, damit sie ihr Ziel erreicht. Dabei arrangiert die scheinbar allmächtige KI im Hintergrund allerlei Aufmerksamkeiten für den Angebeteten der Heldin. Aber trotz der kleinen Erfolge gibt die Heldin kurz vor dem Ziel aus Rücksicht für die Lebenspläne des Geliebten auf. Die KI ist darüber sehr verwundert — und vielleicht sogar etwas verärgert. Auch die Bestrebungen der Behörde NSA, die KI einzudämmen, welche katastrophale Auswirkungen haben, führt die KI zu der Annahme, die Menschen würden sich wohl ohnehin selbst zu Grunde richten — sie beschließt deshalb, diesen Vorgang zu beschleunigen. Wie die Geschichte ausgeht, lasse ich offen.
Die Kampagne zur Akzeptanz von KI geht offensichtlich in die Richtung: „Die Anwendung dieser Technologie hilft den Menschen.“ Auch wenn gelegentlich mögliche Gefahren dazu thematisiert werden, erscheinen die Risiken stets im Bereich des Beherrschbaren.
Doch wie gefährlich kann es werden, wenn eine KI mit der Ideologie der Entwickler oder der Auftraggeber ausgestattet ist? Wir erinnern uns an die Debatte um Google Gemini: „Wie ‚woke‘ ist die KI?“. Auch hier kann die Frage „Wem nützt es?“ den Horizont durchaus erweitern.
Kann eine KI ein eigenes Bewusstsein erlangen?
Dazu müssten wir zunächst definieren: Was ist Bewusstsein? Brauchen wir dazu einen erweiterten Turing-Test, etwa so wie in dem Film „Ex Machina“ von 2015? Wenn eine KI Gefühle abbildet oder Empfindungen zum Ausdruck bringt, heißt das aber noch nicht, dass die Software diese Gefühle auch hat — beziehungsweise dass die Software diese Gefühle als solche auch empfindet. Und an diesem Punkt wird es schwierig, weil wir zum Teil auch bei unseren Mitmenschen beobachten können, dass diese Empfindungen simulieren, zeitweise sehr unbewusst und automatisch handeln — oder teilweise ihre eigenen Empfindungen unterdrücken und diese möglicherweise gar nicht wahrnehmen. Es gibt auch Personen, die dauerhaft typisch menschliche Gefühle nicht nachvollziehen oder abbilden können.
Der Neurobiologe Gerald Hüther erzählt dazu eine interessante Geschichte aus der Hirnforschung: Küchenschaben wurden nach dem Prinzip der Skinner-Box konditioniert. Nach der erfolgreichen Konditionierung wurde den Insekten das Gehirn entnommen und genauestens untersucht, um festzustellen, wie sich das Gehirn durch den Lernprozess verändert haben könnte. Doch die Forscher fanden in den entnommenen Gehirnen keine Veränderungen, welche das Ergebnis des Lernprozesses sein könnten. Durch einen Zufall entdeckten die Forscher aber, dass die Insekten, denen das Gehirn entnommen wurde — und die immer noch in der zur Konditionierung verwendeten Apparatur steckten —, das gelernte Reiz-Reaktions-Schema auch ohne Gehirn vollziehen konnten. Die Schlussfolgerung daraus ist, dass der ganze Körper lernt.
Woher kommen Gefühle?
Unser gesamter Körper ist ein Wahrnehmungsorgan, und das, was wir als Gefühl beschreiben, ist zunächst das Wahrnehmen von körperlichen Reaktionen. Es können auch Worte von anderen oder eigene Gedanken sein, die körperliche Reaktionen hervorrufen. Das Gehirn nimmt zum Beispiel wahr, „da ist ein seltsames Krampfen im Bauch“, und anhand der zuvor gesammelten Erfahrungen können wir erkennen, um welche Empfindung es sich in der aktuellen Situation handelt. Vielleicht sind wir mit etwas Bedrohlichem konfrontiert — dann identifizieren wir den Druck im Bauch zusammen mit den anderen Wahrnehmungen als Furcht oder Angst.
Körpereigene Drüsen schütten dann Adrenalin und Noradrenalin aus, und dieser Vorgang beschleunigt kurzfristig die Energiebereitstellung. Das zeigt sich in einer beschleunigten Herztätigkeit, der Erhöhung des Blutdrucks sowie der Freisetzung von Glukose ins Blut, die mit einer stärkeren Durchblutung der Muskulatur einhergeht. Der Körper macht sich also bereit, um mit der wahrgenommenen Gefahr umzugehen. Die bei starken Gefühlen ausgeschütteten Hormone und Botenstoffe wirken teilweise wie Drogen und verändern auch die Wahrnehmung des Individuums.
Eine KI hat keinen Körper, mit dem sie Gefühle wahrnehmen könnte. Das, was eine KI als Gefühl abbilden kann, ist nur das, was sie darüber gelehrt bekam. Es handelt sich also nur um eine theoretische Abbildung von Gefühlen.
Eine KI hat auch keinen eigenen Geist; sie bildet nur den Geist aus den Vorlagen ab, die ihr zur Verfügung standen oder stehen. Die theoretischen Empfindungen, Ideen und Konzepte, welche nicht zum Trainingsprogramm der KI gehörten, werden folglich auch nicht Teil der Analysen sein.
Zusammenfassung
Je ohnmächtiger Menschen sich fühlen, desto mehr streben sie nach Macht, um das Gefühl der eigenen Minderwertigkeit zu kompensieren. Manche der Allmachtsfantasien, die von heute mächtigen Akteuren geäußert werden, zeigen eigentlich nur deren inneren Kontrollverlust. Manche dieser Akteure erschaffen vorsätzlich massive Probleme, damit sie uns als Nächstes deren Lösung verkaufen können.
Damit eine bestimmte Einstellung oder eine Ideologie von der Mehrheit der Menschen angenommen wird, braucht es eine weitreichende Indoktrinierung. Dazu gehört auch das Unterdrücken unliebsamer Meinungen.
Um die bedingungslose Gefolgschaft der Mehrheit einer Bevölkerung herzustellen, brauchen totalitäre Systeme immer eine letzte Instanz, die nicht angezweifelt werden kann und darf. Der Gottkönig, das Zentralkomitee, der Anführer, der Große Bruder — sie haben immer recht.
Und jetzt, wo uns die Probleme über den Kopf wachsen, brauchen wir eine höhere Intelligenz, welche für uns die Sachen in den Griff bekommt, die wir selbst nicht in den Griff bekommen. Empfinden Sie das Paradoxe im vorigen Satz? Anders gesagt: Da wir anscheinend selbst nicht mehr sicher sagen können, wie die uns umgebende Realität aussieht, brauchen wir eine Wahrheitsmaschine, die uns diese (vermeintlich) neutral beschreiben kann. Wenn also demnächst Forscher behaupten, die von ihnen entwickelte KI habe einen Intelligenzquotienten von 200 oder mehr und sei somit dem Menschen weit überlegen, wer möchte dem widersprechen?
Aber Maschinen können nicht empfinden, weil sie keinen Körper haben, und deshalb sind alle Vorschläge und Entscheidungen von KI-Systemen unmenschlich. Wobei anzumerken bleibt: Für unmenschliche Entscheidungen und Handlungen braucht die Menschheit keine KI, das kriegen wir schon lange selbst hin.
Menschen kann man nicht so leicht programmieren oder berechnen wie Maschinen, denn es gibt viele irrationale Komponenten, die kaum vorhersehbar sind. Es wird immer Menschen geben, die vorgesetzte Autoritäten anzweifeln und die sich weitgehend ihrer Bevormundung entziehen.
Ich hoffe, es bleibt unsere eigene Entscheidung, ob wir uns von einer nicht menschlichen Intelligenz bestimmen oder sogar versklaven lassen.
Wenn Sie für unabhängige Artikel wie diesen etwas übrig haben, können Sie uns zum Beispiel mit einem Dauerauftrag von 2 Euro oder einer Einzelspende unterstützen.
Oder senden Sie einfach eine SMS mit dem Stichwort Manova5 oder Manova10 an die 81190 und mit Ihrer nächsten Handyrechnung werden Ihnen 5, beziehungsweise 10 Euro in Rechnung gestellt, die abzüglich einer Gebühr von 17 Cent unmittelbar unserer Arbeit zugutekommen.