Die Kapitulation der Ethik
Der ungebremste Vormarsch von immer autonomer werdender künstlicher Intelligenz dürfte kaum noch einzufangen sein.
Öffentliche Forderungen nach einer politischen und juristischen Reglementierung von immer autonomer werdenden KI-Systemen nehmen weltweit zu. Das ist nicht zuletzt im Raum der Kirchen der Fall. Tatsächlich wächst namentlich unter Experten die Besorgnis, künstliche Intelligenz (KI) könnte der Menschheit auf verschiedenen Gebieten in nicht ferner Zeit über den Kopf wachsen, und zwar gerade auch in militärischer Hinsicht. Die nur allzu verständlichen Rufe nach einer Regelung der KI und überhaupt nach einer Ethik der Digitalisierung ist freilich weder originell noch neu. Das Problem liegt tatsächlich tiefer: Es muss — zumal angesichts der mittlerweile schon so gigantischen Möglichkeiten von KI-Programmen wie ChatGPT — um die Frage gehen, ob und inwieweit solch eine postulierte Ethik heute überhaupt noch realistisch erwartet werden kann. Und diese Debatte sollte gerade auch in christlichen Kreisen und an theologischen Fakultäten geführt werden.
Ganz überwiegend werden heutzutage KI und Robotik begrüßt. Gleichsam aus Höflichkeit wird dann gelegentlich auch auf die Notwendigkeit von Regelungen verwiesen. In diesem Sinn hat sich am 13. März 2014 das EU-Parlament auf eine Position zur Regulierung von Künstlicher Intelligenz (KI) geeinigt(1) — das erste Gesetzesvorhaben seiner Art weltweit! Er verbietet Anwendungen, die mit hohen Risiken für die Sicherheit verbunden sind — etwa biometrische Gesichtserkennung im öffentlichen Raum in Echtzeit. Für diese und andere Anwendungen staffeln sich Auflagen und Verbote nach der Höhe des jeweils angenommenen Risikos. Aber täuscht solch ein an sich vorbildlicher Regelungsversuch die noch bestehende Möglichkeit zu tatsächlich effektiven Regelungen für KI am Ende nicht doch bloß vor? Will sagen: Ist es nicht schon zu spät, die gerufenen Geister einzufangen und ihr Verhalten global zu reglementieren?
Wie es im Kontext der Digitalisierung schon immer der Fall war, werden auch in KI-Zusammenhängen die Chancen gern stärker betont als die Risiken. Unheilspropheten hört man eben weder in der Gesellschaft insgesamt noch im Raum von Theologie und Kirche gerne. Immerhin wurde angesichts der neuartigen Möglichkeiten durch ChatGPT rasch klar, welche Schadensmöglichkeiten durch eine KI-Anwendung praktisch schon entstanden sind und vor allem in Zukunft entstehen können, wenn derartige Programme immer noch schneller und besser werden.
Schon vor einem Jahr hatte der deutsche Ethikrat eine Stellungnahme unter dem Titel „Mensch und Maschine — Herausforderungen durch Künstliche Intelligenz“ veröffentlicht und gefordert, der Einsatz von KI müsse menschliche Entfaltung erweitern, statt sie zu vermindern. KI dürfe den Menschen nicht ersetzen — so die Quintessenz. Im April 2023 hat sich dann das Bundesinnenministerium für einen „klaren Rechtsrahmen“ beim Einsatz von KI, nämlich für klare Regeln ausgesprochen. Diese brauche es für grundrechtliche Fragestellungen und datenschutzrechtliche Aspekte und nicht zuletzt für das Problem, wie Fehler und Diskriminierung vermieden werden könnten.
Noch im selben Monat begann die EU einen Artificial Intelligence Act zu planen: Per Gesetz soll die Bereitstellung und Verwendung von KI durch private und öffentliche Akteure weitreichend reguliert werden(2).
Sobald KI-Systeme in die risikoreichste Kategorie „unannehmbar“ fallen, weil sie Werte der EU und namentlich Grundrechte verletzen, sollten sie verboten werden. Zu unerlaubten Praktiken gehören demnach Techniken, die Personen unterschwellig manipulieren und damit physischen oder psychischen Schaden verursachen können.
Auf ein entsprechendes Gesetz hat sich das EU-Parlament wie gesagt 2024 geeinigt; allerdings muss der ausgehandelte Text erst noch mit den Mitgliedstaaten und der EU-Kommission weiterverhandelt werden.
Entscheidende Fragen bleiben: Lassen sich solche KI-Regelungen wirklich effektiv durchsetzen — und zwar nicht nur in Deutschland und Europa, sondern weltweit? Wer kann sie nachhaltig sanktionieren? Wer schaut wirklich kompetent hinter die Algorithmen?
Wer nimmt die Tatsache ernst, dass man es oft genug mit Black-Boxes zu tun hat? Wer bremst die Hacker, die ja auch Ethik-Programme hacken können?
Aus guten Gründen warnt die europäische Polizeibehörde Europol vor Möglichkeiten, die KI und namentlich ChatGPT Kriminellen bietet — sie spricht dabei von einem „düsteren Ausblick“(3). Vor allem aber wäre angesichts vermehrter Rufe nach Regelungen der KI rund um den Globus genauer zu bedenken: Das Wesen von KI besteht doch gerade darin, sich als selbstlernendes System immer mehr selbständig zu machen, so dass es sich unter Umständen entgegen ursprünglicher Programmierung von gesetzlichen oder ethische Regelungen am Ende zu emanzipieren sucht.
Kein Wunder also, dass namhafte Persönlichkeiten wie Elon Musk und Yuval Harari vor einem Jahr in einem Offenen Brief (4) gefordert haben, alle Technologie-Labore sollten die Entwicklung von KI-Systemen sofort unterbrechen. Solange niemand — nicht einmal die Hersteller — die Maschinen wirklich verstünden, seien die Risiken zu groß, dass die Systeme außer Kontrolle geraten. Eliezer Yudkowsky, ein führender KI-Forscher, hat in einem Kommentar des Time Magazine am 29. März 2023 gar gewarnt:
„Viele Forscher, die sich mit diesen Fragen beschäftigen, darunter auch ich, gehen davon aus, dass das wahrscheinlichste Ergebnis der Entwicklung einer übermenschlich intelligenten KI unter den gegenwärtigen Umständen darin besteht, dass buchstäblich jeder auf der Erde sterben wird.“ (5)
Derartige apokalyptisch klingende Befürchtungen mehren sich (6).
Der einstige EKD-Ratsvorsitzende Wolfgang Huber weigert sich in seinem Buch „Menschen, Götter und Maschinen“ (2022), überhaupt von Künstlicher Intelligenz zu sprechen. Als treffenderen Ersatzbegriff schlägt er „digitale Intelligenz“ vor. Diese Unterscheidung könnte hilfreich sein mit Blick auf die Differenz von menschlicher und in der Tat „künstlicher“ Intelligenz. Sie stellt sich dem transhumanistischen Paradigma entgegen, für das der Mensch als solcher keine ethische Norm mehr bedeutet. Die kritische Haltung des Altbischofs und theologischen Ethikers bedeutet ein wichtiges Signal in einer Zeit, in der KI sich zu fast unumstrittener Herrschaft aufzuschwingen und menschliche Freiheit immer mehr zu unterminieren droht.
Ethische Forderungen und gesetzliche Regelungen entfalten angesichts der gigantischen Problematik von KI freilich eine geradezu einlullende Wirkung, indem sie wie gesagt eine durchaus machbare und wahrscheinliche Bewältigung der drohenden Gefahren besänftigend vorgaukeln.
„KI-Gütesiegel“(7) und allerlei Reglementierungen nutzen doch nur aufs Ganze gesehen nur sehr vorläufig und entsprechen keineswegs der zitierten Radikalforderung, die Entwicklung von KI-Systemen überhaupt umgehend zu unterbrechen. Allerdings wissen die solches fordernden Experten gut genug, wie illusorisch wiederum ihre Forderung war und bleibt. Der Fortschrittsdruck (8) und die einschlägigen Versuchungen sind zu groß. Aus der Fortschrittsfalle (9) gibt es kein Entrinnen.
Besorgte Stimmen aber werden am liebsten als bloßer „Alarmismus“ verspottet. Fasziniert von dem „Goldenen Kalb“ namens KI schert man sich (zu) wenig um augenfällige Risiken. Zweifellos bieten KI-Systeme Riesenchancen — mit allerdings auch größten Risiken. Wie ethisch ist es am Ende, letztere in Kauf zu nehmen, wenn es um den ganzen Planeten geht?
Der vielfache, schon jetzt reale Nutzen von KI zeigt sich beispielsweise auf den Gebieten der Medizin, der Verwaltung und des Militärs. Doch ohne Zweifel hat KI auch teil an der ebenso unbestreitbaren Ambivalenz des Fortschritts. Mehr noch: Diese keineswegs mehr menschliche, sondern wirklich nur noch künstliche Intelligenz treibt die Ambivalenzen zunehmend auf die Spitze. Wird man sich bald — wie insbesondere nach Beginn des Ukraine-Kriegs — wieder einmal die Augen reiben und in schmerzlicher Selbstanklage ausrufen: „Wie haben wir nur all die Jahre diesen falschen Weg einschlagen können?“ Wie intelligent ist es, sich immer mehr den autonomer werdenden Strukturen der Digitalität anzuvertrauen und sich Agenten künstlicher Intelligenz zu überlassen?
Tatsächlich stellen sich solche Fragen insbesondere mit Blick auf die Folgen von KI-Anwendungen auf militärischem Gebiet. Das digitale Wettrüsten ist weltweit im Gange, wie die arte-Sendung „Killerroboter — KI im Krieg“ von Daniel Andrew Wunderer am 30. Januar 2024 in erschreckender Weise dargelegt hat. Demnach gibt es zwar den Versuch eines Regulierungsprozesses der UN, aber der gilt bereits jetzt als gescheitert. Bis heute verbietet kein einziges Abkommen den Gebrauch autonomer Waffensysteme, die auf die Dauer das Töten nur immer weiter beschleunigen und maschinell präzisieren.
Am Ende geht es um die entscheidende Differenz zwischen künstlicher und seelisch-geistiger Intelligenz. KI hat kein „Unbewusstes“, kein „Herz“, kein personenhaft-existenzielles Sterblichkeitsbewusstsein — und vor allem kein wirkliches Ewigkeitsbewusstsein, wie das in der Bibel anklingt (z.B. Prediger 3,11). Denn für die Ewigkeit ist KI nicht gemacht, und zu künftiger himmlischer Existenz ist sie nicht berufen.
Gewiss kann sie extrem schnell rechnen und kombinieren, aber mit Gott rechnet sie nicht ernsthaft — allenfalls in programmierten Vokabeln und künstlich kombinierten Zusammenhängen, Religion lediglich simulierend. Darum ist und bleibt seelisch getragene Intelligenz der künstlichen im Grunde unendlich überlegen.
Was aber passiert, falls immer autonomer werdende KI-Programme schließlich die Herrschaft übernehmen und Menschen massenhaft zu unterdrücken beginnen? Dient KI nicht schon heute massenhafter Überwachung weltweit? Wer nicht an das Kommen des Reiches Gottes aus der himmlischen Zukunft glaubt, muss angesichts des digitalen Dilemmas mit seinen nihilistischen Implikationen eigentlich verzweifeln — sofern er es nicht schafft, es immer noch energischer aus seinem Bewusstsein zu verdrängen. Nicht von ungefähr zeichnet sich wissenschaftlich ab, dass die menschliche Intelligenz weltweit in dem Maße schrumpft, wie die Digitalisierung den Globus erfolgreich überzieht.
Der Philosoph Thomas Nagel hat ein sehr wichtiges Buch veröffentlicht: „Geist und Kosmos. Warum die materialistische, neodarwinistische Konzeption der Natur so gut wie sicher falsch ist“ (Berlin 2013). In diesem Sinne dürften auch so gut wie sicher die Denkvoraussetzungen des Transhumanismus (10) falsch sein. Der Mensch ist durch KI nicht ersetzbar und auch nicht zu „vervollkommnen“. Das darf und muss insbesondere im Kontext des christlichen Glaubens klar sein, der davon ausgeht, dass Gott in Jesus Christus ein- für allemal Mensch geworden ist. Tatsächlich stellt das christliche Menschenbild eine entscheidende Bastion gegenüber dem transhumanistischen Ansinnen und gegenüber zu kurz greifenden Einschätzungen der Möglichkeit von KI-Regelungen dar.