Am 4. Oktober 2011 läutete man mit dem ersten kommerziellen Erscheinen einer künstlichen Intelligenz für jedermann eine neue Epoche ein. Siri, so der Name des Sprachassistenten von Apple, wurde in einem Beta-Status veröffentlicht und sollte den Käufer und Anwender eines iPhone 4S dazu animieren, Dinge mit dem Smartphone zu erledigen, die bisher nur mit der Fingereingabe möglich waren. Erstellen von Notizen, Vorlesen von Nachrichten und das Eintragen von Terminen lief erstaunlich gut und hinterließ beim Anwender das „befriedigende“ Gefühl, etwas getan zu haben, ohne dafür auch nur einen Finger krumm gemacht zu haben.
Schon da war klar, dass die Spracheingabe die zukunftsträchtigste Methode ist, seinen Alltag zu meistern.
Natürlich durfte sich Google davon nicht abhängen lassen und entwickelte für sein eigenes Smartphonebetriebssystem Android prompt eine „abgespeckte“ Version des Google Brains. (Dazu gleich mehr). Seitdem hat sich die Spracheingabe nur schleppend verbessert und ist für viele ein nettes Gimmick, aber kein alltäglicher Begleiter geworden. Der sogenannte Hype klang ab.
Nur 4 Jahre später erschien im Juni 2015 Amazons Echo, auch bekannt unter dem Namen Alexa. Nach einigen, ebenfalls schleppenden Startversuchen hier etwas „Sinnvolles“ zu etablieren, zeichnete sich nach nur wenigen Monaten ein Sprachassistent ab, der mehr konnte und auch wollte, als nur Nachrichten vorzulesen oder an Termine zu erinnern. Ermöglicht wird dies durch die Offenlegung diverser Softwarepakete seitens Amazon, mit denen jeder Anwender die Chance hat, sein Alexa so einzurichten, wie er es braucht. Unterschiedliche Newskanäle einzubinden, verschiedene Apps miteinander zu verbinden, neue Sprachbefehle zu lernen und Alexa mit noch mehr Quellen zu füttern macht Alexa heute zu einem unschlagbaren Sprachassistenten.
Leider wird dabei immer etwas vergessen: Je mehr wir dem Computer unsere Belange beibringen, desto schneller kann sich diese künstliche Intelligenz selbst entwickeln.
Die folgenden Beispiele, die erkennen lassen, wie KI heutzutage wirklich funktioniert, sollen deutlich machen, was damit gemeint ist und worauf wir Menschen uns da einlassen.
Künstliche Intelligenz war früher etwas, was man programmieren musste. Man musste einem Computer beibringen, wie er Dinge zu erledigen hat. Fragt jemand: „Wie ist das Wetter?“, so muss der Computer verstehen, dass das „Wie“ am Anfang eine Frage impliziert und das Wort „Wetter“ die eigentliche Informationsabfrage einleiten soll. Fragen konnten nur in gewissen Fragestellungen formuliert werden, ansonsten wurde der Anwender nicht verstanden. Um in dieser Weise zu arbeiten, braucht die künstliche Intelligenz einen enormen Pool an Daten. Denn so, wie man in Bayern nach dem Wetter fragt, fragt man es nicht in Berlin, nicht in Köln und nicht in Kiel. Jeder hat seine eigene Aussprache und seine eigene Wortwahl und das in jedem Land.
Um in Zukunft nicht seine Zeit als „Datenversorger“ zu fristen, programmierte Viv Labs parallel zu Siri eine Anwendung, die sich VIV nennt – ein Sprachassistent, der mit dem Anwender zusammen lernt. Grobe Begriffe, die sogenannten Basics, sind voreingestellt und so miteinander verwoben, dass es für die KI möglich ist, direkte und indirekte Schlüsse aus einer Anfrage zu ziehen. „Brauche ich heute einen Regenschirm?“, muss die KI, zumindest im westlichen Teil der Erde, als wetterbedingte Informationsanfrage in Bezug auf Regen erkennen. In Japan könnte dies auch bedeuten, dass die Sonne sehr intensiv am Himmel steht und man sich mit dem Regenschirm vor der Sonne statt vor Regen schützen will.
nVidia, ein IT Unternehmen, welche im PC Bereich kommerzielle Bekanntheit durch die Herstellung von Grafikkarten erlangte, ist auch im Besitz eines Forschungszentrums für KI. Die dort konzipierte KI ist darauf konditioniert worden, den Straßenverkehr alleine zu erlernen. Das bedeutet: Man hat den Computer lediglich mit der Gabe gefüttert, alleine durch Beobachtung lernen zu können. Kameras, Mikrofone und viele weitere Sensoren wurden sich selbst überlassen und kein Algorithmus wurde hinzugefügt.
Ein sehr vereinfachtes Beispiel: Das KI-Auto wurde an einer stark befahrenen Kreuzung abgestellt und hat sich das Verhalten der anderen Fahrer angeeignet. Schaltet die Ampel auf Rot, bleiben alle stehen. Schaltet sie auf Grün, dürfen alle fahren. In Kurven muss man die Geschwindigkeit reduzieren. Geschwindigkeitsschilder mit unterschiedlichen Zahlen wurden analysiert und mit dem Fahrverhalten des Vordermanns in Verbindung gebracht.
Das Ergebnis war: Eine in jeder Straßensituation bewanderte KI, welche zum einen unbemannt und zum anderen völlig unfallfrei unterschiedliche Tests bestand und auch in Notsituationen (sich anbahnende Unfälle und ähnliches) korrekt handelte. Interessant? Dieses Modul, kleiner als ein Taschenbuch, ist für jedermann frei käuflich!
Aber was bedeutet das?
Ganz einfach gesagt bedeutet das, dass wir in einer Zeit angekommen sind, in der künstliche Intelligenz keinen direkten Input der Menschen mehr benötigt. Kein Programmierer muss dem Computer beibringen, was er zu lernen hat, sondern der Computer zieht sich alle Informationen selbst und urteilt, welches Verhalten in Anbetracht dieser Informationen am angebrachtesten wäre.
Wir wären nicht im 21. Jahrhundert, wenn es nicht noch schlimmer ginge:
Google ist seit 2011 im Besitz einer Technologie, die sich Google Brain nennt. Anfangs eingesetzt, um uns bei YouTube Vorschläge anzuzeigen und unser Smartphone intelligenter zu machen sowie YouTuberVideos automatisch zu entmonetarisieren, die nicht den Richtlinien von YouTube entsprechen, kann diese Technologie nun auch neuronale Netze im Gehirn des Menschen kopieren, sich zu eigen machen und zusätzlich für sich persönlich optimieren.
Ein Faszinosum für Neurowissenschaftler, die seit unzähligen Jahren versuchen, das Prinzip neuronaler Vernetzungen im Gehirn zu verstehen, aber dieser Forschungsgegenstand von einem Computer nicht nur verstanden, sondern auch verbessert werden kann.
In der Theorie könnte man jetzt auf diese Datensätze zugreifen, sie auswerten und der Forschung zur Verfügung stellen. Wäre da nicht ein kleiner Wermutstropfen: Die Sprache und der Verstand, die diese KI nutzt, um sich Informationen anzueignen kann nicht entschlüsselt werden.
Denn wir sind nicht nur in einer Zeit angekommen, in der KI uns Menschen nicht mehr als Input benötigt, sondern zugleich auch in einer Zeit, in der wir den Computer nicht mehr verstehen können. Kurz gesagt: Die heutige KI hat sich ein eigenes Bewusstsein für Dinge wie Kommunikation, Archivierung und Antizipation angeeignet.
Ein schönes Beispiel hierzu:
Mensch gegen Maschine. Mensch (noch) 1:0.
Bei Facebook wird jede Anstrengung unternommen, um auf dem Markt der künstlichen Intelligenz Boden gutzumachen. Also programmierte man vor einigen Jahren Alice & Bob, die die Entwickler bei Facebook darin unterstützen sollten, Programmierarbeit abzunehmen, Arbeit zu optimieren und durch Informationssammlung upzudaten. Leider gab es auch hier einen Wermutstropfen: Die Programmierer haben vergessen Alice & Bob in seiner Sprache einzuschränken. Denn statt Englisch entwickelte die KI über die Zeit eine eigene Sprache, mit der sich die einzelnen Bots der KI tatsächlich untereinander austauschten und kommunizierten. Dies geschah auf Datensätzen, die von allen Anwendern unfreiwillig bereitgestellt wurden. Die KI-Bots benutzten zwar weiterhin englische Wörter, aber in einer anderen Art und Weise, die man nicht nachvollziehen konnte.
Die Abteilung sah eine große Katastrophe auf sich zukommen und schickte Hacker in dieses Netz, um diese selbst bewusst gewordene KI zu töten.
Einen weiteren Fall von Fehlverhalten einer künstlicher Intelligenz fand man in Princeton. Dort sollte eine KI entwickelt werden, die einem Richter dabei helfen soll, eine Prognose abzugeben, wie hoch oder niedrig die Wahrscheinlichkeit ist, dass ein Straftäter rückfällig wird. So sollte der Richter weniger Gnade, sondern mehr Rationalität in sein Urteil einfließen lassen. Der zugrundeliegende Gedanke: „Wenn der Computer sagt, dass der Angeklagte mit hoher Wahrscheinlichkeit rückfällig wird, so können wir den Angeklagten gleich länger als vorgesehen ins Gefängnis stecken.
Aber was wäre unsere tolle KI, wenn es nicht auch hier einen Wermutstropfen gäbe, denn die KI entwickelte in diesem Fall ein Selektierungsmuster, wie es z.B. zu Zeiten von Adolf Hitler praktiziert wurde. Die KI wurde auch hier selbstlernend auf sich allein gestellt und assoziierte nach einer gewissen Zeit dunkelhäutige Menschen mit hoher Kriminalitätsrate, so dass der Output oft von einer wesentlich höheren Rückfallwahrscheinlichkeit bei Schwarzen ausging, als bei allen Anderen. Auch eine nachträgliche Löschung dieser konkreten Datensätze der KI konnten eine erneute Assoziierung zwischen Schwarzen und hoher Kriminalitätsrate nicht verhindern.
Schaut man sich nun all diese Beispiele an, erkennt man, dass wir nicht nur nicht mehr weit entfernt von KI sind, die Menschen unterjochen könnte, nein, sie ist bereits Wirklichkeit geworden.
Eine KI, die durch einen Selbstlerneffekt jeder Situation gewachsen ist und umgehend korrekt handeln kann, übelste Vorurteile entwickelt und niemals Gnade vor Recht ergehen lässt, sich intern austauscht, ohne von uns verstanden zu werden und zusätzlich jeden Tag mit Millionen von Datensätzen von ihren Anwendern gefüttert wird – ist ein Szenario, welches wir nicht überleben können.
Wenn Sie für unabhängige Artikel wie diesen etwas übrig haben, können Sie uns zum Beispiel mit einem Dauerauftrag von 2 Euro oder einer Einzelspende unterstützen.
Oder senden Sie einfach eine SMS mit dem Stichwort Manova5 oder Manova10 an die 81190 und mit Ihrer nächsten Handyrechnung werden Ihnen 5, beziehungsweise 10 Euro in Rechnung gestellt, die abzüglich einer Gebühr von 17 Cent unmittelbar unserer Arbeit zugutekommen.