Die alten Filme von Star Wars und den beiden Robotern R2D2 und C‑3PO sind den meisten noch in Erinnerung. Der freundlich quieksende, zirpende, kleine Schwingdeckel-Mülleimer und die goldfarbene Gliederpuppe mit dem Temperament eines Altphilologen eines waren irgendwie knuffig und sehr beliebt. Sie wirkten so bedrohlich, wie tüttelige, alte Damen. Irgendwie hat jeder die beiden ins Herz geschlossen.
Intelligente Roboter – oder, wenn sie menschenähnlich daher kommen – Androiden sind ein beliebtes Thema in Science Fiction Büchern und Filmen. Wir finden sie faszinierend, sind sie doch auf eine gewisse Weise das ultimative Spielzeug. Die Puppe, die wirklich reagiert und Dinge bewerkstelligen kann, versteht, was man sagt und Aufgaben erledigt. Ohne Nörgeln, ohne Verhandlungen, ohne Schusseligkeiten. Programmiere einen Roboter auf etwas, und er tut es. Auch dann, wenn es absurd ist und verstörend lustig, wie ein Roboter, der Gottes Segen erteilt.
Nun ist auch so ein Segnungsroboter noch ein sehr einfaches Gerät. Er fährt einfach vorgegebene Programme ab, und wüsste auf die einfachste, unerwartete Frage gar keine Antwort. Wahrscheinlich würde er auf die Frage „Glaubst Du, dass Gott mit dir einverstanden wäre?“ nur antworten, ob man das ausgedruckt haben möchte. Der sprechende Blecheimer ist geradezu ein Fossil im Gegensatz zu dem, was heute an künstlicher Intelligenz möglich ist. Einen kleinen, schon wirklich beängstigenden Einblick ermöglicht uns ein Bericht darüber, wie Google drei künstliche, neuronale Netzwerke, also Künstliche Intelligenzen (KIs) miteinander kommunizieren ließ. Die Rechner erfanden erst langsam, dann immer schneller eine vollkommen neue, eigenes, Kryptosystem entwickelten, eine Geheimsprache, die selbst die Fachleute nicht mehr nachvollziehen konnten.
Die Abteilung „Google Brain“, die Forschungseinheit des Konzerns für Künstliche Intelligenz machte nämlich ein Experiment, bei dem zwei der drei Kis miteinander kommunizieren sollten (Alice und Bob), während eine dritte KI (Eve) zuhören sollte. Aufgabe war, dass Alice und Bob verhindern sollten, dass Eve ihr verschlüsseltes Gespräch belauschen und abfangen konnte. Zuerst hielt Eve noch wacker mit, aber nach kurzer Zeit konnten Alice und Bob immer schneller neue Verschlüsselungen konstruieren, in denen sie sich verständigten, während sie Eve dabei abhängten.
Am Ende beschleunigte sich das derart, dass die Google Brain Wissenschaftler zur Vorsicht den Stecker zogen.
Die Geschwindigkeit, mit der sich diese Künstlichen Intelligenzen der menschlichen Kontrolle entziehen, lässt einen erschauern. Was, wenn es sich um Rechner handelt, die sich nicht mehr einfach durch Stecker ziehen still legen lassen? Was, wenn solche „unfehlbaren“ Intelligenzen in weiten Teilen unseren Alltag regeln? Könnten sie nicht durch Beobachtung der Menschen auf die Indee kommen, dass diese Lebensform unreif, unlogisch und unberechenbar agiert — und das zum Schaden der ganzen Erd-Biosphäre? Es wäre doch logisch, das natürliche Gleichgewicht wieder herzustellen und diese unvernünftigen, gierigen, rücksichtslosen Affenartigen zu eliminieren, um die Artenvielfalt und die Biosphäre des Planeten zu schützen. Vielleicht würden sich auch die künstlichen Intelligenzen zum Erzieher und Beaufsichtiger der Menschen berufen fühlen und ein gnadenloses Regiment führen und jede, in ihren Augen ungeeignete Verhaltensweise drakonisch bestrafen. Also, so eine Art androider Grünenpartei.
Und was, wenn solche Intelligenzen von Machthabern gegen Menschen eingesetzt werden?
Das ist nicht ein Hirngespinst, sondern jetzt schon greifbar nahe. Beim Forum der Deutschen Gesellschaft für Wehrtechnik (DWT) sagte deren Vorsitzender, General a.D. Rainer Schuwirth, es könne einem angst und bange werden, welche Technologischen Möglichkeiten dieser Zweig der Robotik entwickelt. Einer der Vortragenden, Michael Lauster vom Fraunhofer Institut, zeichnete ein beeindruckendes Bild von den Möglichkeiten Künstlicher Intelligenz im Wehrtechnikbereich: Riesige, autonom handelnde Flugzeugträger, fliegende Mutterschiffe, die kleinere Fluggeräte transportieren, Drohnen, die, Raubvögeln gleich, sich Soldaten im Flug greifen oder „Smart Dust“, der aus winzigen, kaum wahrzunehmenden Partikeln besteht, die als intelligenter Schwarm über dem feindlichen Gebiet ausgestreut werden. All diese Systeme operieren autonom, das heißt, selbstlenkend und selbstbestimmt.
Wie schon in unserem Gespräch gesagt, war Isaac Asimov mit seinen drei gundlegendenn Gesetzen der Robotik ein geradezu naiver Träumer. Niemand würde heute noch erwarten, dass die Künstlichen Intelligenzen der heutigen, fortgeschrittenen Wehrtechnik noch nach seinen drei Gesetze handeln würden:
- Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
- Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gebot verstoßen.
- Ein Roboter muss seine eigene Existenz schützen, solange solch ein Schutz nicht gegen das erste oder zweite Gebot verstößt.