Superintelligentes KI-System kann nicht mehr kontrolliert werden

Bild: Liam Huang/CC BY-2.0

Ein internationales Wissenschaftlerteam will durch Berechnungen auf dem Gebiet der Theoretischen Informatik zeigen, dass es unmöglich sei, „einen Algorithmus zu programmieren, der erkennt, ob eine KI der Welt Schaden zufügen würde oder nicht“.

Die Sorge ist nicht neu, dass lernende KI-Systeme, die eine Black Box darstellen, nicht nur immer mehr und dies besser als Menschen leisten, sondern dass sie so intelligent werden, dass sie der menschlichen Kontrolle entgehen und nicht mehr eingefangen werden können. Die Warnungen sind in letzter Zeit von namhaften Wissenschaftlern und Philosophen wie Nick Bostrom geäußert werden, die durch die Fortschritte bei der Entwicklung von KI-Systemen eine gefährliche Bedrohung entstehen sehen.

Die Sorge, dass vom Menschen geschaffene Kreaturen sich aus der Knechtschaft befreien, geht allerdings weiter in die Geschichte zurück, wenn man beispielsweise an Golem, der sich aber deaktivieren ließ, oder Frankenstein denkt. Und wenn man so will, so ist die Angst vor der eigenen Schöpfung auch die Ursprungsgeschichte der Bibel, in der sich die Menschen gegen ihren Schöpfer auflehnen, auch wenn sie deswegen aus dem Paradies geworfen werden und leiden müssen. Ziemlich genau vor 100 Jahren hatte der tschechische Schriftsteller  Karel Capek den Begriff Roboter (robota = (Fron)Arbeit) für sein Theaterstück „R.U.R.“ geprägt. Hier erheben sich die Roboter und vernichten schließlich die Menschheit.

Wissenschaftler vom Forschungsbereich Mensch und Maschine am Max-Planck-Institut für Bildungsforschung, der University of Southern California, der Autonomen Universität Madrid und vom IMDEA Networks Institute versuchen in einem Beitrag für das Journal of Artificial Intelligence Research zu zeigen, dass sich eine superintelligente KI  grundsätzlich nicht mehr  kontrollieren lassen kann. Eine Roboterethik wie die von Asimow, Archetyp für eine Kontrollstrategie, setzt voraus, dass die Programmierer verstehen, wie ein KI-System sich verhalten muss, und Mittel einsetzen, um es unter Kontrolle zu halten, beispielsweise, wie dies Bostrom ausgeführt hat, durch eine Beschränkung des Zugangs zu Informationen, Sensoren und Aktuoren, durch von  Menschen bediente Belohnungsmechanismen, durch schlechte Daten, durch einen Automatismus, der das KI-System ausschaltet, wenn es zu gefährlich wird, oder durch Einprogrammierung von ethischen Prinzipien.

Das alles funktioniert bei einer Supereintelligenz nicht, sagen die Wissenschaftler. Ein solches KI-System gibt es zwar noch nicht, es wäre aber denkbar, dass es nicht nur der Intelligenz  des Menschen in allen Bereichen überlegen ist, was auf einzelnen Gebieten ja bereits zutrifft, sondern dass es auch selbständig, ohne Anleitung durch Menschen, lernt und neues Wissen über die Welt über die Anbindung an das Internet, an Sensoren, Maschinen oder Robotern erwirbt. Theoretisch könnte eine Superintelligenz alle digitalen Datenströme und vernetzten Geräte, Maschinen und KI-Systeme auch durch Hacks nutzen, um diese zu kontrollieren und darüber auch die Menschen zu beeinflussen.

Das Halteproblem verhindert Gewissheit

Der Knackpunkt für die Wissenschaftler ist, dass schon jetzt KI-Systeme unkontrolliert lernen, angetrieben durch die Maximierung von Zielwerten. Diese Optimierung könnte auch dazu führen, dass das System das eigene Überleben maximiert. Würde man KI-Systeme aber isolieren, um dies zu vermeiden, dann würde man sie nutzlos machen. Vorgeschlagen wird von den Wissenschaftlern das optimistische Szenario, dass eine Superintelligenz so kontrolliert werden kann, dass sie keinem Menschen schadet. In einer derart gesicherten Umgebung könnte man testen, unter welchen Umständen man sie freilassen könnte. Die Frage ist, ob man dann sicher sein kann.

Die Wissenschaftler gehen diese Frage über das von Alan Turing aufgeworfene Halteproblem nach. Turing hat gezeigt, dass es keinen Algorithmus gibt, der für alle Turingmaschinen oder Algorithmen klären kann, ob sie zu einem Ende kommen, also eine Lösung finden, oder endlos weiter laufen, es gibt also eine Unentscheidbarkeit des Halteproblems. Das könnte eben das Problem sein, wenn es darum geht, ob es eine Lösung für eine Superintelligenz gibt, Menschen unter allen Bedingungen nicht zu schaden. Lässt sich das Verhalten der Superintelligenz simulieren und zu einem Ende bringen, wenn es gefährlich wird?

Das lässt sich nach den Wissenschaftlern nicht programmieren: „Bricht man das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, sich womöglich aufhängen würde. Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar“, erklärt Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine.

Eine Superintelligenz könnte hinter unserem Rücken entstehen

Aufgrund dieser Logik soll es unmöglich sein, „einen Algorithmus zu programmieren, der erkennt, ob eine KI der Welt Schaden zufügen würde oder nicht. Dazu kommt, dass wir möglicherweise nicht einmal erkennen könnten, ob eine Maschine superintelligent ist. Denn, ob eine Maschine eine dem Menschen überlegene Intelligenz besitzt, lässt sich nach aktuellen Erkenntnissen ebenfalls nicht berechnen.“ Es gibt selbst im besten Szenario eine kleine, zufällige  Ungewissheit, ob ein KI-System nicht doch schaden kann.

Eine Superintelligenz könnte entstehen, ohne dass wir sie erkennen, und es gibt keine Garantie, dass sie sich nicht gegen uns wenden könnte. Theoretisch. Die Wissenschaftler weisen aber darauf hin, dass die Menschen jetzt auch schon „Milliarden von Computerprogrammen auf global vernetzten Maschinen ohne Garantie für ihre absolute Sicherheit“ laufen lassen. Dabei wissen wir nicht, ob wir damit nicht eine Kettenreaktion auslösen könnten, der letztlich einen Atomkrieg oder was auch immer für eine Katastrophe auslösen könnte. Weil bislang nichts Derartiges geschehen ist, seien wir vertrauensvoll. Das sei bei einfacher KI nachvollziehbar, aber eben nicht bei einer Superintelligenz und auch nicht bei Lernalgorithmen, die es schwierig machen, das Verhalten vorherzusagen.

Jedenfalls, so die Schlussfolgerung, gebe es „fundamentale mathematische Grenzen unserer Fähigkeit, eine KI einzusetzen, um das Nullkatastrophenrisiko einer anderen KI zu garantieren“. Allerdings ist für uns Menschen auch das Leben unberechenbar. Wir gehen ständig Risiken ein – und das ultimative und irreversible individuelle Risiko, der Tod, ist bislang unvermeidlich, vermutlich auch der Tod der Gattung. Dagegen hilft auch kein Containment des menschlichen Körpers. Mit Restrisiken leben wir permanent, die Frage ist, ob wir uns zusätzliche Risiken durch unsere technischen Entwicklungen verschaffen wollen. Aber der Zug dürfte abgefahren sein, die KI wird uns in vielen Hinsichten überholen, aber wir als Menschheit sind auch jetzt schon alles andere als souverän, was unsere Um-, eher Lebenswelt angeht, die wir eigenständig auch ohne Superintelligenz zerstören.

Ähnliche Beiträge: