Studie: Könnten wir eine superintelligente KI stoppen? – Das Szenario ist aus Film und Fernsehen hinlänglich bekannt: Eine vom Menschen künstlich erschaffene Intelligenz entwickelt ein eigenes Bewusstsein und erkennt in ihren Erschaffern die größte Gefahr für sich und die Welt. Um einer etwaigen Abschaltung zuvorzukommen, startet die KI einen Präventivschlag gegen die Menschheit und löst die Apokalypse aus.

Freilich handelt es sich dabei (noch) um ein fiktives Szenario, aber hätten wir überhaupt eine Chance, eine KI zu kontrollieren, die weit klüger ist als wir?

Forscher der Max-Planck-Gesellschaft sind mit der Studie „Superintelligence Cannot be Contained: Lessons from Computability Theory“, welche im „Journal of Artificial Intelligence Research“ veröffentlicht wurde, der Frage nachgegangen, ob wir eine KI, wie man sie etwa aus der „Terminator-Reihe“ kennt, aufhalten könnten, wenn diese beschließt, die Menschheit auszulöschen.

Die Antwort fällt ernüchternd aus: Mit dem heutigen Stand der Technik, müssten wir hilflos mit ansehen, wie wir vernichtet werden!

Interessanterweise geht die größte Gefahr dabei gar nicht mal davon aus, dass die KI auf einmal mit Atomraketen um sich wirft. Aus Sicht der Experten ist es viel problematischer, dass heutzutage Programme neue Programme entwickeln, ohne dass wir Menschen dem vom Verstand her noch wirklich folgen könnten.

„Eine superintelligente Maschine, die die Welt kontrolliert, klingt wie Science-Fiction. Aber es gibt bereits Maschinen, die bestimmte wichtige Aufgaben selbstständig ausführen, ohne dass die Programmierer vollständig verstehen, wie sie es gelernt haben. Es stellt sich daher die Frage, ob dies irgendwann unkontrollierbar und gefährlich für die Menschheit werden könnte“, erörtert Studien-Co-Autor Manuel Cebrian, seines Zeichens Leiter der Digital Mobilization Group am Zentrum für Mensch und Maschine des Max-Planck-Instituts für Bildungsforschung.

Eine superintelligente KI kann sich selber neue Dinge beibringen, weitab dessen, was der Mensch zu lernen in der Lage ist. Um eine solche Entwicklung im Keim zu ersticken, wagten sich die Forscher an die Hypothese, eine Art von „Gegen-KI“ zu erschaffen, welche das Verhalten der künstlichen Intelligenz simuliert, um schadhaftes Verhalten schon im Vorfeld erkennen zu können.

Letztendlich resümieren die Wissenschaftler aber, dass das Problem schon aus theoretischen Erwägungen heraus nicht zu lösen ist, und sich eine KI, die weitab der Grenzen des menschlichen Denkens operiert, nicht wirksam eindämmen lässt.

„Wir argumentieren, dass eine vollständige Eindämmung aufgrund grundlegender Grenzen, die dem Computing selbst inhärent sind, im Prinzip unmöglich ist.“

Im Zuge der Überlegungen, sollte man sich vor Augen halten, dass bereits jetzt weltweit fleißig an immer ausgefeilteren autonomen Kampfmaschinen getüftelt wird, deren KI in der Lage ist, selbstständig Ziele zu erkennen, zu erfassen und zu bekämpfen. Zwar muss der Mensch den Einsatz tödlicher Waffen immer noch freigeben, aber unterm Strich bedarf es lediglich eines Software-Updates, um diese Sicherheitsvorkehrung zu umgehen.

Insofern sollten wir uns besser rechtzeitig die Frage stellen, was passiert, wenn eine KI entscheidet, sich entsprechend selbst zu aktualisieren.

Quelle: stern.de