Drücken Sie „Enter“, um den Inhalte zu überspringen

KI Künstliche Intelligenz

Was ist KI?

Von intelligenten Assistenten wie SIRI und ALEXA bis zu selbstfahrenden Autos, künstliche Intelligenz (KI, engl. artificial intelligence, AI) schreitet schnell voran und hat viele Facetten. Science-Fiction stellt KI oft als Roboter mit menschlicher Erscheinung dar, in Wirklichkeit kann sie aber vieles umfassen, von Googles Suchalgorithmen über IBMs Watson bis zu autonomen Waffen.

Künstliche Intelligenz von heute wird technisch korrekt als schwache KI bezeichnet, da sie entwickelt wird, um eine begrenzte Aufgabe zu erfüllen, wie z.B. Internetsuchen, Autofahren oder Gesichtserkennungen. Das Langzeitziel vieler Forscher ist es jedoch, eine starke künstliche Intelligenz (AGI, Artificial General Intelligence) zu erschaffen. Wo eine schwache KI Menschen bei einer spezifischen Aufgabe schlagen kann, wie beim Schach spielen oder dem Lösen von Gleichungen, könnte eine AGI Menschen bei fast jeder kognitiven Aufgabe überfliegen

Kann KI uns gefährlich werden?

Die meisten Wissenschaftler sind sich einig, dass eine superintelligente KI voraussichtlich keine menschlichen Emotionen entwickeln wird. Deshalb ist es nicht zu erwarten, dass sie vorsätzlich gut- oder bösartig werden wird. Wenn es darum geht, wie KIs zum Risiko werden könnten, denken Experten an zwei wahrscheinliche Szenarien. Entweder wird die KI programmiert, etwas Zerstörerisches zu tun oder die KI wird programmiert, etwas Gutes zu tun, entwickelt aber eine negative Methode bei der Zielerreichung.

Autonome Waffen sind ein Beispiel für zerstörerische Programmierung. Hier können wir künstliche Intelligenzsysteme beobachten, die programmiert sind zu töten. In den falschen Händen können sie leicht große Mengen an Opfern fordern. Schlimmer noch, ein KI-Rüstungsrennen könnte zu einem unvermeidlichen KI-Krieg führen, unzählige Tote wären die Folge. Um nicht vom Feind ausgebremst zu werden, wären diese Waffen extrem stark gesichert. Die Menschen könnten leicht die Kontrolle über solch eine Situation verlieren. Dieses Risiko ist schon bei schwacher KI vorhanden, wächst aber mit jeder Stufe, in der KIs an Intelligenz und Autonomie gewinnen.

Gute Absichten mit schweren Folgen kann eine KI hervorrufen, wenn wir es nicht schaffen, die Ziele der KI mit den unseren in volle Übereinstimmung zu bringen. Wenn Sie ein gehorsames intelligentes Auto darum bitten, Sie so schnell wie möglich zum Bahnhof zu fahren, könnte die Umsetzung ungeahnte Ergebnisse hervorbringen. Das Auto könnte Sie wortwörtlich nehmen, ohne Sicherheit und Wohlbefinden in Betracht zu ziehen. Die daraus resultierende Gefahr wäre schwer zu kontrollieren.

Diese Szenarien zeigen, wie es bei den Sorgen um fortgeschrittene KI nicht um Bösartigkeit, sondern um Kompetenz geht. Eine superintelligente KI wird extrem gut darin sein, ihre Ziele zu erfüllen. Wenn diese nicht mit unseren im Einklang stehen, haben wir ein Problem. Ein Kernziel der KI-Sicherheitsforschung ist, die Menschen vor diesen Gefahren zu schützen. Und damit kommen wir zu unserer nächsten Frage.

Warum brauchen wir KI Sicherheitsforschung?

Zurzeit wird Forschung in vielen Bereichen, wie Wirtschaft, Rechtswissenschaften und in technischen Feldern wie Verifizierung, Validierung, Sicherheit und Kontrolle betrieben, um die Auswirkungen von KI auf die Gesellschaft positiv und nützlich zu halten. Es ist eine Schlüsselpunkt, dass die KIs machen, was wir wollen, wenn es darum geht unsere Autos, Flugzeuge, Herzschrittmacher, den automatisierten Handel oder das Stromnetz zu steuern.

Langfristig stellt sich die Frage, was geschieht, wenn das Streben nach einer starken KI erfolgreich ist und ein solches System besser als der Mensch in allen kognitiven Aufgaben wird. Letztlich ist die Entwicklung intelligenter Systeme an sich schon eine kognitive Aufgabe. Ein KI-System könnte eine rekursive Selbstverbesserung unternehmen und damit eine Intelligenzexplosion auslösen, die den menschlichen Intellekt weit hinter sich lässt. Die Erfindung revolutionärer neuer Technologien, wie einer Superintelligenz, haben das Potential uns dabei zu helfen, Kriege zu beenden und Krankheiten und Armut auszulöschen. Einige Experten haben allerdings Bedenken geäußert, wenn wir nicht lernen, die Ziele der KI an die unseren auszurichten, bevor sie superintelligent wird, das wir mehr Schaden als Nutzen daraus erfahren könnten.

Wann kommt die künstliche Superintelligenz?

Wie lange wird es dauern, bis Maschinen die menschliche Intelligenz übertreffen? Es ist ein weit verbreiteter Irrglaube, dass wir die Antwort darauf mit Sicherheit kennen. Es ist ein weit verbreiteter Glaube, dass wir noch in diesem Jahrhundert übermenschliche KI bekommen werden. Tatsache ist aber auch, dass die Geschichte voll von übertriebenen Technologieträumen ist. Wo sind die Fusionskraftwerke und fliegenden Autos, die uns für heute versprochen wurden? KI wurde schon in der Vergangenheit öfters aufgebauscht, auch von Vordenkern auf diesem Gebiet. 

Wie immer gibt es auch die Gegenthese, dass wir übermenschliche KI in diesem Jahrhundert niemals erreichen können. Forscher haben eine große Bandbreite an Schätzungen gemacht, wie weit wir entfernt sind. Wir können aber sicher sagen, dass die Wahrscheinlichkeit in diesem Jahrhundert größer als null ist. Die miserable Erfolgsbilanz von Technologie-Skeptikern spricht hier für sich.

Es gibt eine Reihe an Studien, bei denen KI-Forscher befragt wurden, wie viele Jahre es ihrer Einschätzung nach noch dauert, bis wir zu mindestens 50 Prozent Wahrscheinlichkeit eine KI auf menschlichem Niveau haben werden. In dieser Studien kommen alle zu dem gleichen Ergebnis: Die größten Experten sind sich nicht einig. Wir wissen es also einfach nicht. 

Aber solange wir nicht hundertprozentig sicher sind, dass es nicht in diesem Jahrhundert geschieht, sollten wir an der Sicherheitsforschung arbeiten. Viele der Sicherheitsprobleme, die sich aus menschengleicher KI ergeben sind so komplex, dass es Jahrzehnte dauern könnte sie zu lösen. Es ist also klug, schon jetzt mit der Forschung zu beginnen.

Welche Rolle haben die Medien in der KI Sicherheitsdebatte

Die Medien lassen die KI-Sicherheitsdebatte kontroverser aussehen, als sie letztlich ist. Angst verkauft sich eben gut und Artikel mit Zitaten ohne Kontext, die unseren drohenden Untergang hinauf beschwören, bekommen mehr Klicks als solche, die ausgeglichen und gut recherchiert sind. Dies kann dazu führen, dass zwei Leute, die die Positionen des jeweils anderen nur aus Medienzitaten kennen, glauben, dass ihre Meinungen weiter auseinanderliegen als sie es tatsächlich tun. Wer zum Beispiel die Meinung von Bill Gates nur aus deutschen Boulevardzeitungen kennt, mag denken, dass Gates glaubt, die Superintelligenz stehe unmittelbar bevor.

Viele KI-Experten rollen mit den Augen, wenn sie Schlagzeilen lesen, die besagen wie Elon Musk und Co. vor Killer-Robotern warnen. Solche Artikel haben meistens  Bilder von bösen, waffenstrotzenden Robotern und vermitteln den Eindruck, wir müssten uns vor Robotern fürchten, die ein Bewusstsein entwickelt haben und uns töten wollen. Schlagzeilen wie diese wecken eher die Vorstellung von Szenarios, die eben nicht von Forschern befürchtet werden.

Das Rätsel des Bewusstseins ist ein Thema für sich, aber es ist irrelevant, wenn es um KI-Risiken geht. Wenn Sie von einem autonomen Fahrzeug angefahren werden, macht es keinen Unterschied, ob es subjektiv bewusst dabei ist oder nicht. Uns Menschen betrifft, was superintelligente KI tut, nicht was sie dabei subjektiv fühlt.

Der Irrglaube mit dem Bewusstsein ist verwandt mit dem Mythos, dass Maschinen kein Ziel verfolgen können. Maschinen können natürlich Ziele haben, in dem engen Sinne, dass sie zielorientiertes Verhalten an den Tag legen. Das Verhalten einer wärmesuchenden Rakete liegt dem Ziel zugrunde, einen Zielbereich zu treffen.

Manche Journalisten scheinen besessen von Metallmonstern mit rot leuchtenden Augen zu sein. Die Hauptsorge der Bewegung für wohltätige KI sind aber nicht Roboter, sondern ist die Intelligenz selbst: speziell solche, die nicht mit unserer übereinstimmt. Eine derartige übermenschliche Intelligenz braucht keinen Roboterkörper um Schaden anzurichten, sondern nur eine Internetverbindung. Sie könnte Finanzmärkte überlisten, menschliche Forscher übertreffen, besser manipulieren als politische Führer und Waffen bauen, die wir nicht einmal verstehen. Selbst wenn es physisch unmöglich wäre, Roboter zu bauen, könnte eine KI Menschen leicht für Ihre Zwecke bezahlen oder manipulieren.