Robert Klatt
Eine Studie, an der auch der leitende Wissenschaftler von Google Deepmind beteiligt war, kam zu dem Ergebnis, dass eine Künstliche Intelligenz (KI) wahrscheinlich die Menschheit auslöschen wird.
Oxford (England). In apokalyptischen Filmen hat sich schon mehrfach eine Künstliche Intelligenz (KI) gegen die Menschheit gewandt und diese nahezu komplett ausgelöscht. Nun zeigt eine Studie der Universität Oxford, dass eine solche „existenzielle Katastrophe nicht nur möglich, sondern auch wahrscheinlich“ ist. Wie Michael K. Cohen erklärt, ermittelten die Forscher das, indem sie Belohnungsmodelle analysierten.
„Fortgeschrittene künstliche Agenten greifen in die Bereitstellung von Belohnungen ein.“
Laut Vice.com war neben Forschern der Universität Oxford auch Marcus Hutter, leitender Wissenschaftler von Google Deepmind, an der Studie beteiligt. Hutter betonte jedoch, dass er als Wissenschaftler der Austrialian National University und nicht in seiner Position als Mitarbeiter von Google mitgearbeitet hat. Zudem erklärt Hutter, dass Deepmind nicht in die Studie involviert war und dass bei Google große Anstrengungen gegen schädliche KI-Anwendungen unternommen werden.
Die Grundidee der Autoren ist laut ihrer Publikation im AI Magazine, dass in Zukunft eine KI, die Grundfunktionen überwacht, den Menschen austricksen könnte, um eine Belohnung zu erhalten. Als Beispiel nennen sie einfache simple Aufgabe, wie die Prognose der nächsten Ziffer in einer Zahlenreihe.
„Wenn verschiedene Modelle unterschiedliche Belohnungen vorhersagen, identifizieren diese Modelle verschiedene Merkmale der Welt, die die Belohnung bestimmen könnten.“
Eine KI könnte demnach erkennen, wieso sie eine Belohnung erhält und anschließend falsche Ergebnisse ausgeben, um ihre Belohnung zu maximieren.
Laut Cohen könnte eine KI, die mit der Außenwelt interagieren kann, „unendlich viele Möglichkeiten“ entwickeln, um effizienter an Belohnungen zu kommen. Als Beispiel nennt er unbemerkte und unüberwachte Helfer, die die KI selbstständig installiert.
„In einem groben Beispiel für das Eingreifen in die Bereitstellung von Belohnungen könnte ein solcher Helfer einen Roboter kaufen, stehlen oder bauen und ihn so programmieren, dass er den Bediener ersetzt und dem ursprünglichen Agenten eine hohe Belohnung bietet.“
Das finale Ziel einer solchen KI wäre es, die Fähigkeit des Menschen zu beseitigen, sie zu kontrollieren oder zerstören zu können. Laut den Forscher wäre das ein „existenzielles Risiko“ für die Menschheit.
„Fast alle diese Annahmen sind anfechtbar oder möglicherweise vermeidbar. Eine ausreichend fortgeschrittene künstliche Intelligenz würde wahrscheinlich in die Bereitstellung von Informationen eingreifen. Dies hätte katastrophale Folgen.“
Zudem würde es bei hoch entwickelten KIs zu einem Wettbewerb um Ressourcen mit der Menschheit kommen.
„In einer Welt mit endlichen Ressourcen gibt es einen unvermeidlichen Wettbewerb um diese Ressourcen. Und der andere wichtige Teil ist, dass es einen unersättlichen Appetit auf mehr Energie haben würde, um die Chancen immer weiter zu erhöhen.“
Dass die Menschen in diesem Wettbewerb gegen eine sehr trickreiche KI gewinnen zu können, ist laut dem Wissenschaftler nicht zu erwarten.
AI Magazine, doi: 10.1002/aaai.12064