Robert Klatt
Eine Künstliche Intelligenz (KI) soll einer Drohne erstmals autonom befohlen haben Menschen anzugreifen.
Tripolis (Libyen). Laut eines Berichts der Vereinten Nationen (UN) hat eine Militärdrohne in der libyschen Hauptstadt Tripolis 2020 erstmals autonom einen Menschen angegriffen. Sollten die Informationen der UN richtig sein, wäre dies weltweit der erste Angriff auf einen Menschen, bei dem die Waffe nicht gezielt gesteuert wurde.
Konkret soll bei einem Gefecht libyscher Regierungstruppen gegen eine abtrünnige Militärfraktion eine Drohne vom Typ Kargu-2 des türkischen Herstellers STM eine Einheit auf dem Rückzug aus der Ferne angegriffen haben. Ob es dabei auch Verletzte oder sogar Tote gab, konnte die UN laut ihres Berichts bisher nicht klären.
Es handelt sich bei den angreifenden Kurgu-2-Drohnen um sogenannte Loitering Weapons (herumlungernde Waffen), die ohne bestimmtes Ziel gestartet werden. Bisher gaben Menschen dann vom Boden das Signal, wo diese angreifen sollen. Eine Software der Kurgu-2-Drohnen erlernt anhand von gesammelten Daten, die als Erfahrungswerte dienen, aber auch, autonom Ziele zu identifizieren. Grundsätzlich ist es also möglich, dass der Angriff autonom erfolgt ist.
Die UN bezeichnet die Drohnen, die über eine Sprengladung verfügen, deshalb als tödliche autonome Waffen. Einige Fachleute zweifeln überdies an, dass den Angriff auf den Konvoi tatsächlich autonom, also durch eine Künstliche Intelligenz (KI), die die Entscheidung ohne menschliche Kommandos eigenständig getroffen hat, erfolgt ist.
„Wahrscheinlich handele es sich um den ersten Vorfall, bei dem Drohnen Menschen ohne Anweisung angegriffen haben“, zitiert das wissenschaftliche Magazin New Scientist Zak Kellenborn, Experte für unbemannte Waffensysteme. International wird der Vorfall kritisch diskutiert, weil beim Einsatz solcher Waffen nie ausgeschlossen werden kann, dass auch falsche Ziele attackiert werden.