Killerroboter-Verbot: Showdown in Genf
Die Schweiz gehört in der Robotik und künstlichen Intelligenz zur Weltspitze, beides Forschungsfelder, deren Erkenntnisse sowohl für zivile als auch militärische Zwecke verwendet werden können. Forschungsfelder auch, bei denen es an der internationalen Kontrolle hapert.
Im März 2020 setzte die libysche Regierung im Bürgerkrieg laut einem UNO-BerichtExterner Link einen Kargu-2-Quadcopter ein. Diese Drohne «jagte» ein menschliches Ziel, ohne dazu angewiesen worden zu sein. Es war das erste Mal in der Geschichte, dass eine autonome tödliche Waffe – auch Killerroboter genannt – eingesetzt wurde.
Diese mit Hilfe von Robotik und künstlicher Intelligenz entwickelten Waffensysteme kommen ohne menschliche Bedienung aus. Autonome Drohnen beispielsweise sind so programmiert, dass sie eine bestimmte Position anfliegen, ein Objekt auswählen und die Zielperson töten können, ohne dass eine Verbindung zu einem steuernden Menschen besteht. Wie der Vorfall in Libyen zeigt, können sich Killerroboter auch verselbständigenExterner Link. Im Unterschied zu Massenvernichtungswaffen gibt es keine spezifischen Abkommen oder Regime, welche diese Waffen und Technologien international ächten oder verbieten.
Massenvernichtungswaffen sind Waffen, die im Vergleich zu herkömmlichen Waffen eine grössere Zerstörungskraft haben, wie etwa Kernwaffen, biologische und chemische Waffen (ABC-Waffen). Sie können innert kürzester Zeit eine grosse Zahl Menschen töten und die Umwelt zerstören.
Im Bereich der Massenvernichtungswaffen gibt es völkerrechtlich verbindliche Abrüstungs- und Nonproliferationsverträge, wie etwa den Vertrag über die Nichtverbreitung von Kernwaffen, das Biologiewaffenübereinkommen oder das Chemiewaffenübereinkommen. Sie sollen die Weiterverbreitung von Kernwaffen verhindern sowie biologische und chemische Waffen weltweit ächten.
Darüber hinaus gibt es vier politisch verbindliche Regime, in denen die jeweiligen Teilnehmerstaaten ihre Exportkontrollen erweitern und harmonisieren: Die Gruppe der Nuklearlieferländer, die Australiengruppe, das Raketentechnologie-Kontrollregime und die Vereinbarung von Wassenaar. Die Schweiz nimmt bei allen vieren teil.
Quelle: SecoExterner Link
Ob dies als Lücke zu werten ist, darüber gehen die Meinungen auseinander. Das Schweizer Aussendepartement schreibt auf Anfrage von swissinfo.ch, das humanitäre Völkerrecht gelte für alle Waffen und Technologien, auch für neuartige wie autonome Waffensysteme. «Es besteht also kein Vakuum für den Einsatz von Robotik, künstlicher Intelligenz und anderen digitalen Techniken in bewaffneten Konflikten.»
In der internationalen Gemeinschaft denken jedoch nicht alle so. «Einige Staaten sind der Meinung, dass die bestehenden Rechtsvorschriften nicht ausreichen», sagt Laura Bruun, Expertin für neue Militär- und Sicherheitstechnologien am Internationalen Friedensforschungsinstitut in Stockholm. Zwar erstrecke sich das humanitäre Völkerrecht auf alle Arten von Waffen, aber der Einsatz von KI-gesteuerten Militärtechnologien sei nicht explizit geregelt. Dadurch entstehe ein normatives Vakuum, je nachdem, wie das Gesetz ausgelegt werde, so Bruun.
Die Regeln der EU oder der Unesco über die ethische Nutzung von KI bezögen sich auf zivile Anwendungsfälle, nicht militärische. Mit dem Fortschritt neuer Technologien wie der künstlichen Intelligenz wird es immer schwieriger, das zivile und militärische Potenzial einer Entwicklung gegeneinander abzugrenzen. Erschwerend für den Prozess der Regulierung und Kontrolle kommt hinzu, dass diese Technologien sehr leicht zu verbreiten sind, im Falle von KI-Software sogar per E-Mail oder Open Source.
«Natürlich kommt das humanitäre Völkerrecht beim Einsatz solcher Waffen zur Anwendung, aber es bedarf neuer völkerrechtlicher Regeln, die den neuartigen Technologien Rechnung tragen», sagt auch Sicherheitsforscherin und Völkerrechtlerin Elisabeth Hoffberger-Pippan vom Deutschen Institut für Internationale Politik und Sicherheit in Berlin.
Aussichtsloses Treffen in Genf
Deshalb verhandelt die Uno in Genf seit 2017 über ein Verbot autonomer Waffensysteme. Die Schweiz unterstützt diese Verhandlungen grundsätzlich, denn obgleich sie ein vollständiges Verbot ablehnt, so befürwortet sie doch eine Regulierung, Kontrolle und Begrenzung. Letztes Jahr formulierte die Schweizer Mission bei der UNO einen VorschlagExterner Link zur Regulierung tödlicher autonomer Waffen und schloss sich damit der Gruppe von Ländern an, die auf rechtsverbindliche Massnahmen drängen.
Doch es geht nicht voran: Russland lehnt nahezu jeden Vorschlag zu einer Regulierung ab. Die jüngste Verhandlungsrunde im März hat Russland wegen des laufenden Ukraine-Krieges gar boykottiert. Aber auch Israel, die USA, die Türkei, Grossbritannien und SüdkoreaExterner Link wollen keine verbindliche Regulierung autonomer Waffensysteme, da ihrer Meinung nach das humanitäre Völkerrecht für einen verantwortungsvollen Umgang mit diesen Waffen ausreicht.
Mehr
Brauchen Killerroboter strikte Regeln?
Im Juli findet das letzte Treffen des Gremiums statt. Expert:innen rechnen nicht mit grossen Fortschritten. Staaten sprechen hinter vorgehaltener Hand bereits von einem Scheitern der Genfer Verhandlungen. Auch das Schweizer Aussendepartement schreibt auf Anfrage von swissinfo.ch, bezüglich eines internationalen Instruments gebe es vorderhand keine Einigung unter den Staaten.
«Wahrscheinlich werden nicht alle Staaten den Genfer Prozess weiter mittragen wollen, weil es sich schlicht nicht lohnt», sagt Hoffberger-Pippan. Sie rechnet deshalb damit, dass alternative Gremien gesucht werden, um Regeln zu autonomen Waffensystemen auszuhandeln.
Warum Staaten kein Verbot wollen
Dass die Schweiz wie die meisten Staaten kein vollständiges Verbot von autonomen Waffen anstrebt, hat laut Stephen Herzog vom Center for Security Studies sowohl wirtschaftliche als auch diplomatische Gründe. Die Schweiz fürchte die Auswirkungen auf ihre Exporte. Gerade in den Bereichen Robotik und Künstliche Intelligenz gehört die Schweiz zu den führenden Ländern der Welt.
Mehr
Schweizer Drohnentechnologie in Kriegsgebieten. Müssen wir uns sorgen?
Hoffberger-Pippan kann diese Angst nur ein Stück weit nachvollziehen. Im Moment gehe es in erster Linie um eine völkerrechtliche Regelung des Einsatzes autonomer Waffensysteme, noch nicht um Exportkontrollen selbst. Hingegen treffe die Befürchtung vieler Länder zu, dass ein vollständiges Verbot die Forschung in diesem Bereich schwierig machen könnte. «Investoren würden sagen: Wozu Geld geben, wenn die Erfindungen sowieso nicht eingesetzt werden dürfen», so Hoffberger-Pippan. Das ist vor allem für die USA, aber auch viele andere militärische Grossmächte durchaus eine Herausforderung.
Die USA vertritt den Ansatz, dass autonome Waffen vor einem Verbot getestet werden sollten. Damit könnte man herausfinden, ob diese Waffen vielleicht gar nicht sinnvoll eingesetzt werden können. Manche Staaten sind der Ansicht, dass autonome Waffen sogar Vorteile mit sich bringen: Zumindest auf Seiten derjenigen Partei, die diese Waffen einsetzt, lassen sich Todesfälle vermeiden und Personalkosten sparen.
Auch die Schweizer Regierung hatte sich 2017Externer Link aus ähnlichen Gründen gegen ein vollständiges Verbot ausgesprochen und erklärt, dass dies zu einem Verbot potenziell nützlicher Systeme führen könnte, beispielsweise zur Vermeidung von Kollateralschäden an der Bevölkerung. Aus diesem Grund, so Bruun, sollte die Diskussion über die Regulierung von zivilen und militärischen Anwendungen Hand in Hand gehen. «Die Erkenntnis, dass die Trennung zwischen den beiden Verwendungszwecken immer unschärfer wird, wäre ein erster Schritt zur Kontrolle der Technologie.»
Hoffberger-Pippan beobachtet bei den Drohnen einen Paradigmenwechsel: Während diese früher sehr kritisch gesehen wurden, finden sie international zunehmend Akzeptanz, sogar bei der Bevölkerung – beim aktuellen Krieg etwa haben ukrainische Truppen nebst militärischen Drohnen im grossen Stil auch zivile Drohnen eingesetzt und sich damit einen unerwarteten Vorteil gegenüber Russland verschafft. Zwar bleiben vor allem Drohneneinsätze im Kampf gegen Terroristen ein rechtlich und ethisch äusserst problematisches Thema, und der russische Angriffskrieg in der Ukraine ist nur bedingt vergleichbar, aber man sieht an diesem Beispiel, dass Drohnen nicht ausschliesslich geächtet werden. Vielleicht gibt es auch sinnvolle Einsatzmöglichkeiten von Waffensystemen, die weitestgehend autonom agieren.
«Die Zeitenwende bringt eine Modernisierung des Militärs und damit mehr Verständnis für die Technisierung», sagt Hoffberger-Pippan. Gut möglich also, dass sich auch die öffentliche Meinung gegenüber autonomen Waffen verändern wird.
Wenn Produkte oder Technologien sowohl für zivile als auch militärische Zwecke verwendet werden können, spricht man von Dual Use. Das Problem: Eine Erfindung wie die Nukleartechnologie kann der Menschheit einerseits zivilen Nutzen bringen in Form von Atomkraftwerken (wenngleich diese ebenfalls umstritten sind) oder medizinischen Behandlungen, aber sie kann in Form von Bomben auch lebenszerstörend sein. Die entsprechende Technologie und Forschung komplett zu verbieten, ist daher wenig sinnvoll, aber es braucht einen verantwortungsvollen Umgang.
Die Vereinbarung von Wassenaar ist ein Zusammenschluss von Staaten mit dem Ziel, die destabilisierende Anhäufung konventioneller Waffen sowie dazu beitragender Dual-Use Güter zu verhindern.
Quelle: SecoExterner Link
In Übereinstimmung mit den JTI-Standards
Einen Überblick über die laufenden Debatten mit unseren Journalisten finden Sie hier. Machen Sie mit!
Wenn Sie eine Debatte über ein in diesem Artikel angesprochenes Thema beginnen oder sachliche Fehler melden möchten, senden Sie uns bitte eine E-Mail an german@swissinfo.ch