Die F-35 ist eines der modernsten Kampfflugzeuge der Welt. Der Jet des Herstellers Lookheed Martin ist seinen Vorgängern nicht nur wegen seiner ausgefeilten Tarnkappentechnik überlegen. Die F-35 nutzt auch Künstliche Intelligenz (KI), um ihren Piloten zu unterstützen. Die KI wertet gewaltige Mengen an Daten aus. Sie kommen nicht nur von eigenen Sensoren, sondern auch von anderen Einheiten in der Kampfzone. Sie filtert die wichtigsten Informationen und präsentiert sie dem Piloten in Häppchen. So verschafft die KI dem Menschen am Steuerknüppel das, was Militärs als gesteigerte "Situational Awareness" bezeichnen, ein verbessertes Bewusstsein für das Schlachtfeld.
Künftig soll die F-35 mithilfe der KI auch Drohnenschwärme lenken - unbemannte Flügelmänner, die zusätzliche Waffen transportieren können, feindliche Flugabwehr testen oder als Schutzschild den Piloten vor Beschuss retten. Das Kampfflugzeug ist ein prominentes Beispiel dafür, wie KI Einzug in die Kriegsführung hält. Sie ist aber nur eines von vielen. Autonome Panzer, Roboterkrieger - auf der Welt ist ein neuer Rüstungswettlauf entbrannt. Wer ihn gewinnt, entscheiden die besten Codes, die größten Datensätze und die schnellsten Rechenleistungen. Lernende Maschinen sind im Begriff, dem Soldaten einen Großteil seiner Arbeit abzunehmen. Auch ein Horror-Szenario aus der Science-Fiction ist nicht mehr realitätsfern: Maschinen, die über Leben und Tod entscheiden.
Südkorea verfügt mit dem Super aEgis II bereits über einen Kampfroboter, der laut Herstellerfirma Dodaam bei Tag und Nacht Menschen in bis zu drei Kilometer Entfernung erkennen, verfolgen und beschießen kann. Auf der Webseite des Unternehmens wird das Produkt mit einem "manuellen" und einem "autonomen" Feuersystem beworben - mit "Sicherheitsumgebung". Noch soll am Ende ein Mensch entscheiden, ob der Roboter tötet.
"Wir schauen uns regelmäßig auf Waffenmessen um und wir beobachten einen rasanten Trend dazu, den Menschen aus der Entscheidungsschleife zu nehmen", sagt Thomas Küchenmeister von der Nichtregierungsorganisation Facing Finance. Küchenmeister unterstützt eine weltweite Initiative von Aktivisten, Forschern und Unternehmern gegen die Entwicklung und Verbreitung von autonomen Waffensystemen. Sie heißt "Campaign to stop Killerrobots". An diesem Freitag veranstaltet Küchenmeister vor dem Brandenburger Tor in Berlin eine Kundgebung, um Druck auf die Bundesregierung zu erhöhen. Nächste Woche beginnt in Genf eine neue Verhandlungsrunde im Rahmen der Vereinten Nationen. Die versuchen seit 2014, die Entwicklung von tödlichen autonomen Waffensystemen zu regulieren. Küchenmeister sagt: "Wir haben schon die Autonomieschwellen überschritten, die völkerrechtlich strittig sind, und wir müssen jetzt unbedingt Pflöcke einschlagen, damit diese Entwicklung gestoppt wird."
Chirurgische Präzision
Der Aktivist ist überzeugt: Allerhand, was heute schon möglich ist, übersteigt die Vorstellung der meisten Bürger bei Weitem. "Viele stellen sich beim Stichwort autonomes Töten irgendeinen Terminator vor, aber wir sind da schon in völlig anderen Bereichen unterwegs." Küchenmeister verweist auf ein Videoclip auf der Webseite seiner Initiative, der für Aufsehen gesorgt hat. Es handelt sich um eine Dystophie, die den Köpfen der Macher der Serie "Black Mirror" oder des Kinofilm "Ex Machina" entsprungen zu sein scheint. In Wirklichkeit entstand sie aber an der Universität Kalifornien.
Ein fiktiver Unternehmenschef stolziert über eine Bühne. Während einer Präsentation, die an die Vorstellung eines neuen Apple-Produktes erinnert, führt er ein System aus Mini-Drohnen vor. Die kleinen Flieger können auf Profile aus sozialen Netzwerken zurückgreifen, deren Daten auswerten und per Gesichtserkennung mit real existierenden Menschen verknüpfen. Sie sind fähig, so behauptet es der Unternehmenschef, mit absoluter Sicherheit festzustellen, welche Menschen eine Gefahr darstellen. Und sie könnten diese Menschen mit "chirurgischer Präzision" ausschalten. "Es hieß einmal, dass Waffen keine Menschen töten. Menschen töten Menschen", sagt der Unternehmer. "Aber das tun sie nicht, sie werden emotional, missachten Befehle, zielen zu hoch ..." Ist der Roboter der bessere Krieger? Schnitt: Blut, Krankenwagen, tote Politiker. Hacker haben das vermeintlich perfekte System geknackt. Die tödlichen Drohnen wenden sich gegen die Regierungen, für die sie entwickelt wurden.
Drohnen, Gesichtserkennung, Datenklau von Social-Media-Plattformen - viele der Bausteine dieser Dystophie existieren bereits. Der Aktivist Küchenmeister fürchtet, dass es bald zu spät ist, um die KI in der Kriegsführung noch zu regulieren. Mit fatalen Folgen.
Angriff auf den demokratischen Prozess
Was für Utopien gilt, gilt auch für Dystopien: Die meisten werden nie Realität. Geht es um autonome Waffensysteme, lässt sich einwenden: Warum sollten Maschinen, die nach menschlichen Idealen programmiert wurden, schlechtere Entscheidungen treffen als der bekanntlich fehlbare und mitunter bösartige Mensch selbst? Viele Kritikpunkte, die Gegner der KI anführen, gelten mindestens im gleichen Maße für Menschen. Verkennen Kritiker womöglich ihre Chancen? Retten schnellere, durch umfassende Daten fundierte Entscheidungen, die nicht von Emotionen oder Angst getrieben sind, nicht eher Leben? Und wäre es nicht ein zivilisatorischer Fortschritt, wenn sich auf dem Schlachtfeld der Zukunft Roboter statt Menschen aus Fleisch und Blut gegenüberstünden? Vielleicht. Allerdings wäre es nicht das erste Mal, dass die Menschheit neue Technologien als Fortschritt umarmt, bevor sie sie richtig verstanden hat. Mal ging es gut, mal nicht - wie im Falle der Atomkraft. Die Menschheit hat die Möglichkeit geschaffen, sich selbst auszulöschen.
Geht es um den Einsatz von Daten und KI, ist der Fall von Cambridge Analytica beispielhaft dafür, dass große Teile von Politik, Gesellschaft und Industrie die Gefahren moderner Technologien nicht rechtzeitig erkennen. Das britische Unternehmen hat mithilfe von Millionen von Nutzerdaten von Facebook US-Amerikaner ausgespäht und psychologisch analysiert. Ob legal oder illegal, ist umstritten. Durch die gewonnen Informationen war es möglich, die Bürger vor der US-Wahl mit hochpersonalisierter Wahlwerbung zu übersäen. Cambridge Analytica gilt einigen Beobachtern als ein Baustein zum Erfolg von Donald Trump. Mithilfe von KI, so könnte man sagen, wurde durch das Unternehmen der demokratischen Prozess des mächtigsten Landes der Welt beeinflusst. Kommt als Nächstes das Militär?
26 Staaten setzten sich ausdrücklich für eine Reform der UN-Waffenkonvention inklusive eines Verbots tödlicher autonomer Waffensysteme ein. CDU, CSU und SPD haben sich zwar bereits in ihrem Koalitionsvertrag 2013 für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme eingesetzt, in denen der Mensch aus der Entscheidungsschleife verschwindet. Deutschland diskutiert auch im Rahmen der Vereinten Nationen über eine Reform der Waffenkonvention. Doch die Bundesregierung gehört noch nicht zu den 26 Staaten, die sofortige Verhandlungen über eine Änderung der Waffenkonvention fordern. Sie räumt in der Antwort auf eine kleine Anfrage der Grünen vielmehr ein, dass sie das Unterfangen derzeit nicht für sonderlich aussichtsreich hält: "Trotz zunehmender Substanz bleiben die Diskussionen (...) hinter der politischen Zielsetzung der Bundesregierung (...) zurück", heißt es da. Das Problem ist: Nicht nur die Gegner von Killerrobotern treibt die Angst an, auch ihre Befürworter befeuert die Furcht.
Wer bei der KI führt, beherrscht die Welt
Russlands Präsident Wladimir Putin brachte im Spätsommer 2017 auf den Punkt, worum es geht. Bei einem Auftritt vor Studenten sagte er, die Technologie biete gigantische Chancen, bringe aber auch Gefahren mit sich, die schwer einzuschätzen seien. "Wer auch immer in diesem Bereich führend sein wird, wird auch die Welt beherrschen", so Putin. Ein Ansporn für die klugen Köpfe seines Landes. Vielleicht nicht, um die Weltherrschaft an sich zu reißen, aber zumindest, um zu verhindern, ins Hintertreffen zu geraten. Chinas Staatsführung gab 2017 unverblümt das Ziel aus, die Technologieführerschaft in der KI zu übernehmen. Bis 2030 soll es so weit sein. Abgesehen von der Rechenleistung von Supercomputern sind die USA auf dem Feld der KI noch die Supermacht. Doch die Furcht, dass sich das ändern könnte, treibt auch sie an, mit der Entwicklung voranzupreschen.
Eine Stimme, die in der US-amerikanischen Debatte viel Gehör findet, ist die von John R. Allen, US-General im Ruhestand und Präsident der Denkfabrik Brookings Institution. Auf einer Konferenz in Bratislava Anfang des Jahres sprach er über das, was er "Hyperwar"nennt, eine Stufe der Kriegsführung, in der Künstliche Intelligenz, autonome und automatisierte Systeme schlachtentscheidend geworden sind. Die USA haben seit 2012 eine Militärdoktrin, die sicherstellen soll, dass der Mensch beim Töten nicht ausgeklammert wird. Doch Allen sagt: "Hyperwar wird eine Beschleunigung der Entscheidungsprozesse mit sich bringen, die wir uns heute noch gar nicht vorstellen können." Er fügt hinzu: "Wir werden mit dem Menschen in der Entscheidungsschleife ein Problem haben, denn unsere Gegner machen sich darüber überhaupt keine Gedanken."
Zumindest in der Theorie gibt die US-Regierung dem Menschen noch den Vorrang. Anfang 2017 wurde die erste Strategie für Entwicklung von Robotern und autonomen Systemen für die US-Armee veröffentlicht. Bis 2030, so der Vorschlag, sollte die Armee vor allem ihre "Situational Awareness" mit Hilfe von KI verbessern, den Soldaten mit Robotern Last abnehmen und die Versorgung durch autonome Transportfahrzeuge verbessern. Lernende Maschinen, die selbstständig und ohne menschliche Kontrolle über Leben und Tod entscheiden, werden in dem 31-seitigen Papier nicht beworben. Doch wäre es naiv, zu glauben, dass die USA nicht ausgiebig forschten. Zumal sie zu den lautesten Gegnern eines Verbotsvertrags im Rahmen der Vereinten Nationen zählen.
Die Erklärung Washingtons für diese Haltung: Vor einem Verbot müssten die Chancen ausgelotet werden. Zum Beispiel, ob KI die Leben von Zivilisten schützen kann. Der Auftritt Allens in Bratislava lässt allerdings erahnen, dass dies womöglich nicht der Hauptgrund ist. Eine Wortmeldung von Jeffrey Sachs von der Columbia Universität provozierte Allen. Der Professor sprach vom Ende der Demokratie, wenn die großen US-Tech-Unternehmen die Codes für autonome Waffensysteme liefern. Warum niemand von Abrüstung rede, fragte er. Und er sprach vom mangelnden moralischen Kompass der Verantwortlichen im Pentagon. Allen explodierte geradezu. Die USA seien hier nicht das Problem, sagt er. "Da sind andere Staaten in der Welt, die diese Technologien nutzen werden. Und wir werden sie auch nutzen, um Sie und andere Menschen zu verteidigen."
Überlegenheit auf breiter Front
Der Aktivist Küchenmeister hält das Auftreten der USA bei der Entwicklung autonomer Waffen für widersprüchlich. Und ein Blick auf die US-Militärdoktrin scheint seine Sicht zu untermauern. Darin heißt es nämlich nicht nur, dass der Mensch immer Teil der Entscheidungsschleife beim Töten sein muss. Die USA streben zugleich eine militärische "Überlegenheit auf breiter Front" an. Ist das miteinander vereinbar?
Es wirkt längst so, als wäre es schon viel zu spät, um den neuen Rüstungswettlauf um Codes und KI noch zu stoppen. Küchenmeister gibt sich dennoch optimistisch. Er verweist auf die Ächtung von Landminen und Streumunition. Ein Versuch, diese Munitionstypen im Rahmen der UN-Waffenkonvention zu verbieten, scheiterte. Auf Initiative einzelner Staaten kam es aber zu einem Vertrag außerhalb des UN-Rahmens. Der Druck, der dadurch entstand, war so groß, dass auch Staaten wie die USA und Russland, die nicht unterzeichnet hatten, ihren Einsatz dieser Munitionstypen drastisch eingeschränkt haben.
Zwischen Streumunition und KI gibt es allerdings einen gewaltigen Unterschied. Die eine Technologie ist nicht schlachtentscheidend, die andere wahrscheinlich schon. Im Falle der KI könnte es deshalb womöglich eher so laufen wie mit der Nukleartechnologie. Mehr als 100 Staaten haben sich auf ein Verbot verständigt, sogar im Rahmen der UN. Die Atommächte machen aber nicht mit. Statt Abrüstung war zuletzt zwischen den USA und Russland vielmehr ein neues nukleares Wettrüsten mit sogenannten taktischen Atomwaffen zu beobachten.
Vielleicht lässt sich die Verbreitung autonomer Waffensysteme noch aus einem weiteren Grund nicht verhindern. Während sich Nuklearwaffen nur mit dem Ressourcenreichtum großer Staaten entwickeln lassen, entstehen die Bauteile autonomer Waffensysteme meist in der Privatwirtschaft. Oft sind sie sogar frei verkäuflich oder basieren auf Open Source. Zwar stemmen sich viele Unternehmen gegen die Verwendung ihrer Technik für den Krieg. In Berlin löst das trotzdem Sorge aus: Die Bundesregierung stuft das Risiko der unkontrollierten Verbreitung einzelner Technologien als größere Gefahr ein als die Verbreitung fertiger Waffensysteme.
Ein Blick auf die Krisengebiete dieser Welt zeigt: Einige dieser Technologien werden längst missbraucht. Am 5. Januar griff ein Schwarm aus 13 selbstgebauten Drohnen den russischen Luftwaffenstützpunkt Hmeimin und die Versorgungsbasis Tartus in Syrien an. Russischen Angaben zufolge kam der Drohnen-Schwarm aus Rebellengebieten in mehr als 50 Kilometer Entfernung. Die Drohnen suchten sich ihr Ziel laut Kreml-Angaben mithilfe des satellitengestützen Ortungssystems GPS. Es war der erste Angriff dieser Art.
Russland konnte die Attacke eigenen Angaben zufolge abwehren. Sieben der Drohnen wurden von Luftabwehrraketensystemen abgeschossen. Die übrigen sechs wurden von russischen Experten für elektronische Kriegsführung gehackt.
Der Drohnenschwarm in Syrien war klein und primitiv. Er war noch weit entfernt von der Dystopie der Mini-Killer-Drohnen aus dem Video der Universität Kalifornien. Doch die Attacke in Syrien zeigt: Am Wettrüsten um autonome Waffensysteme sind schon jetzt nicht mehr nur Staaten beteiligt.
Quelle: n-tv.de
Tags: