In Davos-Klosters in der Schweiz fand von 20. bis 23. Januar das World Economic Forum statt. Dort fanden sich dieses Jahr Experten in Sachen künstliche Intelligenz zusammen, um über die Zukunft von “autonomen Killer-Robotern” zu diskutieren. Foto: Terminator Exhibition: T-800CC BY-SA 2.0 Gesetzliche Regelungen sind notwendig Im letzten Jahr hatte eine Gruppe um Elon Musk, Stephen Hawking, Steve Wozniak, Daniel Dennett und zahlreiche andere Größen aus der Tech-Welt und Wissenschaft die Einstellung der Entwicklung von autonomen militärischen Kampf-Robotern gefordert. Weit gekommen sind sie mit diesem Anliegen nicht: Nach Angaben von Sir Rodger Carr vom britischen Rüstungsunternehmen BAE arbeiten momentan 40 Staaten an militärisch einsetzbaren Robotern – inklusive der Vereinigten Staaten. Tatsächlich ist die USA in der Entwicklung bisher am weitesten, und das obwohl die Vereinigten Staaten bisher das einzige Land der Welt sind, das die Nutzung solcher Roboter verboten hat. Und zwar per Gesetz seit 2012. Die Situation zeigt deutlich, dass die Notwendigkeit einer internationalen gesetzlichen Regelung bezüglich des Einsatzes von “Killer-Robotern” gegeben ist. Gespräche diesbezüglich begannen bereits 2014, aber lau der UN-Repräsentantin für Abrüstung wurden bisher kaum Fortschritte gemacht. Die Art der Kriegsführung hat sich verändert Die Problematik beginnt schon bei der Definition eines “Killer-Roboters”. Bisher gibt es nur verwaschene Definitionen, die kaum bis gar keine Anhaltspunkte geben. Allerdings ist man sich sowohl bei den Gesprächen bezüglich gesetzlicher Regelungen als auch bei der Konferenz in der Schweiz den Konsens, dass der Einsatz von Robotern, die mit Routinen versehen sind, um eigenständig Menschen zu töten den Konventionen des Krieges widersprechen würde. Es darf aber auch nicht vergessen werden, dass der Einsatz solcher Roboter auch Vorteile bringt. So ist der “Tod” eines Roboters, sprich dessen Vernichtung, immer dem Tod eines Menschen vorzuziehen. Jedoch wird diese Sicht genau dann zum Problem, wenn man den Roboter losschickt, um einen anderen Menschen zu töten. Möglicherweise ist es jedoch notwendig, sich von der Sicht des klassischen Krieges zu lösen. In Zeiten, in denen Organisationen wie der IS nahezu die gesamte internationale Staatengemeinschaft bedrohen, müssen ethische Standards möglicherweise neu überdacht werden. Aber aus genau diesem Grund muss sie eben jene internationale Staatengemeinschaft genau Gedanken darüber machen, wie der Umgang mit den Entwicklungen in der militärischen Robotik sein soll. Teile den Artikel oder unterstütze uns mit einer Spende. Facebook Facebook Twitter Twitter WhatsApp WhatsApp Email E-Mail Newsletter