Die Liste der Mahner reicht von Tesla-Boss Elon Musk bis hin zu dem kürzlich verstorbenen Physiker Stephen Hawking: Sie alle warnten vor autonom agierenden Waffensystemen, die jeder menschlichen Kontrolle entzogen sind. Die Vereinten Nationen verhandeln daher bereits seit einiger Zeit über eine Ächtung solcher Waffen. Doch ausgerechnet das weltweit angesehene „Korea Advanced Institute of Science and Technology (Kaist)“ scheint diese Bemühungen nun zu konterkarieren. Denn das Institut ging eine Kooperation mit dem führenden südkoreanischen Waffenhersteller Hanwha Systems ein. Zwar wird betont, es gehe lediglich um die Entwicklung von Logistiksystemen auf Basis von künstlicher Intelligenz. Doch für viele Wissenschaftler stellt schon dies einen Tabubruch dar: 60 angesehene Forscher aus 30 Ländern wollen das Kaist zukünftig boykottieren. Wenn Waffen selbst über ihren Einsatz entscheiden, wird dies zum Problem. Foto: Mowag Weapons System, Irish Defence Forces, Flickr, CC BY-SA 2.0 Ethische Bedenken spielen bei dem Thema eine wichtige Rolle Dem Vernehmen nach soll in der Kooperation unter anderem eine Objektverfolgung auf Basis von künstlicher Intelligenz sowie eine autonome Steuereinheit für unbemannte U-Boote entwickelt werden. Beide Projekte an sich sind eigentlich unbedenklich. Allerdings ist auch klar, dass auf diese Weise Knowhow in Richtung des Rüstungsunternehmens fließt – das später dann auch für ganz andere Projekte genutzt werden könnte. Das Kaist-Institut hat inzwischen auf die Bedenken und den Brief der Wissenschaftler reagiert und erklärt, man habe nicht die Absicht, sich an der Entwicklung von Killerrobotern und ähnlichen Systemen zu beteiligen. Ob dies ausreicht, um den Boykott abzuwenden, ist allerdings bisher noch völlig unklar. Die Kooperation selbst wurde jedenfalls von der Kaist-Führung bisher nicht in Frage gestellt. Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.Mehr erfahren Video laden YouTube immer entsperren Ein weltweites Wettrüsten soll vermieden werden Auch bisher gibt es bereits Waffen, die losgelöst von menschlichen Einsatzkräften agieren können. So können heute mithilfe von Drohnen Ziele bombardiert werden, ohne dass ein Pilot mit an Bord ist. Gesteuert werden die Drohnen aber noch immer von menschlichen Soldaten – und diese entscheiden auch über den Einsatz der Waffen. Die Befürchtung vieler Kritiker ist nun, dass diese Komponente zukünftig wegfallen könnte. Statt des Soldaten am Boden würde dann künstliche Intelligenz über den Abwurf von Bomben entscheiden – was verheerende Folgen haben könnte. Aktuell ist die KI-Entwicklung dafür zwar noch nicht weit genug. Doch es sind erhebliche Anstrengungen nötig, damit sich diese Schreckensvision nicht tatsächlich realisiert. Zumal klar ist: Erreicht die Technologie erst einmal einen Durchbruch, dürfte sich ein weltweites Wettrüsten anschließen. Teile den Artikel oder unterstütze uns mit einer Spende. Facebook Facebook Twitter Twitter WhatsApp WhatsApp Email E-Mail Newsletter