Beim Champions League Finale im walisischen Cardiff wurden 170.000 Personen mithilfe einer Software zur automatischen Gesichtserkennung überprüft. Abgeglichen wurden die Bilder mit einer Datenbank von gesuchten Personen. Alleine rund um das Finale schlug das System bei 2.470 Personen an. Das Problem: 2297 Meldungen erwiesen sich als vollkommen haltlos. Oder anders ausgedrückt. Die Trefferquote lag bei lediglich rund acht Prozent. Immerhin betonten die zuständigen Polizeibehörden, dass niemand wegen eines solchen Fehlalarms festgenommen wurde. Auch habe es keine Beschwerden gegeben. Dies lag daran, dass ein Großteil der Fehlalarme direkt ersichtlich war und die betroffenen Personen somit gar nicht erst belästigt wurden. In den anderen Fällen wurde ein sogenanntes Invterventionsteam losgeschickt, um die Personen zu überprüfen. Ursprünglich wurde der Einsatz als Erfolg gefeiert Die Polizei in Wales will trotz der hohen Zahl an falsch positiven Meldungen nicht von einem Misserfolg sprechen. Vielmehr wird betont, dass kein System vollkommen fehlerfrei arbeite. Mehr noch: Sowohl die zuständigen Behörden als auch der Hersteller NEC veröffentlichten Pressemitteilungen, in denen der Einsatz des Systems beim Champions League Finale als großer Erfolg dargestellt wurde. Die nun veröffentlichten genauen Zahlen lassen daran aber erhebliche Zweifel aufkommen. Zumindest scheinen die Verantwortlichen auch schon einen Sündenbock gefunden zu haben: Sie ließen verlauten, die Qualität der gelieferten Bilder sei einfach zu schlecht gewesen. Zuständig dafür waren die UEFA und Interpol. Außerdem sei es der erste Einsatz der Software bei einem Großereignis gewesen. Zukünftig seien weniger Fehlalarme zu erwarten. Datenschützer melden erhebliche Bedenken an Tatsächlich wurde das System inzwischen auch bei einem Liam-Gallagher-Konzert getestet. Dort gab es insgesamt nur sechs Meldungen – die sich auch allesamt als richtig entpuppten. Datenschützer sind von der Technik dennoch alles andere als begeistert. Denn es werden zahlreiche sensible Daten produziert, ohne dass diese durch entsprechende gesetzliche Vorgaben ausreichend geschützt sind. Die hohe Zahl an Fehlalarmen sorgt zudem dafür, dass extrem viele vollkommen unbescholtene Bürger durch menschliche Polizisten überprüft werden. Trotz dieser Bedenken wird eine ähnliche Technologie aktuell auch in Deutschland getestet: Die Bundespolizei führt entsprechende Feldversuche am Berliner Bahnhof Südkreuz durch. Der ehemalige Innenminister Thomas de Maiziere galt als Anhänger der automatischen Gesichtserkennung, sein Nachfolger Horst Seehofer hat sich zu dem Thema noch nicht näher geäußert. Via: The Guardian Teile den Artikel oder unterstütze uns mit einer Spende. Facebook Facebook Twitter Twitter WhatsApp WhatsApp Email E-Mail Newsletter