Gesichtserkennung Stoppen !

Jochens SOZIALPOLITISCHE NACHRICHTEN

Keine_Gesichtserkennung

Wenn man das hier liest, bekommt man einen Eindruck davon, was so im Klammheimlichen bei den Behörden vor sich geht.
Der CCC deckte anhand des Ergebnisreports der Polizei über das Berliner Bahnhofsexperiment auf, dass in der 2.Testphase das Vorgehen massiv so manipuliert wurde, um dem damaligen Bundesinnenminister zu gefallen. Sein Einsatz könnte zu einer ungeheuren Datenüberflutung führen.
Wie die Fälle NSU und Amri bewiesen haben, liegen die blinden Flecken an ganz anderer Stelle.
Hier geht es um millionenschwere Folgeaufträge für die IT.
Aber lest selbst über das Bündnis, das sich hier gegründet hat:
https://gesichtserkennung-stoppen.de/aufruf.html

Da mir das so wichtig ist, füge ich noch einen Kommentar des CCC sowie ein Interview mit
Florian Kirchbuchner vom Fraunhofer-Institut im Dlf an.
Wie man sich gegen Gesichtserkennung schützen kann, dazu hier mein Beitrag:cv dazzle4

https://josopon.wordpress.com/2016/11/02/wie-man-gesichtserkennungs-software-austricksen-kann/

Und hier der Aufruf:

Obwohl seit Jahren die Kriminalitätsrate und die Zahl der Todesopfer durch Terroranschläge sinkt, fordern Politiker*innen beständig den Ausbau von Massenüberwachung.
Hierdurch soll einem „Gefühl“ der Unsicherheit der Menschen abgeholfen werden.
Aktuell im Trend: Videoüberwachung mit Gesichtserkennung. Getestet wurden die Systeme bereits am Berliner Bahnhof Südkreuz.

Warum Gesichts­erkennung verbieten?

Falsch­erkennung

Die Systeme funktionieren mangelhaft. In dem Test am Südkreuz wurde ca. jeder 200. Mensch fälschlich als gesuchte Person erkannt.[1]
In der Praxis würde das an einem Bahnhof wie dem Berliner Südkreuz dazu führen, dass täglich 600 Menschen fälschlich als gefährliche Person erkannt werden.
Diese Menschen wären unangenehmen Kontrollen ausgesetzt. Die Polizei wäre von Fehlalarmen überlastet.

Einfache Umgehung

Dreht eine gesuchte Person ihr Gesicht nur um 15 Grad von den Kameras weg, wird sie von den Systemen nicht mehr erkannt.[2]
Die Erkennung lässt sich auch durch das teilweise Bedecken des Gesichts, z.B. mit einem Schal oder einer Mütze, vereiteln.
Wer eine Straftat plant, kann sich einfach vor Erkennung schützen.

Diskriminierung

Gesichtserkennung diskriminiert Frauen, Kinder und People of Colour. Bei diesen Gruppen liegen die Falscherkennungsraten signifikant höher als bei weißen mitteleuropäischen Männern.[3]
Das liegt daran, dass die hiesigen Systeme großteils mit Bildern von weißen, männlichen Gesichtern trainiert werden.
Die negativen Folgen treffen also besonders Gruppen, die ohnehin schon Benachteiligungen ausgesetzt sind.

Gefahr für die Demokratie

Selbst wenn Gesichtserkennung perfekt funktionieren würde: Sie wäre dann in der Lage, ganze Stadtgebiete zu überwachen und die Identität von Zehn- oder Hunderttausenden von Menschen gleichzeitig zu erfassen. Technisch möglich wäre das staatliche Erstellen von Bewegungsprofilen.

Darunter leiden Freiheitsrechte, individuelle Entfaltung und politische Teilhabe. Wer sich im öffentlichen Raum ständig von einer intelligenten Kamera abgescannt und analysiert fühlt, verspürt einen Überwachungsdruck.
Selbsteinschränkung und aufgezwungene „Konformität“ ist die Folge.[4]
In einer gesunden, pluralistischen Demokratie ist es aber wichtig, dass sich Menschen bei ihrer Meinungsbildung, individuellen Entfaltung und politischen Partizipation nicht beobachtet fühlen.

Missbrauchs­potential

Gesichtserkennung birgt enormes Missbrauchspotential – sowohl für einzelne unberechtigt Handelnde als auch für etwaige zukünftige autoritäre Regierungen.
Zivilgesellschaftliches Engagement gegen eine Regierung, die exakt weiß, wer wann wo ist, ist nur schwer denkbar.
Es liegt in der historischen Verantwortung Deutschlands, keine Infrastruktur aufzubauen, die es ermöglicht, die gesamte Gesellschaft zu kontrollieren.

Das Bewusstsein für die Risiken wächst: Zuerst in San Francisco[5], später in weiteren Städten Kaliforniens sowie Massachusetts, USA, wurde die polizeiliche Verwendung von Gesichtserkennungssystemen verboten.

Unsere Forderungen

1. Ein Verbot automatischer Gesichtserkennung in der Öffentlichkeit durch die Polizei oder andere staatliche Akteure.

2. Wirksames Vorgehen gegen Terroranschläge durch soziale Präventions- und Aussteigerprogramme statt ungezielter Massenüberwachung.

Verweise:

  1. https://www.ccc.de/de/updates/2018/debakel-am-suedkreuz siehe weiter unten
    2.https://www.bundespolizei.de/Web/DE/04Aktuelles/01Meldungen/2018/10/181011_abschlussbericht_gesichtserkennung_down.pdf;jsessionid=B00C5E4B9341D9F8733EF8508A6D9C46.2_cid324?__blob=publicationFile&v=1
    3. http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
  2. https://www.freitag.de/autoren/netzpiloten/studie-beweist-selbstzensur-durch-ueberwachung;%20https://www.deutschlandfunk.de/staatliche-ueberwachung-befallen-vom-ueberwachungsvirus.1184.de.html?dram:article_id=307639
  3. https://www.fr.de/wirtschaft/gastwirtschaft/mein-gesicht-meine-freiheit-12919089.html

Unterstützende Organisationen

Chaos Computer Club

Chaos Computer Club e.V.

 

Digitale Gesellschaft e.V.Digitale Gesellschaft e.V.

 

D64 Zentrum für Digitalen Fortschritt e.V.

D64 Zentrum für Digitalen Fortschritt e.V.

 

LOAD e.V. Verein für liberale Netzpolitik

LOAD e.V. Verein für liberale Netzpolitik

 

FIfF e.V.

 

 

 

 

 

FIfF e.V.

 

Digitale Freiheit e.V.Digitale Freiheit e.V.

 

Digitalcourage e.V.

Digitalcourage e.V.

Hier der Kommentar des CCC:

Biometrische Videoüberwachung: Der Südkreuz-Versuch war kein Erfolg

2018-10-13 08:46:09, erdgeist

Die Ergebnisse im Abschlussbericht nach dem monatelangen Test der biometrischen Gesichtserkennung sind nicht überzeugend und absichtlich geschönt worden.
Solche Testergebnisse können nicht als Grund dafür herhalten, Biometrietechnik nun flächendeckend einführen zu wollen. Risiken und rechtliche Probleme werden im Bericht gar nicht erst angesprochen.

Diese Woche hat die Bundespolizei den bereits im September erstellten Abschlussbericht [1] zur biometrischen Gesichtserkennung am Berliner Bahnhof Südkreuz veröffentlicht.
Zu den Kosten des monatelangen Versuchs sind keine Angaben enthalten.
Eine zeitgleich bekanntgegebene Meldung preist die Ergebnisse der drei erprobten Systeme als „erfolgreich“ und spricht von einem „enormen Mehrwert“ der Biometriesoftware für die Polizei.

Jedoch zeigen die wenigen Zahlen aus dem Bericht, dass die getesteten Systeme – anders als behauptet – keine akzeptablen Ergebnisse erbrachten.
Zudem erweist sich, dass die Ergebnisse manipuliert wurden, um sie nicht ganz so desaströs aussehen zu lassen.

Der Chaos Computer Club (CCC) fordert im Lichte dieses Debakels, das unnütze und teure Sicherheitstheater unverzüglich einzustellen. Die Gesichter aller Passanten sind keine biometrische Ressource zum Scannen nach Belieben.

Die biometrische Videoüberwachung ist mit zahlreichen technischen Problemen behaftet und erweist sich erneut als untauglich.
Aber das weit größere Problem für jeden Passanten, dessen Gesicht gescannt wird, liegt in der Technologie selbst:
Menschen werden nicht wie mit anderen Videosystemen einfach nur beobachtet, sondern während der Überwachung durch ihre Körpermerkmale identifiziert.
Werden solche Systeme ausgebaut, stehen wir vor einer anlasslosen biometrischen Personenüberwachung im öffentlichen Raum, die mit der heutigen Videoüberwachung technisch nicht vergleichbar ist.

Angaben zu durchschnittlichen Ergebnissen

Das Innenministerium betont die angeblich hohe Anzahl an Treffern: Die Trefferrate gibt laut dem Bericht die Wahrscheinlichkeit an, mit der eine Person von einem getesteten System korrekt identifiziert wird.
Über die angegebene Trefferrate von durchschnittlich achtzig Prozent zeigen sich das Innenministerium und die Autoren des Abschlussberichts hocherfreut.
Faktisch werden bei einer solchen Rate allerdings von zehn gesuchten Personen eben nur acht korrekt identifiziert.

Doch selbst die in der Pressemitteilung besonders hervorgehobene durchschnittliche Erkennungsrate von achtzig Prozent hat in Wahrheit keines der getesteten Systeme erreicht, sondern ist eine absichtlich positiv verfälschende Zahl.
Sie berechnet sich laut dem Abschlussbericht aus den Erkennungsraten aller drei erprobten Systeme.

Praktisch hieße das für die Situation am Bahnhof, dass nicht der beste Anbieter für die biometrische Erkennung zum Einsatz käme, sondern alle drei Systeme zusammen eingesetzt werden müssten, um diesen durchschnittlichen Wert zu erreichen.
Eine solche Trefferrate des „logischen Gesamtsystems“ existiert nämlich nur, wenn alle drei getesteten Systeme die vorbeilaufenden Menschen erfassen und jeweils softwareseitig auswerten.
Bei keinem der getesteten Anbieter wurde diese imaginäre durchschnittliche Zahl in Wahrheit gemessen.
Tatsächlich ist das durchschnittliche Ergebnis des Versuchs für das beste der drei Testsysteme die peinliche Zahl von 68,5 Prozent, die in der ersten Testphase erreicht wurde.
Damit ist die biometrische Technik zu unausgereift für den praktischen Einsatz.

Erwartungsgemäß ändert auch die Positionierung der Kamera das Ergebnis für die Trefferquoten: Am schlechtesten schnitt dabei die Eingangskamera am Bahnhof ab, bei der die schwächsten Trefferleistungen gemessen wurden.
Selbst das beste der drei getesteten Systeme kommt hier nur auf eine Trefferquote von 65,8 Prozent. Tagsüber konnte wegen Gegenlichts sogar auch beim besten der Systeme nur sechzig Prozent erreicht werden.
Der schlechteste der drei Biometrieanbieter wies am Eingang des Bahnhofs sogar nur eine Trefferrate von 18,9 Prozent (tagsüber zwölf Prozent) aus und ist damit glatt durchgefallen.

Für den geplanten Abgleich mit polizeilichen Datenbanken sind solche Erkennungsraten völlig unbrauchbar. Sie als Erfolg verkaufen zu wollen, ist schlicht unredlich.
Insgesamt hält die Bundespolizei dennoch zwei der getesteten Systeme für den „praktischen polizeilichen Einsatz“ geeignet und sieht selbst für das überdurchschnittlich schlechte dritte Testsystem noch ein „hohes Potenzial“.

Wissenschaftliche Standards missachtet

Die zugrundeliegenden Bilder der Gesichter waren in der Phase zu Beginn des Tests von ausgesprochen hoher Qualität, was die Ergebnisse zugunsten der getesteten Systeme verzerrt.
Denn die freiwilligen Probanden wurden in hoher Auflösung und mit guter Beleuchtung fotographiert, so dass die erfassten Gesichter in der ersten Testphase optimal für den Vergleich mit den Livebildern vorlagen.

Der Abschlussbericht weist solche Verzerrungen nicht etwa aus, sondern beschönigt das Vorgehen noch. Generell kann die gesamte Auswertung nicht als wissenschaftlich angesehen, sondern muss als PR-Bericht verstanden werden.
Vielleicht dauerte es deshalb so lange, die bereits am 31. Juli beendeten Tests herauszuputzen, um sie erst im Oktober im Abschlussbericht darzustellen.

Die Wissenschaftlichkeit des Versuchs steht aber auch aus anderen Gründen bereits konzeptuell in Zweifel:
Die Repräsentativität der Probanden war nicht gegeben, so dass kein aussagekräftiges Abbild der Bevölkerung (Alter, Geschlecht, Ethnie) oder des gesuchten Personenkreises getestet wurde.
Zudem war die Anzahl der freiwilligen Tester mit 312 Menschen zu gering bemessen, sie nahm in der zweiten Testphase außerdem noch signifikant ab und verringerte sich auf nur 201 Personen.

„Eine gründliche Untersuchung der realen Erkennungsleistungen der biometrischen Systeme hat mit dem Test am Bahnhof Südkreuz wenig gemeinsam. Wenn ein System der biometrischen Personenüberwachung aber tatsächlich eingesetzt werden sollte, genügen solche Versuche ohnehin nicht. Dann müsste man besser vorher darüber sprechen, ob es gesellschaftlich wünschenswert und überhaupt rechtlich möglich ist, von jedem Vorbeilaufenden biometrische Merkmale zu verarbeiten“, sagte Dirk Engling, Sprecher des CCC.

Die zweite Versuchsphase

Besonders dreist ist das Vorgehen, mit der zweiten Testphase die Ergebnisse nochmals absichtlich zu schönen.
Der damalige Innenminister Thomas de Maizière hatte bei einem Besuch seines Vorzeigeprojektes noch angekündigt, dass in einer zweiten Phase des ursprünglich auf sechs Monate angelegten Versuchs realitätsnähere Bilder benutzt werden würden.
In Wahrheit wurden in dem dann verlängerten Test unter dem Vorwand, angeblich Fahndungsfotos zu verwenden, tatsächlich von den getesteten Systemen selbst aufgezeichnete Gesichtsbilder benutzt.
Diese Bilder hatten im ersten Versuchsteil bereits zu guten Ergebnissen geführt.
Zudem wurde nunmehr nicht nur ein Referenzbild in den Datenbanken hinterlegt, sondern gleich mehrere der zuvor aufgezeichneten Fotos der Probanden aus den Überwachungskameras verwendet.

Damit wurden nicht nur absichtlich und unzulässig die Erkennungraten manipuliert, vielmehr sind mit einem solchen Testvorgehen Rückschlüsse auf reale Szenarien in einem Bahnhof gar nicht mehr möglich.
Schließlich hat es nichts mehr mit der Wirklichkeit zu tun, wenn die biometrischen Systeme Vergleiche von vorher als gut klassifizierten Gesichtsbildern vornehmen, die am gleichen Ort entstanden sind.
So müssten in der Realität Fotos der Verdächtigen an allen Bahnhöfen mit allen dort verbauten Kameras angefertigt werden – eine vollkommmen unsinnige und erneut die Ergebnisse verfälschende Testannahme.
Wenn solche Versuchsmethoden als Begründung für eine künftige Gesetzgebung zum flächendeckenden Einsatz herhalten sollten, sind sie nicht aussagekräftig für eine reale Verwendung.

Die Falscherkennungsrate

Weiterhin sind die Zahlen zur Falscherkennungsrate (FAR) deutlich geschönt. So werden hier nicht etwa alle durch die Kamera erfassten Gesichter der Menschen analysiert, sondern ausweislich des Berichtes nur diejenigen, die zufälligerweise zu dem Zeitpunkt aufgenommen wurden, wenn eine der Testpersonen neben ihnen auf der Rolltreppe stand oder im Bahnhof ging und damit das System durch den Transponder aktivierte.
Die realen Zahlen der fälschlichen Erkennung liegen also nochmals um ein Vielfaches höher als der in dem Bericht ausgegebene Wert.
Zugleich bleibt auch diese Verzerrung des Ergebnisses im Bericht selbst unkommentiert.

Für das „logische Gesamtsystem“ liegt die so ausgewiesene FAR durchschnittlich bei 0,67 Prozent. Bei einer durchschnittlichen Anzahl von etwa 90.000 Reisenden pro Tag am Bahnhof Südkreuz hieße ein solcher Wert, dass täglich 600 Passanten und mehr fälschlich ins Visier der biometrischen Installation gerieten.

Weiterhin werfen die im Versuch verwendeten Verfahren Fragen auf, die in dem Bericht nicht adressiert werden.
Wieso wurden beispielsweise aus den 41.000 gespeicherten Transponder-Events nur 6.000 ausgewählt? Was waren die Kriterien?
Und warum werden nicht in allen Diagrammen im Abschlussbericht die gleichen Datenpunkte verwendet? So gibt es beispielsweise für den November nur einen Punkt im Diagramm für die Falscherkennungsrate, aber ganze neun für die Trefferrate. Hier liegt der Verdacht nahe, dass durch die Auswahl bestimmter Ereignisse Fehlerkennungen unter den Tisch gekehrt werden sollten.
Auch Differenzen in den Erkennungsraten zwischen aufeinanderfolgenden Tagen von im Schnitt zehn Prozent (maximal fünfzig Prozent) sollten die Herausgeber und die Leser der Studien stutzig machen.

Bedeutung der Zahlen in der Praxis

Würde dieses System tatsächlich so in Betrieb genommen, würde die FAR noch weiter darunter leiden, dass die Zahl der Fahndungen mehr als nur die 200 gespeicherten Vergleichsbilder wie in Testphase 2 erzeugt.
Laut Beispiel aus dem Bericht soll in der Praxis mit mindestens 600 Bildern verglichen werden. Entsprechend stiege die FAR nochmals.

Doch selbst wenn die Systeme nur vier unbescholtene Bürger pro Kamera und Stunde fälschlich als Verbrecher erkennen und die Beamten diese dann von Hand aussondern müssen, kann man sich leicht vorstellen, was passiert, wenn nach monatelangem händischen Aussieben dann doch mal ein einzelner Verbrecher durchs Bild huscht und erkannt wird.
Wie aufmerksam ein durchschnittlicher PC-Anwender die hunderste Sicherheitswarnung für Webseiten wegklickt, dürfte ein Gefühl für die Auswirkungen einer solchen Flut von Falscherkennungsmeldungen geben.

Der einzige Lichtblick im Bericht ist die Beschreibung, wie man sich am besten gegen die biometrische Rasterfahndung schützen kann:
Man drehe einfach das eigene Gesicht um mehr als 15 Grad von der Kamera weg.
Damit ist eigentlich alles gesagt, was die Sinnhaftigkeit und Einsatztauglichkeit solcher Systeme angeht.

Links

[1] Abschlussbericht der Bundespolizei (pdf)

„Es ist möglich, die Systeme zu umgehen“

https://www.deutschlandfunk.de/automatische-gesichtserkennung-es-ist-moeglich-die-systeme.676.de.html?dram:article_id=468082

Das Bundesinnenministerium plant, die automatische Gesichtserkennung an Bahnhöfen und Flughäfen einzuführen – entgegen aller Kritik.
Die Erkennungsraten solcher Systeme seien noch immer schlecht, sagte Florian Kirchbuchner vom Fraunhofer-Institut im Dlf. Großflächige Tests könnten das ändern.

Florian Kirchbuchner im Gespräch mit Christiane Knoll

Florian Kirchbuchner befasst sich am Fraunhofer-Institut für Graphische Datenverarbeitung mit der Entwicklung solcher Gesichtserkennungssysteme, mit ihm habe ich gesprochen.

Christiane Knoll: Im Bundesinnenministerium entsteht derzeit der Entwurf für eine Polizeireform, die automatische Gesichtserkennung an den großen deutschen Bahnhöfen und Flughäfen vorsieht.
Vielen geht das zu weit. Geht es nach Horst Seehofer, dann soll die Bundespolizei mehr Befugnisse bekommen – und technische Unterstützung.
Der Entwurf sieht die automatische Gesichtserkennung an 135 Bahnhöfen und Flughäfen vor.
Nur: Wäre das überhaupt eine Unterstützung? Ein Pilotversuch am Berliner Südkreuz war eher ernüchternd verlaufen, weil zu viele Menschen nicht oder fälschlicherweise erkannt wurden. Damit ist niemandem gedient.

Die Videoüberwachung ist auf vielen Ebenen umstritten. Wer gerät da ins Netz der Fahnder, was passiert mit den erfassten Daten, und was mit dem öffentlichen Raum?
Vor allem aber: Was kann die Technik überhaupt? Wenn wir schon politische und gesellschaftliche Risiken eingehen, steht dann auf der Haben-Seite wenigstens ein ordentlicher Gewinn und ein Mehr an Sicherheit?
Herr Kirchbuchner, während wir in Deutschland demnächst vielleicht die automatische Gesichtserkennung im öffentlichen Raum einführen, hat die IT-Hochburg San Francisco sie schon wieder abgeschafft und verboten. Warum?

Florian Kirchbuchner: In San Francisco wurde die biometrische Gesichtsüberwachung abgeschafft für den städtischen Bereich, in Straßen und an öffentlichen Plätzen. Hier gab es vermehrt Fehlalarme und falsche Bewertungen der Situation. Entsprechend kam es unter anderem auch zu Polizeieinsätzen, die leider über das normale Maß hinausliefen.
Sie wurde allerdings nicht abgeschafft für die Bereiche der Bundespolizei – im Bereich der Flughäfen oder in den öffentlichen Bahnhöfen.
Dort ist die Bundespolizei verantwortlich, und deswegen konnte sie durch den Stadtrat auch nicht verboten werden.

Knoll: So was kann in Deutschland nicht passieren?

Kirchbuchner: Ich denke, dass die deutsche Polizei dafür bekannt ist, dass sie meistens verhältnismäßig vorgeht und deutlich vorsichtiger in Einsätze schreitet als Polizeibehörden in anderen Ländern.

„Noch keinen Quantensprung erreicht“

Knoll: An diesem Beispiel sieht man schon, dass da einige Fallstricke lauern, fangen wir aber mal an der Basis an: Vor zwei Jahren hat ein Pilotversuch am Berliner Südkreuz Erkennungsraten dieser automatischen Bilderkennungssysteme von 80 Prozent geliefert und jeden hundertsten Passanten falsch identifiziert. Um wie viel besser sind denn die Systeme heute?

Kirchbuchner: Die Systeme sind besser geworden, sie werden ständig weiterentwickelt, allerdings haben wir auch hier in diesen zwei Jahren keinen Quantensprung erreicht. Wir bewegen uns also immer noch in ähnlichen vergleichbaren Erkennungsraten.

Knoll: Jetzt kann man sich vorstellen, dass es leichter ist, die unbescholtenen Bürger zu erkennen – wer kriminell ist oder auf der Terrorfahndungsliste steht, der zieht sich ja vielleicht doch schnell mal eine Kappe auf und entgeht den Systemen. Da kann der beste Algorithmus nichts mehr ausrichten. Oder sehen Sie das anders?

„Eine einfache Verdeckung kann das System erkennen“

Kirchbuchner: Eine einfache Verdeckung, dass man eine Brille aufsetzt oder einen Schnurrbart aufklebt, das kann das System noch erkennen.
Allerdings ist es tatsächlich möglich, die Systeme zu umgehen, indem ich mir eine Vollgesichtsmaske aufsetze, indem ich einen Hut aufsetze, eine Baseballkappe mit dem Schild tief ins Gesicht gezogen und den Kopf von der Kamera wegdrehe, und schon kann ich nicht erkannt werden. Das ist tatsächlich der Fall.

Knoll: Das heißt, eigentlich sind die Erkennungsraten dieser Systeme immer noch sehr schlecht und gerade eben für die Zielgruppe besonders schlecht.

Kirchbuchner: Sie sind immer noch schlecht und müssen weiterhin verbessert werden, und dazu müssen sie aber auch getestet werden, auch in großflächigem Einsatz.
Es gibt die Möglichkeit, verschiedene Sensorsysteme zu kombinieren. Verschiedene Anbieter haben unterschiedliche Lösungen, und die Ergebnisse kann ich zusammenführen, fusionieren und daraus eine bessere Erkennungsrate erreichen.
Das ist zum Teil auch in Hamburg schon geschehen.

Die weitere Möglichkeit oder Optimierungsmöglichkeiten sind die Anbringung der Kameras, sodass ich mehr oder weniger gezwungen bin, in die Kamera zu blicken.
Alternative wäre aber auch noch, richtige Gates einzuführen oder Schleusen einzuführen, durch die Passanten treten müssen, wenn sie einen Flughafen oder auch den Bahnhof betreten wollen.
Es ist sogar bewiesen, dass hier die Gesichtserkennung durch die biometrischen Systeme zuverlässiger erfolgt als durch den Menschen.

Knoll: Womit wird abgeglichen, was wäre die Datenbank?

Kirchbuchner: Im Hintergrund müsste eine Datenbank sein, in der die vermissten oder die gesuchten Personen erfasst sind. Was nicht sein dürfte, ist eine Datenbank, in der jeder Bundesbürger automatisch erfasst wird.

„Hier muss der Mensch entscheiden“

Knoll: Wenn jetzt eine Person entdeckt wird durch den Abgleich mit der Datenbank, wie würde das Ganze weitergehen?

Kirchbuchner: In diesem Fall müsste dann an einem Computerbildschirm der Fund signalisiert werden, und eine Person müsste dann entscheiden, wie weiter vorzugehen ist.
Man sollte diese Kontrolle niemals dem System alleine überlassen.

Knoll: Das heißt, es wäre der Mensch, der dann letztendlich entscheidet, ob diese Person angesprochen wird, attackiert wird möglicherweise?

Kirchbuchner: Ja. Hier muss der Mensch entscheiden. Ich sehe auch kein Szenario, dass eine Hundertschaft Polizisten in Bereitschaft steht am Bahnhof und darauf wartet, dass der Computer ein Gesicht erkennt.
Meistens ist, wenn die Erkennung erfolgt ist, die Person schon in den Zug eingestiegen, in die nächste Bahn, und auch schon wieder weitergefahren. Aber man kann zumindest hier dann auch den Weg nachvollziehen.

Ethnische Diskriminierung

Knoll: Es gibt ja ein gewichtiges Argument der Kritiker: Die Algorithmen erkennen am besten weiße Männer, weil sie damit trainiert wurden.
Darüber hinaus gibt es aber auch Ethnien, die wegen ihrer Gesichtszüge prinzipiell nicht so leicht zu unterscheiden sind. Die sind gefährdeter, zu Unrecht kontrolliert und im schlimmsten Fall eben auch rausgegriffen, herausgepickt zu werden. Wie sollte man das denn verhindern?

Kirchbuchner: Das ist tatsächlich ein Problem. Es liegt zum einen, wie Sie schon gesagt haben, daran, dass die Algorithmen besser auf kaukasische Gesichter trainiert sind.
Allerdings gibt es auch physiognomische Eigenschaften unterschiedlicher Ethnien, die eine Erkennung, selbst wenn man sie besser trainieren würde, verhindern. Also hier wird es schwierig bleiben mit der vorhandenen Technik.

Knoll: Ja, und Sie sagen ja selbst, dass ein Polizist nach einem Alarm das Gesicht am Bildschirm kontrollieren würde, aber auch der ist ja in der Regel nicht besser bei Gesichtern, die ihm nicht so vertraut sind.

Kirchbuchner: Es ist schwierig, also er wäre das Korrektiv. Wir haben auch hier – die Systeme geben nur einen Wahrscheinlichkeitswert, dass hier eine bestimmte Ähnlichkeit besteht, sie sagen ja nicht, dass man hier ein Verbrecher ist. Natürlich würde es aber dazu führen, dass diese Personengruppen vermehrt kontrolliert werden würden.

„Systeme großflächig testen“

Knoll: Das bedeutet aber, dass die Bilderkennungssysteme erstens Mal noch nicht besonders gut sind und zweitens doch eine Menge von Verzerrungen in sich bergen, die auch prinzipieller Natur sind.
Netzaktivisten fordern deswegen ein Verbot. Wie ist Ihre Einschätzung, sollte die automatische Bilderkennung an Bahnhöfen und Flughäfen tatsächlich kommen?

Kirchbuchner: Also ein Verbot ist insofern nicht notwendig, weil unser Datenschutz verbietet momentan den Einsatz.
Wir können diese Systeme großflächig gar nicht testen, ohne Gesetzesänderungen durchzuführen.

Knoll: Ja, aber die sind ja jetzt gerade in Arbeit, es ist ja geplant.

Kirchbuchner: Ja. Ich bin dafür, dass man das wirklich erlaubt, um die Systeme auch großflächig zu testen. Erst dann können wir sagen, wie gut sie funktionieren.

Knoll: Und Sie glauben, dass sie zum Beispiel für die in den Systemen angelegte Diskriminierung eine Lösung finden können?

Kirchbuchner: Daran forschen wir aktiv. Wir entwickeln hier bei unserem Institut auch Methoden, um Biometriesysteme, Gesichtserkennungssysteme so zu trainieren, dass sie neutral gegenüber Ethnien und Geschlechtern sind.

Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.

Jochen

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s