Gesichtserkennung Stoppen !

Jochens SOZIALPOLITISCHE NACHRICHTEN

Keine_Gesichtserkennung

Wenn man das hier liest, bekommt man einen Eindruck davon, was so im Klammheimlichen bei den Behörden vor sich geht.
Der CCC deckte anhand des Ergebnisreports der Polizei über das Berliner Bahnhofsexperiment auf, dass in der 2.Testphase das Vorgehen massiv so manipuliert wurde, um dem damaligen Bundesinnenminister zu gefallen. Sein Einsatz könnte zu einer ungeheuren Datenüberflutung führen.
Wie die Fälle NSU und Amri bewiesen haben, liegen die blinden Flecken an ganz anderer Stelle.
Hier geht es um millionenschwere Folgeaufträge für die IT.
Aber lest selbst über das Bündnis, das sich hier gegründet hat:
https://gesichtserkennung-stoppen.de/aufruf.html

Da mir das so wichtig ist, füge ich noch einen Kommentar des CCC sowie ein Interview mit
Florian Kirchbuchner vom Fraunhofer-Institut im Dlf an.
Wie man sich gegen Gesichtserkennung schützen kann, dazu hier mein Beitrag:cv dazzle4

https://josopon.wordpress.com/2016/11/02/wie-man-gesichtserkennungs-software-austricksen-kann/

Und hier der Aufruf:

Obwohl seit Jahren die Kriminalitätsrate und die Zahl der Todesopfer durch Terroranschläge sinkt, fordern Politiker*innen beständig den Ausbau von Massenüberwachung.
Hierdurch soll einem „Gefühl“ der Unsicherheit der Menschen abgeholfen werden.
Aktuell im Trend: Videoüberwachung mit Gesichtserkennung. Getestet wurden die Systeme bereits am Berliner Bahnhof Südkreuz.

Warum Gesichts­erkennung verbieten?

Falsch­erkennung

Die Systeme funktionieren mangelhaft. In dem Test am Südkreuz wurde ca. jeder 200. Mensch fälschlich als gesuchte Person erkannt.[1]
In der Praxis würde das an einem Bahnhof wie dem Berliner Südkreuz dazu führen, dass täglich 600 Menschen fälschlich als gefährliche Person erkannt werden.
Diese Menschen wären unangenehmen Kontrollen ausgesetzt. Die Polizei wäre von Fehlalarmen überlastet.

Einfache Umgehung

Dreht eine gesuchte Person ihr Gesicht nur um 15 Grad von den Kameras weg, wird sie von den Systemen nicht mehr erkannt.[2]
Die Erkennung lässt sich auch durch das teilweise Bedecken des Gesichts, z.B. mit einem Schal oder einer Mütze, vereiteln.
Wer eine Straftat plant, kann sich einfach vor Erkennung schützen.

Diskriminierung

Gesichtserkennung diskriminiert Frauen, Kinder und People of Colour. Bei diesen Gruppen liegen die Falscherkennungsraten signifikant höher als bei weißen mitteleuropäischen Männern.[3]
Das liegt daran, dass die hiesigen Systeme großteils mit Bildern von weißen, männlichen Gesichtern trainiert werden.
Die negativen Folgen treffen also besonders Gruppen, die ohnehin schon Benachteiligungen ausgesetzt sind.

Gefahr für die Demokratie

Selbst wenn Gesichtserkennung perfekt funktionieren würde: Sie wäre dann in der Lage, ganze Stadtgebiete zu überwachen und die Identität von Zehn- oder Hunderttausenden von Menschen gleichzeitig zu erfassen. Technisch möglich wäre das staatliche Erstellen von Bewegungsprofilen.

Darunter leiden Freiheitsrechte, individuelle Entfaltung und politische Teilhabe. Wer sich im öffentlichen Raum ständig von einer intelligenten Kamera abgescannt und analysiert fühlt, verspürt einen Überwachungsdruck.
Selbsteinschränkung und aufgezwungene „Konformität“ ist die Folge.[4]
In einer gesunden, pluralistischen Demokratie ist es aber wichtig, dass sich Menschen bei ihrer Meinungsbildung, individuellen Entfaltung und politischen Partizipation nicht beobachtet fühlen.

Missbrauchs­potential

Gesichtserkennung birgt enormes Missbrauchspotential – sowohl für einzelne unberechtigt Handelnde als auch für etwaige zukünftige autoritäre Regierungen.
Zivilgesellschaftliches Engagement gegen eine Regierung, die exakt weiß, wer wann wo ist, ist nur schwer denkbar.
Es liegt in der historischen Verantwortung Deutschlands, keine Infrastruktur aufzubauen, die es ermöglicht, die gesamte Gesellschaft zu kontrollieren.

Das Bewusstsein für die Risiken wächst: Zuerst in San Francisco[5], später in weiteren Städten Kaliforniens sowie Massachusetts, USA, wurde die polizeiliche Verwendung von Gesichtserkennungssystemen verboten.

Unsere Forderungen

1. Ein Verbot automatischer Gesichtserkennung in der Öffentlichkeit durch die Polizei oder andere staatliche Akteure.

2. Wirksames Vorgehen gegen Terroranschläge durch soziale Präventions- und Aussteigerprogramme statt ungezielter Massenüberwachung.

Verweise:

  1. https://www.ccc.de/de/updates/2018/debakel-am-suedkreuz siehe weiter unten
    2.https://www.bundespolizei.de/Web/DE/04Aktuelles/01Meldungen/2018/10/181011_abschlussbericht_gesichtserkennung_down.pdf;jsessionid=B00C5E4B9341D9F8733EF8508A6D9C46.2_cid324?__blob=publicationFile&v=1
    3. http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
  2. https://www.freitag.de/autoren/netzpiloten/studie-beweist-selbstzensur-durch-ueberwachung;%20https://www.deutschlandfunk.de/staatliche-ueberwachung-befallen-vom-ueberwachungsvirus.1184.de.html?dram:article_id=307639
  3. https://www.fr.de/wirtschaft/gastwirtschaft/mein-gesicht-meine-freiheit-12919089.html

Unterstützende Organisationen

Chaos Computer Club

Chaos Computer Club e.V.

 

Digitale Gesellschaft e.V.Digitale Gesellschaft e.V.

 

D64 Zentrum für Digitalen Fortschritt e.V.

D64 Zentrum für Digitalen Fortschritt e.V.

 

LOAD e.V. Verein für liberale Netzpolitik

LOAD e.V. Verein für liberale Netzpolitik

 

FIfF e.V.

 

 

 

 

 

FIfF e.V.

 

Digitale Freiheit e.V.Digitale Freiheit e.V.

 

Digitalcourage e.V.

Digitalcourage e.V.

Hier der Kommentar des CCC:

Biometrische Videoüberwachung: Der Südkreuz-Versuch war kein Erfolg

2018-10-13 08:46:09, erdgeist

Die Ergebnisse im Abschlussbericht nach dem monatelangen Test der biometrischen Gesichtserkennung sind nicht überzeugend und absichtlich geschönt worden.
Solche Testergebnisse können nicht als Grund dafür herhalten, Biometrietechnik nun flächendeckend einführen zu wollen. Risiken und rechtliche Probleme werden im Bericht gar nicht erst angesprochen.

Diese Woche hat die Bundespolizei den bereits im September erstellten Abschlussbericht [1] zur biometrischen Gesichtserkennung am Berliner Bahnhof Südkreuz veröffentlicht.
Zu den Kosten des monatelangen Versuchs sind keine Angaben enthalten.
Eine zeitgleich bekanntgegebene Meldung preist die Ergebnisse der drei erprobten Systeme als „erfolgreich“ und spricht von einem „enormen Mehrwert“ der Biometriesoftware für die Polizei.

Jedoch zeigen die wenigen Zahlen aus dem Bericht, dass die getesteten Systeme – anders als behauptet – keine akzeptablen Ergebnisse erbrachten.
Zudem erweist sich, dass die Ergebnisse manipuliert wurden, um sie nicht ganz so desaströs aussehen zu lassen.

Der Chaos Computer Club (CCC) fordert im Lichte dieses Debakels, das unnütze und teure Sicherheitstheater unverzüglich einzustellen. Die Gesichter aller Passanten sind keine biometrische Ressource zum Scannen nach Belieben.

Die biometrische Videoüberwachung ist mit zahlreichen technischen Problemen behaftet und erweist sich erneut als untauglich.
Aber das weit größere Problem für jeden Passanten, dessen Gesicht gescannt wird, liegt in der Technologie selbst:
Menschen werden nicht wie mit anderen Videosystemen einfach nur beobachtet, sondern während der Überwachung durch ihre Körpermerkmale identifiziert.
Werden solche Systeme ausgebaut, stehen wir vor einer anlasslosen biometrischen Personenüberwachung im öffentlichen Raum, die mit der heutigen Videoüberwachung technisch nicht vergleichbar ist.

Angaben zu durchschnittlichen Ergebnissen

Das Innenministerium betont die angeblich hohe Anzahl an Treffern: Die Trefferrate gibt laut dem Bericht die Wahrscheinlichkeit an, mit der eine Person von einem getesteten System korrekt identifiziert wird.
Über die angegebene Trefferrate von durchschnittlich achtzig Prozent zeigen sich das Innenministerium und die Autoren des Abschlussberichts hocherfreut.
Faktisch werden bei einer solchen Rate allerdings von zehn gesuchten Personen eben nur acht korrekt identifiziert.

Doch selbst die in der Pressemitteilung besonders hervorgehobene durchschnittliche Erkennungsrate von achtzig Prozent hat in Wahrheit keines der getesteten Systeme erreicht, sondern ist eine absichtlich positiv verfälschende Zahl.
Sie berechnet sich laut dem Abschlussbericht aus den Erkennungsraten aller drei erprobten Systeme.

Praktisch hieße das für die Situation am Bahnhof, dass nicht der beste Anbieter für die biometrische Erkennung zum Einsatz käme, sondern alle drei Systeme zusammen eingesetzt werden müssten, um diesen durchschnittlichen Wert zu erreichen.
Eine solche Trefferrate des „logischen Gesamtsystems“ existiert nämlich nur, wenn alle drei getesteten Systeme die vorbeilaufenden Menschen erfassen und jeweils softwareseitig auswerten.
Bei keinem der getesteten Anbieter wurde diese imaginäre durchschnittliche Zahl in Wahrheit gemessen.
Tatsächlich ist das durchschnittliche Ergebnis des Versuchs für das beste der drei Testsysteme die peinliche Zahl von 68,5 Prozent, die in der ersten Testphase erreicht wurde.
Damit ist die biometrische Technik zu unausgereift für den praktischen Einsatz.

Erwartungsgemäß ändert auch die Positionierung der Kamera das Ergebnis für die Trefferquoten: Am schlechtesten schnitt dabei die Eingangskamera am Bahnhof ab, bei der die schwächsten Trefferleistungen gemessen wurden.
Selbst das beste der drei getesteten Systeme kommt hier nur auf eine Trefferquote von 65,8 Prozent. Tagsüber konnte wegen Gegenlichts sogar auch beim besten der Systeme nur sechzig Prozent erreicht werden.
Der schlechteste der drei Biometrieanbieter wies am Eingang des Bahnhofs sogar nur eine Trefferrate von 18,9 Prozent (tagsüber zwölf Prozent) aus und ist damit glatt durchgefallen.

Für den geplanten Abgleich mit polizeilichen Datenbanken sind solche Erkennungsraten völlig unbrauchbar. Sie als Erfolg verkaufen zu wollen, ist schlicht unredlich.
Insgesamt hält die Bundespolizei dennoch zwei der getesteten Systeme für den „praktischen polizeilichen Einsatz“ geeignet und sieht selbst für das überdurchschnittlich schlechte dritte Testsystem noch ein „hohes Potenzial“.

Wissenschaftliche Standards missachtet

Die zugrundeliegenden Bilder der Gesichter waren in der Phase zu Beginn des Tests von ausgesprochen hoher Qualität, was die Ergebnisse zugunsten der getesteten Systeme verzerrt.
Denn die freiwilligen Probanden wurden in hoher Auflösung und mit guter Beleuchtung fotographiert, so dass die erfassten Gesichter in der ersten Testphase optimal für den Vergleich mit den Livebildern vorlagen.

Der Abschlussbericht weist solche Verzerrungen nicht etwa aus, sondern beschönigt das Vorgehen noch. Generell kann die gesamte Auswertung nicht als wissenschaftlich angesehen, sondern muss als PR-Bericht verstanden werden.
Vielleicht dauerte es deshalb so lange, die bereits am 31. Juli beendeten Tests herauszuputzen, um sie erst im Oktober im Abschlussbericht darzustellen.

Die Wissenschaftlichkeit des Versuchs steht aber auch aus anderen Gründen bereits konzeptuell in Zweifel:
Die Repräsentativität der Probanden war nicht gegeben, so dass kein aussagekräftiges Abbild der Bevölkerung (Alter, Geschlecht, Ethnie) oder des gesuchten Personenkreises getestet wurde.
Zudem war die Anzahl der freiwilligen Tester mit 312 Menschen zu gering bemessen, sie nahm in der zweiten Testphase außerdem noch signifikant ab und verringerte sich auf nur 201 Personen.

„Eine gründliche Untersuchung der realen Erkennungsleistungen der biometrischen Systeme hat mit dem Test am Bahnhof Südkreuz wenig gemeinsam. Wenn ein System der biometrischen Personenüberwachung aber tatsächlich eingesetzt werden sollte, genügen solche Versuche ohnehin nicht. Dann müsste man besser vorher darüber sprechen, ob es gesellschaftlich wünschenswert und überhaupt rechtlich möglich ist, von jedem Vorbeilaufenden biometrische Merkmale zu verarbeiten“, sagte Dirk Engling, Sprecher des CCC.

Die zweite Versuchsphase

Besonders dreist ist das Vorgehen, mit der zweiten Testphase die Ergebnisse nochmals absichtlich zu schönen.
Der damalige Innenminister Thomas de Maizière hatte bei einem Besuch seines Vorzeigeprojektes noch angekündigt, dass in einer zweiten Phase des ursprünglich auf sechs Monate angelegten Versuchs realitätsnähere Bilder benutzt werden würden.
In Wahrheit wurden in dem dann verlängerten Test unter dem Vorwand, angeblich Fahndungsfotos zu verwenden, tatsächlich von den getesteten Systemen selbst aufgezeichnete Gesichtsbilder benutzt.
Diese Bilder hatten im ersten Versuchsteil bereits zu guten Ergebnissen geführt.
Zudem wurde nunmehr nicht nur ein Referenzbild in den Datenbanken hinterlegt, sondern gleich mehrere der zuvor aufgezeichneten Fotos der Probanden aus den Überwachungskameras verwendet.

Damit wurden nicht nur absichtlich und unzulässig die Erkennungraten manipuliert, vielmehr sind mit einem solchen Testvorgehen Rückschlüsse auf reale Szenarien in einem Bahnhof gar nicht mehr möglich.
Schließlich hat es nichts mehr mit der Wirklichkeit zu tun, wenn die biometrischen Systeme Vergleiche von vorher als gut klassifizierten Gesichtsbildern vornehmen, die am gleichen Ort entstanden sind.
So müssten in der Realität Fotos der Verdächtigen an allen Bahnhöfen mit allen dort verbauten Kameras angefertigt werden – eine vollkommmen unsinnige und erneut die Ergebnisse verfälschende Testannahme.
Wenn solche Versuchsmethoden als Begründung für eine künftige Gesetzgebung zum flächendeckenden Einsatz herhalten sollten, sind sie nicht aussagekräftig für eine reale Verwendung.

Die Falscherkennungsrate

Weiterhin sind die Zahlen zur Falscherkennungsrate (FAR) deutlich geschönt. So werden hier nicht etwa alle durch die Kamera erfassten Gesichter der Menschen analysiert, sondern ausweislich des Berichtes nur diejenigen, die zufälligerweise zu dem Zeitpunkt aufgenommen wurden, wenn eine der Testpersonen neben ihnen auf der Rolltreppe stand oder im Bahnhof ging und damit das System durch den Transponder aktivierte.
Die realen Zahlen der fälschlichen Erkennung liegen also nochmals um ein Vielfaches höher als der in dem Bericht ausgegebene Wert.
Zugleich bleibt auch diese Verzerrung des Ergebnisses im Bericht selbst unkommentiert.

Für das „logische Gesamtsystem“ liegt die so ausgewiesene FAR durchschnittlich bei 0,67 Prozent. Bei einer durchschnittlichen Anzahl von etwa 90.000 Reisenden pro Tag am Bahnhof Südkreuz hieße ein solcher Wert, dass täglich 600 Passanten und mehr fälschlich ins Visier der biometrischen Installation gerieten.

Weiterhin werfen die im Versuch verwendeten Verfahren Fragen auf, die in dem Bericht nicht adressiert werden.
Wieso wurden beispielsweise aus den 41.000 gespeicherten Transponder-Events nur 6.000 ausgewählt? Was waren die Kriterien?
Und warum werden nicht in allen Diagrammen im Abschlussbericht die gleichen Datenpunkte verwendet? So gibt es beispielsweise für den November nur einen Punkt im Diagramm für die Falscherkennungsrate, aber ganze neun für die Trefferrate. Hier liegt der Verdacht nahe, dass durch die Auswahl bestimmter Ereignisse Fehlerkennungen unter den Tisch gekehrt werden sollten.
Auch Differenzen in den Erkennungsraten zwischen aufeinanderfolgenden Tagen von im Schnitt zehn Prozent (maximal fünfzig Prozent) sollten die Herausgeber und die Leser der Studien stutzig machen.

Bedeutung der Zahlen in der Praxis

Würde dieses System tatsächlich so in Betrieb genommen, würde die FAR noch weiter darunter leiden, dass die Zahl der Fahndungen mehr als nur die 200 gespeicherten Vergleichsbilder wie in Testphase 2 erzeugt.
Laut Beispiel aus dem Bericht soll in der Praxis mit mindestens 600 Bildern verglichen werden. Entsprechend stiege die FAR nochmals.

Doch selbst wenn die Systeme nur vier unbescholtene Bürger pro Kamera und Stunde fälschlich als Verbrecher erkennen und die Beamten diese dann von Hand aussondern müssen, kann man sich leicht vorstellen, was passiert, wenn nach monatelangem händischen Aussieben dann doch mal ein einzelner Verbrecher durchs Bild huscht und erkannt wird.
Wie aufmerksam ein durchschnittlicher PC-Anwender die hunderste Sicherheitswarnung für Webseiten wegklickt, dürfte ein Gefühl für die Auswirkungen einer solchen Flut von Falscherkennungsmeldungen geben.

Der einzige Lichtblick im Bericht ist die Beschreibung, wie man sich am besten gegen die biometrische Rasterfahndung schützen kann:
Man drehe einfach das eigene Gesicht um mehr als 15 Grad von der Kamera weg.
Damit ist eigentlich alles gesagt, was die Sinnhaftigkeit und Einsatztauglichkeit solcher Systeme angeht.

Links

[1] Abschlussbericht der Bundespolizei (pdf)

„Es ist möglich, die Systeme zu umgehen“

https://www.deutschlandfunk.de/automatische-gesichtserkennung-es-ist-moeglich-die-systeme.676.de.html?dram:article_id=468082

Das Bundesinnenministerium plant, die automatische Gesichtserkennung an Bahnhöfen und Flughäfen einzuführen – entgegen aller Kritik.
Die Erkennungsraten solcher Systeme seien noch immer schlecht, sagte Florian Kirchbuchner vom Fraunhofer-Institut im Dlf. Großflächige Tests könnten das ändern.

Florian Kirchbuchner im Gespräch mit Christiane Knoll

Florian Kirchbuchner befasst sich am Fraunhofer-Institut für Graphische Datenverarbeitung mit der Entwicklung solcher Gesichtserkennungssysteme, mit ihm habe ich gesprochen.

Christiane Knoll: Im Bundesinnenministerium entsteht derzeit der Entwurf für eine Polizeireform, die automatische Gesichtserkennung an den großen deutschen Bahnhöfen und Flughäfen vorsieht.
Vielen geht das zu weit. Geht es nach Horst Seehofer, dann soll die Bundespolizei mehr Befugnisse bekommen – und technische Unterstützung.
Der Entwurf sieht die automatische Gesichtserkennung an 135 Bahnhöfen und Flughäfen vor.
Nur: Wäre das überhaupt eine Unterstützung? Ein Pilotversuch am Berliner Südkreuz war eher ernüchternd verlaufen, weil zu viele Menschen nicht oder fälschlicherweise erkannt wurden. Damit ist niemandem gedient.

Die Videoüberwachung ist auf vielen Ebenen umstritten. Wer gerät da ins Netz der Fahnder, was passiert mit den erfassten Daten, und was mit dem öffentlichen Raum?
Vor allem aber: Was kann die Technik überhaupt? Wenn wir schon politische und gesellschaftliche Risiken eingehen, steht dann auf der Haben-Seite wenigstens ein ordentlicher Gewinn und ein Mehr an Sicherheit?
Herr Kirchbuchner, während wir in Deutschland demnächst vielleicht die automatische Gesichtserkennung im öffentlichen Raum einführen, hat die IT-Hochburg San Francisco sie schon wieder abgeschafft und verboten. Warum?

Florian Kirchbuchner: In San Francisco wurde die biometrische Gesichtsüberwachung abgeschafft für den städtischen Bereich, in Straßen und an öffentlichen Plätzen. Hier gab es vermehrt Fehlalarme und falsche Bewertungen der Situation. Entsprechend kam es unter anderem auch zu Polizeieinsätzen, die leider über das normale Maß hinausliefen.
Sie wurde allerdings nicht abgeschafft für die Bereiche der Bundespolizei – im Bereich der Flughäfen oder in den öffentlichen Bahnhöfen.
Dort ist die Bundespolizei verantwortlich, und deswegen konnte sie durch den Stadtrat auch nicht verboten werden.

Knoll: So was kann in Deutschland nicht passieren?

Kirchbuchner: Ich denke, dass die deutsche Polizei dafür bekannt ist, dass sie meistens verhältnismäßig vorgeht und deutlich vorsichtiger in Einsätze schreitet als Polizeibehörden in anderen Ländern.

„Noch keinen Quantensprung erreicht“

Knoll: An diesem Beispiel sieht man schon, dass da einige Fallstricke lauern, fangen wir aber mal an der Basis an: Vor zwei Jahren hat ein Pilotversuch am Berliner Südkreuz Erkennungsraten dieser automatischen Bilderkennungssysteme von 80 Prozent geliefert und jeden hundertsten Passanten falsch identifiziert. Um wie viel besser sind denn die Systeme heute?

Kirchbuchner: Die Systeme sind besser geworden, sie werden ständig weiterentwickelt, allerdings haben wir auch hier in diesen zwei Jahren keinen Quantensprung erreicht. Wir bewegen uns also immer noch in ähnlichen vergleichbaren Erkennungsraten.

Knoll: Jetzt kann man sich vorstellen, dass es leichter ist, die unbescholtenen Bürger zu erkennen – wer kriminell ist oder auf der Terrorfahndungsliste steht, der zieht sich ja vielleicht doch schnell mal eine Kappe auf und entgeht den Systemen. Da kann der beste Algorithmus nichts mehr ausrichten. Oder sehen Sie das anders?

„Eine einfache Verdeckung kann das System erkennen“

Kirchbuchner: Eine einfache Verdeckung, dass man eine Brille aufsetzt oder einen Schnurrbart aufklebt, das kann das System noch erkennen.
Allerdings ist es tatsächlich möglich, die Systeme zu umgehen, indem ich mir eine Vollgesichtsmaske aufsetze, indem ich einen Hut aufsetze, eine Baseballkappe mit dem Schild tief ins Gesicht gezogen und den Kopf von der Kamera wegdrehe, und schon kann ich nicht erkannt werden. Das ist tatsächlich der Fall.

Knoll: Das heißt, eigentlich sind die Erkennungsraten dieser Systeme immer noch sehr schlecht und gerade eben für die Zielgruppe besonders schlecht.

Kirchbuchner: Sie sind immer noch schlecht und müssen weiterhin verbessert werden, und dazu müssen sie aber auch getestet werden, auch in großflächigem Einsatz.
Es gibt die Möglichkeit, verschiedene Sensorsysteme zu kombinieren. Verschiedene Anbieter haben unterschiedliche Lösungen, und die Ergebnisse kann ich zusammenführen, fusionieren und daraus eine bessere Erkennungsrate erreichen.
Das ist zum Teil auch in Hamburg schon geschehen.

Die weitere Möglichkeit oder Optimierungsmöglichkeiten sind die Anbringung der Kameras, sodass ich mehr oder weniger gezwungen bin, in die Kamera zu blicken.
Alternative wäre aber auch noch, richtige Gates einzuführen oder Schleusen einzuführen, durch die Passanten treten müssen, wenn sie einen Flughafen oder auch den Bahnhof betreten wollen.
Es ist sogar bewiesen, dass hier die Gesichtserkennung durch die biometrischen Systeme zuverlässiger erfolgt als durch den Menschen.

Knoll: Womit wird abgeglichen, was wäre die Datenbank?

Kirchbuchner: Im Hintergrund müsste eine Datenbank sein, in der die vermissten oder die gesuchten Personen erfasst sind. Was nicht sein dürfte, ist eine Datenbank, in der jeder Bundesbürger automatisch erfasst wird.

„Hier muss der Mensch entscheiden“

Knoll: Wenn jetzt eine Person entdeckt wird durch den Abgleich mit der Datenbank, wie würde das Ganze weitergehen?

Kirchbuchner: In diesem Fall müsste dann an einem Computerbildschirm der Fund signalisiert werden, und eine Person müsste dann entscheiden, wie weiter vorzugehen ist.
Man sollte diese Kontrolle niemals dem System alleine überlassen.

Knoll: Das heißt, es wäre der Mensch, der dann letztendlich entscheidet, ob diese Person angesprochen wird, attackiert wird möglicherweise?

Kirchbuchner: Ja. Hier muss der Mensch entscheiden. Ich sehe auch kein Szenario, dass eine Hundertschaft Polizisten in Bereitschaft steht am Bahnhof und darauf wartet, dass der Computer ein Gesicht erkennt.
Meistens ist, wenn die Erkennung erfolgt ist, die Person schon in den Zug eingestiegen, in die nächste Bahn, und auch schon wieder weitergefahren. Aber man kann zumindest hier dann auch den Weg nachvollziehen.

Ethnische Diskriminierung

Knoll: Es gibt ja ein gewichtiges Argument der Kritiker: Die Algorithmen erkennen am besten weiße Männer, weil sie damit trainiert wurden.
Darüber hinaus gibt es aber auch Ethnien, die wegen ihrer Gesichtszüge prinzipiell nicht so leicht zu unterscheiden sind. Die sind gefährdeter, zu Unrecht kontrolliert und im schlimmsten Fall eben auch rausgegriffen, herausgepickt zu werden. Wie sollte man das denn verhindern?

Kirchbuchner: Das ist tatsächlich ein Problem. Es liegt zum einen, wie Sie schon gesagt haben, daran, dass die Algorithmen besser auf kaukasische Gesichter trainiert sind.
Allerdings gibt es auch physiognomische Eigenschaften unterschiedlicher Ethnien, die eine Erkennung, selbst wenn man sie besser trainieren würde, verhindern. Also hier wird es schwierig bleiben mit der vorhandenen Technik.

Knoll: Ja, und Sie sagen ja selbst, dass ein Polizist nach einem Alarm das Gesicht am Bildschirm kontrollieren würde, aber auch der ist ja in der Regel nicht besser bei Gesichtern, die ihm nicht so vertraut sind.

Kirchbuchner: Es ist schwierig, also er wäre das Korrektiv. Wir haben auch hier – die Systeme geben nur einen Wahrscheinlichkeitswert, dass hier eine bestimmte Ähnlichkeit besteht, sie sagen ja nicht, dass man hier ein Verbrecher ist. Natürlich würde es aber dazu führen, dass diese Personengruppen vermehrt kontrolliert werden würden.

„Systeme großflächig testen“

Knoll: Das bedeutet aber, dass die Bilderkennungssysteme erstens Mal noch nicht besonders gut sind und zweitens doch eine Menge von Verzerrungen in sich bergen, die auch prinzipieller Natur sind.
Netzaktivisten fordern deswegen ein Verbot. Wie ist Ihre Einschätzung, sollte die automatische Bilderkennung an Bahnhöfen und Flughäfen tatsächlich kommen?

Kirchbuchner: Also ein Verbot ist insofern nicht notwendig, weil unser Datenschutz verbietet momentan den Einsatz.
Wir können diese Systeme großflächig gar nicht testen, ohne Gesetzesänderungen durchzuführen.

Knoll: Ja, aber die sind ja jetzt gerade in Arbeit, es ist ja geplant.

Kirchbuchner: Ja. Ich bin dafür, dass man das wirklich erlaubt, um die Systeme auch großflächig zu testen. Erst dann können wir sagen, wie gut sie funktionieren.

Knoll: Und Sie glauben, dass sie zum Beispiel für die in den Systemen angelegte Diskriminierung eine Lösung finden können?

Kirchbuchner: Daran forschen wir aktiv. Wir entwickeln hier bei unserem Institut auch Methoden, um Biometriesysteme, Gesichtserkennungssysteme so zu trainieren, dass sie neutral gegenüber Ethnien und Geschlechtern sind.

Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.

Jochen

„Überwachung ist ein Riesenbusiness“ – Geheimdienst-Fehler, Open Source Intelligence und die Profiteure von 9/11

Jochens SOZIALPOLITISCHE NACHRICHTEN

Der Terrorist Amri ist nicht durch deutsche Behörden mit ihrem gesamten gesetzlichen, technischen und organisatorischen Rückhalt gestellt worden, sondern durch 2 geistesgegenwärtige italienische Bahnpolizisten auf einem Routine-Kontrollgang.
Solche Polizisten sind in Deutschland schon längst wegrationalisiert worden, in Kleinstädten sind die Bahnhöfe ausgestorben. Videoüberwachung kann die 80000 gestrichenen Stellen nicht ersetzen.
Dazu Aktuell und wichtig:
https://www.neues-deutschland.de/artikel/1063374.ueberwachung-ist-ein-riesenbusiness.html

friedrich_moserAuszüge:

Filmemacher Friedrich Moser über Geheimdienst-Fehler, Open Source Intelligence und die Profiteure von 9/11

In Ihrer Doku sagen Sie, dass die derzeitige Terrorjagd nicht funktioniere und kritisieren das Argumentationsmuster, mit dem zum Beispiel die Massenüberwachung begründet wird. Welches Muster meinen Sie?

Das Problem ist doch Folgendes: Die Massenüberwachung hat keinen der Terroranschläge der letzten Jahre verhindern können. Von den Terroranschlägen seit 2005 bis zum letzten vor wenigen Wochen in Barcelona gab es einige Muster, die alle diese Anschläge miteinander verbinden.
Erstens: mindestens einer der Attentäter war bereits polizeibekannt oder sonstwie bei den Behörden registriert.
Zweitens: Überall wurde elektronische Kommunikation verwendet, meistens unverschlüsselt.
Drittens: Es gab in keinem dieser Fälle nur Einzeltäter. Diesen Lone Wolf, von dem Politiker immer schwafeln, den gibt es nicht.
Alle diese Täter hatten ein Netzwerk hinter sich, alle hatten eine Geschichte der Radikalisierung hinter sich und alle Täter hatten in ihren sozialen Netzwerken Fußabdrücke der Radikalisierung hinterlassen.

Was heißt das?

Das heißt, wir brauchen überhaupt kein Massenüberwachungsprogramm, es braucht keine Staatstrojaner. Wir brauchen das alles nicht, um Terroristen auffliegen zu lassen.
Das ist das Hauptargument meines Films.

Wie kann die Terrorfahndung im Netz alternativ aussehen?
Ein Weg ist dieses Programm, das ein kleines Start-up in Wien entwickelt hat. Es geht aus von den bekannten sogenannten Gefährdern und analysiert dann deren Netzwerk, ihr Kommunikationsverhalten. Dabei geht es aber nicht so sehr darum, was radikale Islamisten einander erzählen, sondern es geht darum, wer mit wem verbunden ist, es geht um ihre öffentlich einsehbaren Metadaten.
Ich glaube, dass die Diskussion, die in Deutschland, Österreich und in den anderen Ländern geführt wird, am eigentlichen Problem vorbeigeht und das mit Kanonen auf Spatzen geschossen wird.

Das Argument aus dem Sicherheits-Establishment gegen ihre Kritik an der Massenüberwachung wäre »Leute wie Amri oder die Attentäter in Barcelona sind uns nur knapp entwischt, wir brauchen noch mehr Befugnisse und noch mehr Überwachung«. Was würden Sie dem entgegnen?
Nachdem man so viele Fehlgriffe hatte, die immer das gleiche Muster aufweisen, müsste im Geheimdienst-Establishment eigentlich die Einsicht reifen, dass die Massenüberwachung nicht funktioniert.
Ich bin für eine wirksame Geheimdienstarbeit. Aber muss man dafür die gesamte Bevölkerung überwachen? Überhaupt nicht! Das ist Unsinn.
Ich hoffe, dass mit dem Film eine Debatte über Alternativen zur Massenüberwachung zu starten. Sicherheit entsteht nicht durch die Quantität der gesammelten Daten und Informationen, sondern es ist die Qualität der Daten, die zählt – und die Zeit.

Sie glauben an eine Geheimdienstarbeit, die mit Demokratie und Rechtsstaat vereinbar ist.
Ich glaube, dass man zurückgehen muss auf Prinzipien, die bisher bei der Polizeiarbeit schon funktioniert haben.
Das Wichtigste ist meiner Meinung nach die Gewaltentrennung. Derzeit sind viel zu viele Kompetenzen bei der Exekutive angesiedelt. Parlament und Gericht haben wenig Möglichkeiten, das zu kontrollieren, was die Exekutive bei der Terrorabwehr macht. Das haben wir in Deutschland sehr deutlich beim NSA-Untersuchungsausschuss gesehen, der einfach Akten nicht einsehen konnte, der Akten nur geschwärzt bekam.
Und diese Nonchalance, mit der die Dienste mit dem rechtsstaatlichem Instrumentarium, mit der parlamentarischen Kontrolle umgehen, ist sehr gefährlich, sie unterminiert den Rechtsstaat.
Doch eine rechtsstaatliche Terrorabwehr ist möglich – die wichtigste Voraussetzung dafür ist Gewaltentrennung. Es muss eine unabhängige Kontrolle der Terrorfahndung geben. Die Kontrolle, auch die technische Kontrolle, kann nicht von Firmen durchgeführt werden, die für diese Dienste arbeiten, sondern muss von Außenstehenden durchgeführt werden, von unabhängigen Experten. Das Stichwort dazu lautet »Privacy by Design«.

Wie sieht eine solche Achtung der Privatsphäre durch »Privacy by Design« aus?
Bei solchen Programmen sind zum Beispiel die Daten verschlüsselt und anonymisiert. Erkennt ein Analyst ein möglicherweise gefährliches Profil eines Menschen, der sich radikalisiert hat, kann er mit Zustimmung und unter Einsatz von zwei weiteren Schlüsseln, die ein Richter und eine unabhängige Kontrollbehörde einsetzen, die Daten einsehen. Das minimiert Missbrauch, etwa durch Geheimdienst-Analysten, die der eigenen Freundin nachspionieren, was vorgekommen ist, wie wir durch die Snowden-Enthüllungen *) wissen, oder politischen Gegnern. Technisch ist das durchführbar.
Die Frage ist, ob die Politik bereit ist, das gesamte Setup, also diese gesamte Konstruktion der Überwachung, derartig zu ändern. Ich denke, das ist etwas, was wir von der Politik verlangen müssen.

Was Sie vorschlagen ist eine Netzwerkanalyse des Social-Media Profils von Islamisten. Sie beschreiben das als Open Source Intelligence. Wie unterscheidet sich die von der klassischen Geheimdienstarbeit?
Die Open Source Intelligence unterscheidet sich insofern, als einfach öffentlich zugängliche verfügbare Daten analysiert werden, um Muster zu erkennen. Es ist eben schon erstaunlich, wie treffsicher dieser Ansatz ist – alles kann sie nicht wissen, aber sie kann doch relativ viel rausfinden.
Die derzeitige Geheimdienstarbeit hingegen dringt mit dem Hacken von Telefonen, von Accounts stark in die Privatsphäre der Bürger ein.

Gezielte Analyse von bekannten Gefährdern, also eher klassische Polizeiarbeit in computergestützter Form, beschreibt auch ihr Film »A Good American« von 2015. Darin untersuchen Sie das NSA-Programm »ThinThread« und porträtieren den ehemaligen technischen Direktor der NSA, William Binney.
Wieso jetzt noch ein weiterer Film zum gleichen Thema?

Binneys selbstentwickeltes und billiges Programm wurde vom NSA-Management zugunsten eines teureren Überwachungsprogramms, von dem viele Akteure des militärisch-industriellen Komplexes profitiert haben, eingestellt: Bei der Arbeit an »A Good American« wurde mir klar: Überwachung ist ein Riesenbusiness. Bei keinem anderen Filmen zur modernen Massenüberwachung, wie etwa »Citizenfour«, kommt dieser kommerzielle Aspekt vor.
Schon unter Bill Clinton gab es immer mehr Auslagerung von Militäraufgaben an private Dienstleister, das gleiche passiert beim Thema Überwachung – diese Privatisierung begünstigt das Entstehen eines militärisch-industriellen Überwachungskomplexes.
Und das ist keine keine Verschwörung, diese Firmen operieren ja nicht geheim. Sie operieren sogar relativ offen. Man muss sich nur als Journalist die Mühe machen der Spur des Geldes zu folgen.

Sie schreiben über den militärisch-industriellen Komplex, gleichzeitig glauben sie aber nicht an Verschwörungen, etwa im Zusammenhang zum 11. September 2001.
Natürlich war es damals nicht der Wunsch des NSA-Managements, dass es zu diesen großen Anschlägen mit vielen Toten kommt. Man wollte sich einfach bereichern, in dem man sich vom US-amerikanischen Kongress ein anderes, teureres Programm als »ThinThread« genehmigen ließ.
Diese Geldgier, diese Charakterlosigkeit und diese Unmoral haben letztendlich dazu geführt, dass ein Programm, das die Anschläge verhindern hätte können – wie Dokumente zeigen, die jetzt nach und nach veröffentlicht werden – eingestellt wurde.
Diese kleine Entscheidung hatte kolossale Auswirkungen, denn 9/11 hat die gesamte Welt verändert.
Die vielen Toten durch die Anschläge und ihre Folgen: Das war nicht im Interesse der damaligen NSA-Führung.
Was ihr aber sofort in den Sinn kam, war, aus den Anschlägen jede Menge Gewinn zu machen, das eigene Versagen zu vertuschen und ein Riesenbusiness aufzuziehen.
9/11 ist ein Fall von Korruption in höchstem Ausmaß, der sich bis heute für den militärisch-industriellen Überwachungskomplex tausendfach gelohnt hat.
Vielleicht sollte man sich den Fall des Anis Amri und den Berliner Anschlag auch mal unter dieser Perspektive genauer ansehen.

Zur Person

Der TV-Journalist und Dokumentarfilmer Friedrich Moser hat über 20 Dokumentationen produziert. Neben TV-Produktionen hat er 2012 die Dokumentation »The Brussels Business« über EU-Lobbyismus veröffentlicht. 2016 erschien »A Good American«. Der Film porträtiert die Arbeit des technischen Direktors der NSA, William Binney, und das von ihm entwickelte »ThinThread«-Programm. In der Doku »Terrorjagd im Netz«, die am heutigen Dienstag auf Arte läuft (20.15 Uhr), kritisiert Moser die aktuelle Terrorfahndung.
Mit dem Filmemacher sprach Moritz Wichmann.

* Siehe hier: https://josopon.wordpress.com/2016/05/04/snowden-enthullungen-fuhrten-zu-selbstzensur/

Jochen

Überwachung führt zu Selbstzensur – Umfrage des US-PEN-Zentrums unter Autoren

Jochens SOZIALPOLITISCHE NACHRICHTEN

Die StaSi war amateurhaft dagegen“ – Einschätzung der Tochter eines Nazi-Holocaust-Opfers
Eine internationale Umfrage hat unangenehme Wahrheiten über die „Freiheit“ herausgefunden:
http://www.boersenblatt.net/855360/

Aktuell, nach dem islamfundamentalistischen Attentat auf „Charlie Hebdo“ mit 12 Toten, wäre es auch an der Zeit, die Selbstzensur aufgrund von Islamophobie zu thematisieren.

Ich selber traue mich hier nicht, eine Mohammed-Karikatur zu bringen. Auch auf den Nachrichtenseiten vin SPIEGEL Online sind diese Karikaturen, wegen denen schon 14 Leute ihr Leben lassen mussten, nicht mehr zu sehen.

ABer offensichtlich bringt die ganze staatliche Überwachung, gerechtfertigt u.a. mit dem Islamfundamentalismus, nichts zum Schutz vor diesen Verbrechern.

Soll ich mich nun nach mehr oder weniger dieses Schutzes sehnen ?

Auszüge:

Massenüberwachung wirkt sich deutlich darauf aus, wie Schriftsteller schreiben, recherchieren und denken.
Nach den ersten Ergebnissen einer Umfrage zum Einfluss von Massenüberwachung auf Autoren, die das amerikanische PEN-Zentrum am 5.1.2015 veröffentlicht hat, vermeiden es länderabhängig zwischen 34 und 61 Prozent der befragten Schriftsteller, über bestimmte Themen zu schreiben oder zu sprechen.

An dem Report „Global Chilling: The Impact of Mass Surveillance on International Writers“ (Link unter dieser Meldung) haben sich 722 Schriftsteller aus 50 Ländern beteiligt, die von der NGO Freedom House nach liberalen und demokratischen Gesichtspunkten in freie, teilweise freie und unfreie Länder eingestuft wurden. Generell beunruhigt die staatliche Überwachung der breiten Masse Autoren in allen Ländern;
in den als frei eingestuften Ländern zeigten sich 75% der befragten Autoren sehr oder zumindest einigermaßen besorgt, in den teilweise freien Ländern waren es 84% und in nicht-freien Ländern 80%.
Zudem konstatiert das amerikanische PEN-Zentrum, dass aus Angst vor negativen Konsequenzen (Verletzung der Privatsphäre durch Geheimdienste oder Einschränkung der Meinungsfreiheit) Autoren weltweit Selbstzensur üben.

34% der Schriftsteller in den als frei eingestuften Ländern gaben in dem Report an, dass sie vermeiden, über bestimmte Themen zu schreiben oder zu sprechen, in den USA waren es 27%. In den teilweisen freien Ländern waren es 44%, in den unfreien Ländern 61%.

In freien Ländern gaben 42% der Autoren an, ihre Social Media-Aktivitäten eingeschränkt zu haben oder es ernstlich in Erwägung zu ziehen, in den teilweise freien Ländern waren 46% und in den unfreien Ländern 53%.
Zudem vermieden in freien Ländern 31% im Rahmen ihrer persönlichen Kommunikation per Telefon, E-Mail usw. bestimmte Themen, 38% in teilweise freien und 68% in unfreien Länder.
26% der Schriftsteller in freien wie unfreien Ländern vermieden sogar, bestimmte Websites aufzurufen oder nach bestimmten Begriffen zu suchen.
In den als teilweise frei eingestuften Ländern waren es 18%.

Ein Zitat daraus:

“As the daughter of a Holocaust survivor, I have always felt blessed to live in the UK, a relatively safe and free country where mostly people can live without fear.

However the revelations of Edward Snowden, [NSA] whistleblower, have made me think about what ‘freedom’ means in the 21st century and what we are and have been prepared to  ‘pay’ for it.

I can no longer take for granted that my children will enjoy the same benefis as I have.

I believe that most UK citizens are now regularly under levels of surveillance that make the Stasi seem amateurish. I may be paranoid, but I believe not.”

Jochen

Deutschlands digitales Staatsversagen – Edward Snowdens Enthüllung

Jochens SOZIALPOLITISCHE NACHRICHTEN

Selten klarer von Sascha Lobo auf SPIEGEL Online kommentiert:
http://www.spiegel.de/netzwelt/web/snowden-enthuellungen-staatsversagen-beim-schutz-der-buerger-a-973272.html

Auszüge:

Die Bundesregierung verweigert den Bürgern Schutz vor Ausspähung im Internet. Mehr noch: Sie mischt eifrig mit im Geschäft der Massenüberwachung.
Damit ist Deutschland ein „digitally failed state“.

Seit dem 5. Juni 2013 ist die Welt eine andere. Die Illusion, im Internet würden ansatzweise Grundrechte gelten, hat sich verflüchtigt.
Ein Jahr nach Edward Snowdens Enthüllung der digitalen Spähmonster lassen sich einige zentrale Erkenntnisse festhalten:

  • Aufgedeckt wurde nicht „nur“ eine Internetüberwachung, sondern die Überwachung der gesamten Welt mithilfe des Internets, und dieser Umstand hat zur Entwicklung eines halbstaatlichen Überwachungsmarkts geführt
  • Ein international quasimafiös operierendes, eng verflochtenes Netzwerk von Geheimdiensten, Behörden und Unternehmen führt die Totalüberwachung sämtlicher Bürger ohne jeden Verdacht grundrechtswidrig durch und kann nicht einmal Beweise für die angebliche Wirksamkeit präsentieren
  • Diese fortgesetze, radikale und antidemokratische Grundrechtszerstörung ist nicht zufällig entstanden, sondern folgt einem Plan – Totalüberwachung ist politisch gewollt, sie wird von Teilen der Politik unter Missachtung von Verfassungen und Menschenrechten als legitimes Mittel betrachtet

Und obwohl diese Einschätzungen sich inzwischen auf schmerzhafte Weise als wahr herausgestellt haben, gab es keine nennenswerten personellen Konsequenzen.
Der Einzige, der wegen der Aufdeckung der größten illegalen Spähmaschinerie aller Zeiten seinen Job verloren hat, ist der Whistleblower Edward Snowden selbst.
Diese Umstände erfordern die Benennung einer neuen globalpolitischen Kategorie:

dendigitally failed state“.

Die Diagnose „failed state“, gescheiterter Staat, wurde in den neunziger Jahren bekannt. So werden Staaten bezeichnet, deren Gewaltmonopol bröckelt und die nicht mehr für die Sicherheit der Bürger garantieren können. Staaten also, die Schwierigkeiten haben, geltendes Recht durchzusetzen.
Die Aufdeckung der Radikalüberwachung und die folgende Nichtaufarbeitung zeigen: Deutschland ist ein „digitally failed state“. Nach einem Jahr Snowden ist ein Scherbenhaufen eines digitalen Staatsversagens erkennbar.

Digitales Staatsversagen, ist das nicht übertrieben? Keineswegs. Der deutsche Staat ist offensichtlich nicht in der Lage, einem millionenfachen Grundrechtsbruch im Internet entgegenzutreten. Eigentlich schafft er es nicht einmal, sich eine Frageliste von der NSA beantworten zu lassen.
Aber der entscheidende Punkt ist, dass in diesem Moment die Grundrechte bekannterweise seit einem Jahr verletzt werden und keine Abhilfe geschaffen wird.
Wer je im Verlauf der letzten zwölf Monate verstört oder gar erzürnt war über die flächendeckende Totalüberwachung – hat nicht den geringsten Grund, inzwischen entspannt zu sein.
Es hat sich diesbezüglich exakt nichts geändert. Nichts.

Bürger werden am 5. Juni 2014 ebenso substanziell und flächendeckend ausgespäht wie am 5. Juni 2013.

Ein gespenstisches Szenario der umfassenden digitalen Hilflosigkeit, und das ist noch die freundlichere Interpretation. Die leider realistischere ist, dass Abhilfe gar nicht erwünscht ist, dass der digital gescheiterte Staat politisch in Kauf genommen wird.
Die Verfassungsgüter der eigenen Bürger werden als Tauschware auf dem internationalen Überwachungsmarkt angesehen.

Es handelt sich damit um eine kalkulierte Nichtdurchsetzung von Grundrechten in der digitalen Sphäre.
Das Internet ist damit politisch gewollt zum vormals berüchtigten rechtsfreien Raum verkommen.

Aberwitzigerweise liegt dem digitalen Staatsversagen – anders als beim herkömmlichen „failed state“ – nicht die Auflösung staatlicher Macht zugrunde, sondern die Auflösung staatlich garantierter Rechtsgüter in der digitalen Sphäre, von Privatsphäre bis Menschenwürde, in einer erschütternden Volte verursacht von einer Heerschar durchgedrehter Staatsapparate.
Der Effekt ist vergleichbar, denn was „failed states“ und „digitally failed states“ eint, ist die Abwesenheit von Sicherheit und Rechtssicherheit.

Das ist die fürchterliche Konsequenz: Ein Sicherheitsapparat, der das digitale Leben weniger sicher macht. Die Zerstörung wesentlicher Rechte und Freiheiten zur vorgeblichen Wahrung der Freiheit und des Rechts, dieses Muster ist bekannt: Das ist Schutzgeld-Logik.
Dahinter steckt eine steuerfinanzierte Maschinerie, die Netze, Geräte und Plattformen hackt, gravierende Bugs ausnutzt, statt sie zu melden, und heimlich überall Sollbruchstellen einbauen lässt. Als würde die Polizei einem zum Schutz vor Diebstahl alle Wertgegenstände aus der Wohnung tragen.

Ein Jahr nach Snowden heißt die Konsequenz:
Wir brauchen mehr Sicherheit in der digitalen Welt, und zwar – wie absurd! – zu allererst vor destruktive Sicherheitsbehörden selbst.
Vor einem internationalen Spionageapparat, der irgendwann im letzten Jahrhundert beschlossen hat, nicht mehr Verdächtige zu überwachen, sondern alle. Immer. Überall.
Das Internet ist zum grundrechtsfreier Raum geworden, weil der Staat die verfassungsverbindlichen Rechte nicht vor den Attacken staatlicher Behörden schützen kann.
Auch digitales Staatsversagen ist Staatsversagen.

Ein Jahr nach Snowden ist eine neue weltpolitische Kategorie entstanden: der „digitally failed state“, das digitale Staatsversagen.

Jochen