Zum Inhalt springen

Firma betreibt Gesichter-Datenbank Erst heimlich, dann unheimlich

Die "New York Times" hat ein Start-up ans Licht gezerrt, das fragwürdige Gesichtserkennungstechnik an Behörden verkauft. Die Firma hat im Netz Milliarden Fotos gesammelt - und das ist nur ein Teil des Problems.
Gesichtserkennung - das Ende der Privatsphäre?

Gesichtserkennung - das Ende der Privatsphäre?

Foto: Uli Deck/ dpa

Das Start-up Clearview AI war der Öffentlichkeit bisher so gut wie unbekannt, und das war durchaus so gewollt. Die kleine Firma hat eine offenbar gut funktionierende, aber auf zahlreichen Ebenen problematische Gesichtserkennungstechnologie an Hunderte Polizeibehörden in den USA verkauft. Nun hat die "New York Times" dafür gesorgt, dass Clearview zum Inbegriff aller Befürchtungen wird, die mit Gesichtserkennung einhergehen. Die Zeitung schreibt  vom potenziellen "Ende der Privatsphäre, wie wir sie kennen".

Revolutionär ist an der Technik eigentlich nichts, sie besteht aus lauter Versatzstücken, die es anderswo auch schon gibt. Aber im Zusammenspiel funktioniert sie so gut, dass Ermittler die Software gern und nach eigenem Bekunden auch erfolgreich einsetzen.

Sie müssen dazu nur ein einziges Bild eines Gesuchten bei Clearview hochladen – egal, ob das Bild frontal aufgenommen wurde und ob die Person zum Beispiel eine Sonnenbrille oder einen Hut trägt. Das Bild wird in ein mathematisches Modell des Gesichts umgerechnet, so wie es im Prinzip auch Apples Gesichtserkennung Face ID macht. Dieses Modell wird gegen eine Datenbank abgeglichen - und die hat es in sich: Angeblich besitzt die Firma Clearview eine Sammlung aus drei Milliarden Fotos, die sie ohne Erlaubnis von Facebook, Instagram, YouTube "und Millionen anderen Websites" per Scraping heruntergeladen haben soll.

Diese Fotos werden ebenfalls in mathematische Modelle umgewandelt und bei hinreichender Ähnlichkeit zum hochgeladenen Bild als mögliche Treffer angezeigt, mitsamt den Links zu den jeweiligen Quellen. Das ermöglicht eine schnelle Identifizierung.

Clearview AI wurde angeblich nie überprüft

Der eindeutige Verstoß gegen die Nutzungsbestimmungen unter anderem von Facebook, das auch von öffentlich zugänglichen Seiten kein Scraping erlaubt, ist dabei nur eine von zahlreichen problematischen Eigenheiten des Falls. Der Entwickler der Software, ein Australier namens Hoan Ton-That, sagte der Zeitung, das machten viele andere Firmen genauso, und Facebook wisse das auch.

Seine Software wurde laut dem Bericht aber auch nie von unabhängiger Stelle auf Fehlerquoten, Datenschutz oder Gesetzmäßigkeit geprüft, auch wenn die Clearview-Website das Gegenteil behauptet, ohne das zu belegen. Die Kunden haben der Zeitung zufolge auch nur ein grobes Bild davon, wie das Produkt funktioniert. Clearview als Privatunternehmen betreibt die Server und bekommt dadurch Zugriff auf das Bildmaterial, das die Polizei hochlädt. Dadurch wächst die Datenbank weiter. Wie gut die Firma die Daten schützen kann, hat offenbar niemand überprüft.

Sie nutzt diese Bilder aber auch für eigene Zwecke: Die Reporterin der "New York Times" schreibt, sie habe mehrere Polizisten gebeten, zu Testzwecken ein Bild von ihr bei Clearview hochzuladen – daraufhin habe sich das Start-up bei den Beamten gemeldet und gefragt, ob sie mit der Presse reden.

In einem Test bekam sie Fotos von sich angezeigt, von deren Existenz sie zuvor nichts wusste. Eine Möglichkeit für Betroffene, die eigenen Bilder aus der Clearview-Datenbank löschen zu lassen, gibt es bisher nicht. DER SPIEGEL hat die Firma um eine Stellungnahme gebeten.

Die Technik ist billig und besser als bisherige Polizei-Software

Zu den angeblich 600 Kunden und Interessenten gehören Polizeibehörden von Gemeinden und US-Bundesstaaten, aber auch das FBI und das Heimatschutzministerium DHS. Polizisten, die mit der Zeitung sprachen, berichteten von schnellen Fahndungserfolgen in Fällen von Körperverletzung und Ladendiebstahl. Clearview bietet dem Bericht zufolge kostenlose Tests und Jahreslizenzen für die Nutzung mitunter schon für 2000 Dollar. Das System ist also günstig und funktioniert offenbar besser als manches, was die Polizei bisher einsetzt. Wohl auch deshalb stellen viele Kunden keine weiteren Fragen.

Ein Memo vom vergangenen August sollte potenziellen Kunden zudem rechtliche Bedenken nehmen. Polizeibehörden würden "nicht gegen die Verfassung oder relevante bestehende Biometrie- und Privatsphäregesetze der Bundesstaaten verstoßen, wenn sie Clearview für seinen vorgesehenen Zweck nutzen".

Verteidigern von Angeklagten müsse man im Übrigen auch nicht sagen, dass ihre Mandanten mit Clearview identifiziert wurden, solange es nicht die einzige Basis für den Haftbefehl war. "Parallel construction" heißt so etwas im Englischen: Wenn die durch Clearview erlangten Beweise vor Gericht angreifbar wären, könnten Polizisten versuchen, mit diesen Beweisen zunächst auf einem zweiten Weg belastendes Material gegen einen Angeklagten zu sammeln und den Einsatz von Clearview anschließend verschweigen.

Was als Nächstes passieren dürfte, ist absehbar: Clearview selbst oder jemand anderes könnte diese Technik auch Privatanwendern anbieten. Das glauben selbst die Investoren. Fremde Menschen auf der Straße oder bei Demonstrationen werden für jedermann sofort identifizierbar, sofern irgendwo im Netz ein öffentlich zugängliches Foto von ihnen mitsamt weiterführenden Informationen existiert. Einen Vorgeschmack darauf hat bereits 2016 die russische App FindFace gegeben, die Fotos mit dem Bestand des sozialen Netzwerks VK abgeglichen und erstaunlich viele Treffer ausgegeben hat.

EU-Kommission diskutiert Verbot von Gesichtserkennung

Noch früher aber dürfte Gesichtserkennung den öffentlichen Raum besetzen, so wie in Teilen Chinas längst geschehen, in Moskau für dieses Jahr geplant und von Bundesinnenminister Horst Seehofer (CSU) an 135 deutschen Bahnhöfen und 14 Verkehrsflughäfen gewünscht ist.

Die Technik selbst wird natürlich weiterentwickelt. So investiert zum Beispiel das US-Militär 4,5 Millionen Dollar in eine Infrarot-basierte Gesichtserkennung, die auch auf eine Entfernung von 500 Metern  und bei schlechten Lichtverhältnissen funktioniert. Militärtechnik landet in der Regel früher oder später auch im zivilen Bereich.

Das von der "New York Times" befürchtete Ende der Privatsphäre ließe sich mehreren im Bericht zitierten Experten zufolge nur durch strenge gesetzliche Regeln verhindern - oder durch ein generelles Verbot von automatischer Gesichtserkennung. San Francisco hat sich übrigens genau dazu entschlossen.

Die EU-Kommission hingegen tendiert zum Gegenteil. In einem Ende der vergangenen Woche von "Politico " veröffentlichten Entwurf  heißt es, die künftige Regulierung von Gesichtserkennung könne mit einem zeitlich begrenzten Verbot einhergehen, um mehr Zeit für die Risikobewertung und -minderung zu gewinnen: "Das würde die Rechte von Individuen schützen, speziell gegen den Missbrauch solcher Technik." Aber weil eine so "weitreichende Maßnahme" die Entwicklung und den Einsatz der Technik verhindern könnte, spricht sich die Kommission dem Papier zufolge gegen ein Verbot aus. Stattdessen soll einfach die EU-Datenschutz-Grundverordnung vollumfänglich umgesetzt werden.