Studie: Live-Gesichtserkennung durch Polizei nur rechtswidrig möglich
Studie: Live-Gesichtserkennung durch Polizei nur rechtswidrig möglich
Studie: Live-Gesichtserkennung durch Polizei nur rechtswidrig möglich

Studie: Live-Gesichtserkennung durch Polizei nur rechtswidrig möglich
Studie: Live-Gesichtserkennung durch Polizei nur rechtswidrig möglich

Liegstuhl aufklapp
im Auftrag von Algorithmwatch
Liegstuhl einklapp
Warum?
Die sind mir schon in der Vergangenheit als extrem unseriös aufgefallen. Da machen keine Leute mit Sachkenntnissen mit, sondern eher so Medien/PR-Typen.
Ich mach doch mal einen Factcheck.
"Gesichtserkennung" ist rechtlich verschiedentlich eingeschränkt, also nicht verboten. Im Umkehrschluss: Sie ist erlaubt.
Diese "Studie" bespricht, wie Gesichtserkennung im Internet funktioniert (zB bei PimEyes). Das scheint technisch solide zu sein. Aber die Behauptung ergibt sich daraus eben nicht.
Ganz kurz: Eine spezielle KI (kein Chatbot) analysiert Bilder/Videos und speichert das Aussehen der abgebildeten Personen als Zahlenkombi. Um effizient Personen auf verschiedenen Bildern abzugleichen, auf Bildern zu suchen, speichert man diese Zahlenkombis um arbeitet mit denen.
Im KI Gesetz heißt es (Hervorhebung von mir):
e) das Inverkehrbringen, die Inbetriebnahme für diesen spezifischen Zweck oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern;
Wenn ich also eine Datenbank mit gesuchten Personen (vermisst, verdächtig, ...) erstelle, dann ist das ganz sicher unproblematisch. Wenn man diese Datenbank nun "Live" mit Überwachungsaufnahmen abgleicht, dann ist das kein Problem, solange nicht andere Vorschriften greifen. Problematisch wäre es, wenn die Daten über das Aussehen, die Zahlenkombis, von den zufällig erfassten Personen gespeichert werden. Dann hätte man eine Datenbank, aber wenn die Daten verworfen werden, dann ich sehe ich kein Problem in dieser Hinsicht.
Auch: Falls ausgesuchtes Material für spezielle Ermittlungen indexiert wird, dann sollte das eigentlich gehen, weil nicht "ungezielt".
Was genau "ungezielt" heißt, werden sicher die Gerichte klären.
Ein Warnhinweis:
Das Deepfake-Thema ist bekannt, oder? Viele befürworten Verbote. Schon mal überlegt, wie man die durchsetzt? Ohne Gesichtserkennung wird's schwierig.
Auch um "Rachepornos" auszumerzen, müsste man mit Gesichtserkennung, mit biometrischen Datenbanken, im großen Stil arbeiten. Allgemein: Um unautorisierte Fotos und Videos zu unterdrücken.
Vor ein paar Monaten ging eine Präzedenzklage gegen Google groß durch die Medien (unterstützt von Hateaid). In dem Fall geht es speziell um private, geleakte Amateurpornos. Es wird von "Bild-basierter Gewalt" geredet, aber das Ergebnis wäre natürlich auf alle Bilder/Videos mit Personenbezug anwendbar. Mit Gewalt ist die Verletzung des Rechts am eigenen Bild gemeint.
Google entfernt natürlich Suchergebnisse zur eigenen Person, die einem nicht passen ("Recht auf Vergessenwerden"). Man braucht keinen Grund dafür, um etwas entfernen zu lassen. Umgekehrt, Google muss begründen, warum es Suchergebnisse anzeigen oder auch nur speichern darf, per DSGVO.
Bei der Klage geht es darum, dass Google nicht nur gemeldet Links unterdrückt, sondern überhaupt alle "kerngleichen" Inhalte. So ein Wunsch lässt sich kaum erfüllen, ohne über das Aussehen der Person zu gehen. Andere Klagen zu solchen Überwachungspflichten sind da schon viel weiter.
Techfirmen, wie Google oder Meta, wollen solche Überwachungspflichten nicht. Sowas ist teuer und rechtlich riskant.
Wenn ihr also hört, dass "die Zivilgesellschaft" gegen die Techkonzerne klagt, um sie zur Einhaltung der DSGVO zu zwingen, denkt nicht, dass es gegen Überwachung geht. Um Daten zu schützen, muss man Daten überwachen.
/s