Gesichtserkennung: Biometrisches Update, oder: das Gesicht als Datenmaske

Am vergangenen Wochenende appellierte Isabelle Moeller CEO des kanadischen weltweit führenden Instituts zur Verbreitung biometrischer News, Analysen und Forschung (Biometric Update) deutlich an eine ausgewogene Diskussion bei der Erfassung biometrischer Daten und deren Nutzung. Es geht um FaceApp, um das z. T. auf Gesichtserkennung basierende chinesische Scoring System, um Alipay oder das entsprechende Entsperren des Smartphones.

Vielfach wird jedoch die Diskussion polarisiert geführt. Entweder überbieten sich Tech-Firmen gegenseitig mit neuesten, lobgepriesenen technologischen Entwicklungen oder aber kritische Datenschützer beschwören den gläsernen Menschen oder Orwellsche Verhältnisse, wie z.B. beim chinesischen Scoringsystem. Wen wundert es, dass es dabei dann zu Übertreibungen, unhaltbaren Behauptungen kommt, zu Aussparungen oder Verschwörungstheorien.

Ausgewogen oder vielleicht ja auch ernüchternd meint zweierlei: es geht um die fachbezogene, differenzierte Fundierung der jeweiligen Standpunkte, basierend auf dem tatsächlichen Stand der technologischen Entwicklung. Es geht aber auch erweiternd um die Ergänzung durch bislang nicht (genügend) eingebrachte (neue) Perspektiven. Hier einige im Schnelldurchlauf:

  • Man fühlt sich durch die im öffentlichen Raum installierten Kameras beobachtet, bewertet und digital erfasst. Man kann hierbei zu Recht Angst um seine Freiheit im öffentlichen Raum haben. Zwar können heutige Systeme Individuen in großen Massen qua Gesichtserkennung identifizieren. Es wird bei der Berichterstattung über die Ergebnisse oftmals aber die z. T. hohe Fehlerquote verschwiegen. (Beim Notting-Hill Karneval bspsw. gab es ca. 30 Fehler bezogen auf einen Treffer). Der Medieninformatiker Florian Gallwitz bestätigt, dass solche Systeme nicht sehr genau seien. Stattdessen verdächtigen „solche Systeme viele Personen fälschlicherweise…..Und je kleiner der Anteil der gesuchten Personen ist, ….desto größer ist der Anteil an false-positives.“ (falsch Verdächtigte) Eine weitere Untersuchung des Bostoner MIT und der University of Toronto konnte aufzeigen, dass dunkelhäutige Frauen oft für Männer gehalten werden.
  • Gesichtserkennungsoftware meint Gesichter sozusagen auslesen zu können. Nach dem Motto, was fühlt dieser Mensch jetzt. Die zugrunde gelegte Software basiert vielfach (oder sogar weitgehend) auf dem Modell von Paul Ekman. Ekman hat in den 70er Jahren des letzten Jhdt. 6 Emotionen identifiziert, deren Ausdruck global gleich sei. Hier gibt es jedoch mindestens vier einschränkende Komponenten zu berücksichtigen:
  • Neuere Forschungen relativieren Ekmans Auffassung von solchen global gleichen emotionalen Ausdrucksmustern. Eine hierauf aufbauende Software muss erst noch entwickelt werden.
  • Schon seit mehreren Jahrzehnten trainiert Ekman Experten in Bezug auf sein Gesichtserkennungsmodell. Er hat dabei vielfach festgestellt, dass (insbesondere) Diejenigen gut abschneiden, die schon zuvor, also ohne das Training, eine hohe Sensibilität entwickelt hatten, Emotionen beim Gegenüber wahrzunehmen.
  • Wer erinnert sich nicht an die beliebte TV-Serie „Lie to me“. Ekman fungierte dort als Fachberater. Ich erinnere mich noch gerne an Dr. Cal Lightman, der als Psychologe und Experte auf dem Gebiet der Körpersprache und Mikromimik zur Aufklärung von Verbrechen beitrug. Aber wie machte er das, sollte man sich fragen? Nicht etwa, indem er sich Gesichter oder mimischen Ausdruck fotografisch anschaute, sondern indem er die Menschen unter Stress setzte. Dies erst ermöglichte ihm, zutreffende Aussagen machen zu können. Wird jemand von einer Kamera erfasst (ohne vorher unter Stress gesetzt zu sein) sind die bildlich festgehaltenen Ausdrücke nur sehr bedingt aussagekräftig.
  • Unabhängig hiervon gibt es viele weitere Verzerrungen bei der automatischen Gesichtserkennung. So wurden z- B. in den USA 400 NBA-Spieler untersucht. Ergebnis: schwarzen Spielern wurden gegenüber weißen weitaus mehr negative Emotionen im Gesichtsausdruck zugeschrieben. Dies geschah besonders in mehrdeutigen Situationen. Google schreibt nicht selten, Schwarzen Merkmale von Gorillas zu.
  • Die Deutungshoheit über Identität und Wirkung von Menschen wird zunehmend an Algorithmen ausgelagert. China ist hierfür ein anschauliches Beispiel. Wird Gesellschaft doch in zwei Gruppen aufgeteilt: nämlich diejenigen, die unauffällig sind und sich „gut benehmen“ und die „Auffälligen“. Das in China sich in der Entwicklung befindende Scoringsystem wird von vielen im Westen als die Umsetzung Orwellscher Methoden angeprangert. (Ich sehe ebenso eine entsprechende Gefahr) Der alles überwachende Staat bemächtigt sich der persönlichen Freiheit und Privatheit aller Menschen. Folgt man der Berichterstattung gibt es eine hohe Zustimmung in China. Die Menschen würden regelrecht darauf warten, sich diesem System anzupassen. Schaut man genau auf das, was in China passiert, ergibt sich ein viel differenzierteres Bild.
  • Es gibt eine heftige, öffentliche Kritik z. B. an Gesichtserkennung im öffentlichen Raum (hierüber erfährt man in Deutschland nur sehr wenig). Der Hashtag #ThankGod!GraduatedAlready, der sich auf Gesichtserkennung in Schulen bezog, wurde innerhalb kürzester Zeit mehr als 23 Millionen Mal angeklickt. Dabei mit dem Orwellschen „1984“ verglichen oder aber auf der Platform Zhihu (vgl. mit unserem Quora) heftigst kritisiert.
  • Bei der im Westen vielfach vermuteten hohen Qualität der chinesischen Gesichtserkennungssoftware wird auch nur mit Wasser gekocht. So identifizierten z. B. mit neuester Software ausgestattete Kameras im Verkaufspark Ovopark in Suzhou 15-Jährige Mädchen als 40 Jährige Frauen. Die hoch gelobte Hikvison Software hatte zudem große Schwierigkeiten Mädchen wiederzuerkennen, wenn diese Ihre Frisur änderten oder große Sonnenbrillen trugen.
  • In China ist es oftmals üblich technische Neuerungen einzuführen oder Gesetze zu erlassen, um dann zu sehen, wie Bevölkerung und Gesellschaft damit umgehen. Die Reaktion steht noch aus, wird aber bald kommen.
  • Hu Lin Assistenzprofessor an der Shanghai Universität für Wirtschaft und Finanzen bestätigt die Vermutung, dass es in China noch keine regulierenden Gesetze bezüglich des Einsatzes von Gesichtserkennung gibt. Wie der Einsatz von Gesichtserkennung z. B. in Schulen erlaubt oder eingeschränkt wird, wird die kommende Zeit ergeben. Auf jeden Fall gibt es inzwischen schon eine deutliche Diskussion darüber, dass und wie die umgebenden Bedingungen in einer konkreten Situation (z.B. Schulklasse oder Beziehungsstruktur unter Schülern) oder kulturelle Besonderheiten auf Analyse und Interpretation von Gesichtern haben.
  • Schließlich konstatiert (somit kritisiert er auch) der Rechtswissenschaftler Hu Lin einen Mangel an Zustimmung zur Gesichtserkennung in der Öffentlichkeit. Diese sollte konkret und allgemein eingeholt werden. In Schulen wird oftmals bei Installierung von Gesichtserkennungssystemen nicht um Erlebnis gefragt, noch überhaupt hierüber informiert. Eltern stimmen, wenn sie davon grundsätzlich erfahren, dem System zu. Setzen sie sich damit eingehender auseinander kommen Kommentare wie: „das ist ja wie im Gefängnis“.
  • Ich selbst habe eine Gastprofessur an der Shanghai University of Political Science and Law. Genau an der Abteilung, wo man praktisch und theoretisch zum Thema Gesichtserkennung forscht. Mir begegnet dort regelmäßig Enthusiasmus am Forschungsgegenstand sowie eine differenzierte und auch kritische Sicht auf die Dinge.
  • Inzwischen wird weltweit der ganze menschliche Körper biometrisch beforscht und nach konkreten Anwendungsfeldern gesucht. So gibt es die Bewegungs- oder Ganganalyse, die ebenso treffsicher wie ein Fingerabdruck sei. Stimmdecoder werden von Unternehmen z.B. in der Personalauswahl genutzt. Da der Herzschlag nie manipuliert oder verschleiert werden kann, gibt es inzwischen Systeme, die den Herzschlag des Menschen bis auf eine Distanz von 200 m identifizieren. Smart Bracelets (Armbänder) oder in Kleidung eingebaute Chips dienen der Lokalisierung von Menschen. Und noch vieles mehr. Eine entsprechende sorgsame Anwendung durch Ärzte oder in Krankenhäusern könnte zu tatsächlich hilfreicher Nutzung führen.
  • Entwicklung und Anwendung neuer Technologien führen notwendiger- und sinnvollerweise zu ethischen Fragestellungen. Da nicht die Technologie das Problem ist, sondern wir Menschen, sollte die abstrakte, allgemeine Ethikdebatte unbedingt auch in Bezug auf konkrete Anwendungsbereiche geführt werden.

Wer sich eingehender mit der Situation von Gesichtserkennung in Deutschland befassen will, dem sei der gerade angelaufene Film „Fact it“ empfohlen.

Trotz breiter Zustimmung in der Öffentlichkeit hinsichtlich der Anwendung biometrischer Systeme bedarf es auch weiterhin, vielleicht ja auch verstärkt, einer ausgewogenen Diskussion Die Systeme sind bei weitem nicht ausgereift genug. Die Ethikdebatte steckt noch in ihren eher polarisierenden Kinderschuhen. Und es ist noch ein weiter Weg hin zur digitalen Identität.

 

 

 

Schreibe einen Kommentar