Verräterische Züge

Knollen- oder Stupsnase, kantiges oder rundes Kinn: Gesichter sind so unverwechselbar wie ein Fingerabdruck. Computeralgorithmen nutzen das nicht nur, um Personen zu identifizieren – sie können aus unserem Antlitz Erstaunliches ablesen.

Dass einem Wissenschaftler nach der Veröffentlichung einer Studie Gewalt angedroht wird, dürfte eher selten sein. Michal Kosinski, Psychologe an der Universität Stanford, ist aber genau das passiert. Seine Geschichte verrät Einiges über den aktuellen Stand der automatisierten Gesichtserkennung. Sie zeigt aber auch, welche Ängste diese neue Technologie hervorruft.

Kosinski und sein Kollege Yilun Wang hatten herausfinden wollen, ob ein Computer die sexuelle Orientierung eines Menschen erkennen kann – und zwar einzig anhand eines Portraitfotos. Dazu hatten sie eine handelsübliche Gesichtserkennungs-Software mit Hunderttausenden von Aufnahmen gefüttert. Die Bilder stammten aus öffentlich sichtbaren Profilen eines Dating-Portals. Für jedes von ihnen hatten die Forscher die Software zusätzlich darüber informiert, ob die abgelichtete Person homo- oder heterosexuell war.

Nach dieser Trainingsphase präsentierten die Forscher dem Computer mehrfach zwei unbekannte Gesichter – eines von einem schwulen und eines von einem heterosexuellen Mann. In 81 Prozent der Fälle gelang es dem Algorithmus, die sexuelle Orientierung der Abgebildeten zu erraten. Durfte sich die Software fünf Fotos von jeder Testperson anschauen statt eines, stieg die Zahl der korrekten Antworten sogar auf 91 Prozent. Menschliche Juroren, denen dieselben fünf Fotos vorgelegt wurden, lagen dagegen nur in 61 Prozent der Fälle richtig.

Die Medien berichteten über die Studie. Kurz darauf brach ein Shitstorm los, der die Autoren völlig kalt erwischte. „Ich bekam so viele Morddrohungen, dass ein Polizist auf dem Gang vor meinem Zimmer stationiert wurde“, erinnert sich Kosinski. „Dabei war die Publikation eigentlich als Warnung gedacht, als Aufruf zum Handeln.“

Tatsächlich schreiben Kosinski und Wang in ihrer Veröffentlichung ausführlich über die Risiken, die solche Verfahren mit sich bringen. In acht Ländern müssen Homosexuelle nach Angaben der International Lesbian, Gay, Bisexual, Trans and Intersex Association (ILGA) noch heute um ihr Leben fürchten, etwa in Saudi-Arabien oder im Sudan. In anderen Staaten werden sie massiv diskriminiert. Die immer bessere Gesichtserkennung bedeutet daher für viele Homosexuelle eine handfeste Bedrohung.

Das ist die Kehrseite einer Technologie, die momentan rasante Fortschritte macht und die in vielen Bereichen des Alltags bereits Fuß gefasst hat: Smartphones und Computer erkennen ihren rechtmäßigen Nutzer am Antlitz. An Flughäfen übernehmen Gesichtsscanner die Passkontrolle, immer aufmerksam und ermüdungsfrei. Wer seine Fotos in den Cloudspeicher von Google hochlädt, kann sie sich dort automatisch beschriften lassen. Das Bild von der Oma mit dem Enkel ist dann in Sekundenbruchteilen gefunden.

Manche Algorithmen diagnostizieren anhand von Gesichtszügen treffsicher bestimmte Krankheiten. Andere erkennen, wenn Kleinkinder unter Schmerzen leiden, und sollen bald sogar abschätzen können, wie stark die Qualen der kleinen Patienten sind. Gut möglich, dass die neue Technologie in nicht allzu ferner Zukunft auch in Kfz-Cockpits Einzug hält: Forscher tüfteln bereits an Verfahren, die aus der Mimik des Fahrers schließen können, wie müde er ist.

Gesichtserkennung am Bankschalter

Selbst die Bezahlung per Gesichtserkennung ist dem Science-Fiction-Stadium längst entwachsen. Das finnische Unternehmen Uniqul hat dazu schon vor gut zwei Jahren ein Pilot-Projekt mit einer Luxemburger Bank durchgeführt. Zum Namen des Geldinstituts hält man sich bedeckt, nur soviel: Die Technologie sei sehr zuverlässig gewesen. „Das System wurde während des Tests täglich von rund 150 Personen genutzt, in der Hauptsache Bankangestellten“, sagt Uniqul-Geschäftsführer Ruslan Pisarenko. „Es konnte alle von ihnen identifizieren.“ Um zu verhindern, dass die Software sich von Fotos oder 3D-Prints täuschen ließ, hatten die finnischen Entwickler ihr Verfahren zudem mit einer Art „Blinzel-Detektor“ kombiniert. „Dadurch haben wir verifiziert, dass es sich tatsächlich um eine lebendige Person handelte.“

Auch bei den Sicherheits-Behörden wecken die neuen Möglichkeiten Begehrlichkeiten. So hat das deutsche Innenministerium 2017 am Bahnhof „Südkreuz“ in Berlin erstmals den Einsatz einer „intelligenten“ Videoüberwachung getestet. Inzwischen liegt der Abschlussbericht vor. Demnach erkannte der Computer je nach Kamerastandort und Tageszeit bis zu 87% der gesuchten Personen. Allerdings schlug er mitunter auch bei unbescholtenen Passanten Alarm.

Meilenweit entfernt ist das in Berlin eingesetzte System aber von dem, was die Software-Firma Faception zu können behauptet. Die verspricht nämlich, Übeltäter zu identifizieren, die noch niemals behördlich auffällig wurden. Dazu hat sie eine selbst lernende Software entwickelt, die angeblich aus jedem Gesicht die unterschiedlichsten Dinge ablesen kann: wie es um die Intelligenz der abgebildeten Person bestellt ist. Ob sie professionell Poker spielt. Oder eben, ob sie kriminell ist oder möglicherweise einen Terroranschlag plant.

Auf dieser Basis ließen sich potenzielle Verbrecher verhaften, bevor diese Schaden anrichten könnten, verspricht Faception auf seiner Webseite. Die Trefferquote ist dabei angeblich hoch: „Wir implementieren ein Kriterium, sobald wir eine 75- bis 80-prozentige Genauigkeit erreicht haben“, erklärt der Geschäftsführer und Mitbegründer der Firma Shai Gilboa. Überprüfbare Quellen nennt er für diese Zahlen allerdings nicht. Die Ergebnisse chinesischer Wissenschaftler stützen seine Angaben jedoch: Diese hatten 2016 eine Gesichtserkennungs-Software mit Ausweis-Bildern von Verbrechern und unbescholtenen Bürgern gefüttert. Nach einer Trainingsphase konnte der Algorithmus mit fast 90-prozentiger Genauigkeit neue Bilder korrekt einer der beiden Gruppen zuordnen.

Dennoch haben Experten an der Nützlichkeit derartiger Verfahren ihre Zweifel. „Solche Algorithmen erlauben letztlich nur statistische Aussagen“, betont Rasmus Rothe, der mit seinem Berliner Unternehmen Merantix den Einsatz künstlicher Intelligenz in der Industrie voran treiben möchte. Was sie sagen, ist: Wer so aussieht wie du, ist statistisch gesehen häufiger kriminell. Wenn man aber von diesem Zusammenhang auf einzelne Menschen schließt, kommt es zwangsläufig zu Fehleinschätzungen. Eine Trefferquote von 90 Prozent heißt eben auch, dass das Verfahren in einem von zehn Fällen falsch liegt. Problematisch wird das vor allem, wenn das Merkmal, nach dem man sucht, sehr selten ist. Die Zahl potenzieller Attentäter in Deutschland etwa ist so überschaubar, dass auf jeden Treffer Tausende zu unrecht Verdächtigte kommen dürften.

Bessere Menschenkenntnis als der eigene Partner

Dass unser Gesicht Einiges über uns verrät, bezweifelt aber auch Rasmus Rothe nicht. Er war 2016 an einer Studie der ETH Zürich beteiligt, die das sehr eindrucksvoll demonstriert. Die ETH-Forscher nutzten die „Likes“ von Facebook-Nutzern, um per Computer deren Persönlichkeit vorherzusagen. Diese Vorhersage wurde deutlich genauer, wenn sie die Software nicht nur mit den digitalen Sympathie-Bekundungen des jeweiligen Users fütterten, sondern auch mit seinem Profilbild.

Insgesamt war die Software übrigens erstaunlich treffsicher: Standen ihr 10 Likes sowie das Profilbild zur Verfügung, konnte sie den Charakter des entsprechenden Nutzers ähnlich gut einschätzen, wie es normalerweise ein guter Freund schafft. Bei 20 Likes + Foto übertraf sie sogar einen typischen Ehepartner.

Auch bei der Erkennung von Emotionen sind Computerprogramme inzwischen ziemlich gut. Wie wenig aufwändig es ist, aus einem Handy einen Gefühls-Detektor zu machen, zeigt etwa die App „Loki“. Der kanadische Student Kevin Yap hat sie zusammen mit drei Freunden programmiert, innerhalb von gerade einmal 24 Stunden. Dabei konnte er allerdings auch auf der Vorarbeit von Apple aufbauen: Der Konzern hat sein iPhone X mit der Fähigkeit ausgestattet, aus Bildern der Frontkamera die Gesichtszüge des Nutzers zu extrahieren. Mehr als 50 Parameter wertet das Handy aus, darunter etwa die Bewegung der Mundwinkel oder der Augen.

Die vier Entwickler nutzten diese Funktion, um ihre App zu trainieren: Sie fütterten Loki mit rund 100 Gesichtsausdrücken, zu denen sie die jeweils dazu gehörende Emotion angaben. Dadurch lernte das Mini-Programm, wie sich die Mimik je nach Gefühlslage typischerweise verändert. Am Ende erkannte Loki Emotionen in Echtzeit und passte beispielsweise den Inhalt eines Newsfeeds je nach Stimmung des Nutzers an. Ähnliche Algorithmen ließen sich aber auch nutzen, um gezielt Werbung auszuspielen, warnen die Loki-Macher.

Andererseits könnten sie auch dazu beitragen, Menschen mit emotionalen Problemen besser zu helfen. Der Maschinenethiker Oliver Bendel von der Hochschule für Wirtschaft in Windisch hat dazu kürzlich ein Beispiel vorgestellt – den „Bestbot“. Dabei handelt es sich um ein Computerprogramm, das über das Internet Gespräche mit Nutzern führen kann. Der Bestbot wertet zudem Bilder der Webcam aus, um die Gefühlslage seines Gesprächspartners einzuschätzen. Er kann sich so besser auf ihn einstellen und beispielsweise versuchen, ihn aufzumuntern. In bestimmten Fällen schlägt er sogar vor, seinen Gegenüber mit einer Hilfe-Hotline zu verbinden.

Für den Praxiseinsatz hält Bendel sein Geschöpf dennoch für ungeeignet – dazu sei der Eingriff in die Privatssphäre zu groß. „Ich lehne Gesichtserkennung im öffentlichen Raum ab und finde sie auch bei Chatbots heikel“, sagt er. Die Frage sei, ob die Chancen dieser Technologie tatsächlich ihre Risiken überwögen. „Letztlich ist es der alte Kampf zwischen Sicherheit und Freiheit.“