Algorithmus für Gesichtserkennung soll politische Orientierung vorhersagen können

Bild: Scientific Reports

Der Wissenschaftler hatte schon zuvor gezeigt, dass sich aus Fotos die sexuelle Orientierung mit einem KI-Programm ablesen lässt. Das soll allerdings nur der Warnung dienen – schwer zu glauben.

Der Psychologe Michal Kosinski von der Stanford University ist 2017 mit der Veröffentlichung einer Studie bekannt geworden, in der er zusammen mit Yilun Wang ausführte, dass ein KI-System alleine aus Fotos erkennen könne, ob eine Person hetero- oder homosexuell ist. Obgleich beide Wissenschaftler erklärten, dass sie mit ihrer Arbeit Politiker und LGBTQ-Gruppen warnen wollten, weil die sexuelle Orientierung aus der Analyse von Gesichtern ablesbar sei, stießen sie auf heftige Kritik. In der Tat ist schwer nachzuvollziehen, warum man technische Möglichkeiten reproduzierbar erweitern muss, um dann vor diesen zu warnen.

In der ersten Arbeit wurde das KI-System mit Fotos von mehr als 10.000 Nutzern einer Partnerbörse gefüttert, die sich selbst als hetero- oder homosexuell bezeichneten. Mit Deep Learning entwickelte das System Muster und Merkmale, um angeblich die Gesichter nach ihrer sexuellen Orientierung einordnen zu können. Bei Männern lag die Identifizierung, wenn es jeweils um die Erkennung einer heterosexuellen und einer homosexuellen Person zu 91 Prozent, bei Frauen zu 83 Prozent richtig. Menschen trafen nur zu 61 bzw. 54 Prozent die richtige Unterscheidung, also praktisch zufällig. Das KI-System war allerdings deutlich schwächer, wenn es aus tausend Fotos auswählen musste, unter denen sich 7 Prozent Gesichter von Homosexuellen befanden, was in etwa der Anteil an der Bevölkerung ist.

Gesichter verraten, ob ein Mensch liberal oder konservativ ist

Jetzt hat Kosinski eine weitere provokante Studie vorgelegt, die in den Scientific Reports von Nature erschienen ist. Mit Gesichtserkennungsprogrammen, so die Behauptung, könne durch maschinelles Lernen erkannt werden, welche politische Gesinnung eine Person zuneigt. In den USA ist das ganz einfach, wenn man nur Konservative (Republikaner) und Liberale (Demokraten) unterscheidet. In den meisten Ländern, in denen es eine Vielzahl von Parteien gibt wäre dies wohl kaum möglich. Wieder will Kosinski mit seinen Ergebnisse vor den Möglichkeiten der Gesichtserkennung warnen, die zu einem „dramatischen Rückgang an Datenschutz und der bürgerlichen Freiheit“ beitragen werden, zumal die Technik ohne Zustimmung und Wissen eingesetzt werden kann. Zudem lassen sich Gesichter, zumindest in Nicht-Covid-Zeiten, kaum verbergen. Und Fotos von Gesichtern von vielen Menschen lassen sich im Internet ohne Probleme finden.

Für die Studie wurde ein Open-Source-Gesichtserkennungsalgorithmus an über einer Million Gesichtern von Nutzern von Partnerbörsen und Facebook aus drei Ländern trainiert, die ihre Grundeinstellung als liberal oder konservativ sowie ihr Alter und Geschlecht angegeben haben. Ein Drittel waren keine Weißen.

Menschen sind nicht besonders gut darin, aus den Merkmalen von Gesichtern alleine die politische Gesinnung konservativ/liberal abzuleiten. Die Trefferrate beträgt 55 Prozent, das ist kaum mehr als Zufall. Algorithmen haben den Vorteil, anhand von riesigen Datenbanken besser lernen zu können, etwa mit Körperscans Krebs oder auf Videobildern Personen erkennen zu können. Das scheint auch mit der politischen Orientierung der Fall zu sein, wobei Kosinski der Überzeugung ist, dass der Unterschied liberal/konservativ so allgemein ist, dass die Ergebnisse auch für andere Länder, Kulturen und Fotos gültig sind.

Bild: Scientific Reports

Der Algorithmus identifizierte die politische Gesinnung bei über 860.000 amerikanischen Nutzern von Partnerbörsen zu 72 Prozent richtig. Ähnlich gut schnitt er bei Nutzern von Partnerbörsen in Kanada und Großbritannien ab. Bei amerikanischen Facebooknutzern lag er auch bei 72 Prozent. Dabei konnte der an amerikanischen Gesichtern trainierte Algorithmus auch fast so gut die politische Gesinnung von den Nutzern von Partnerbörsen in Kanada und Großbritannien erkennen, was bedeuten würde, dass es allgemeine Kennzeichen in den Gesichtern gibt, durch die sich politische Gesinnung ausdrückt. Da die Unterscheidung liberal/konservativ aber sehr dehnbar ist und sich ein “Liberaler” aus dem konservativen Mississippi im liberalen Massachussetts eher als konservativ bezeichnen könnte, würde, so meint Kosinski, eine Schärfung der Begriffe vielleicht auch die Genauigkeit der Identifizierung erhöhen.

Allerdings könnten Menschen, die ihre politische Gesinnung offenlegen, eine besondere Gattung sein. Und möglicherweise erkennt der Algorithmus auch auf andere Weise die politische Gesinnung, da Weiße, ältere Menschen und Männer eher konservativ sind. Auch Frisuren und andere Merkmale könnten ausschlaggebend sein, schließlich ist maschinelles Lernen eine Black Box. Kosinski hat die Genauigkeit mit dem Geschlecht, dem Alter und dem ethnischen Hintergrund abgeglichen. Durchschnittlich sei die Genauigkeit nur um 3,5 Prozent gesunken, was für ihn darauf hinweist, dass der Kern der Erkennung doch mit den Gesichtsmerkmalen verbunden sein muss.

Bei Untersuchung einiger Merkmale bei den Facebook-Nutzern waren die Ergebnisse am stärksten durch die Ausrichtung des Gesichts und durch den emotionalen Ausdruck bestimmt. Liberale sollen direkter in die Kamera schauen und weniger Abscheu zum Ausdruck bringen. Frisur oder Brille oder nicht hatte kaum einen Einfluss.

Genauigkeit der Ergebnisse ist leicht zu verbessern

Kosinski meint, dass seine Ergebnis durchaus Anlass zur Beunruhigung sein sollten. Leicht könnte eine höhere Trefferwahrscheinlichkeit durch optimiertes maschinelles Lernen, besser auf die Aufgabe trainierte Algorithmen, mehr Bilder pro Person, Bilder mit höherer Auflösung oder den Einbezug von weiteren Merkmalen wie Kleidung, Kopfbedeckung oder Bildhintergrund erzielt werden. Und selbst bei nicht sonderlich genauen Vorhersagen wie bei den vorgelegten Ergebnissen könnten dies einen großen Einfluss haben, wenn sie auf große Menschenmengen in heiklen Situationen wie Wahlen angewendet werden. Kosinski  gibt das Beispiel, dass selbst eine grobe Einschätzung der psychologischen Merkmale eine Publikums die Wirksamkeit einer Massenbeeinflussung entscheidend verstärken könnte.

Und was schlägt er als Konsequenz seiner Forschung vor: „Wir hoffen, dass Wissenschaftler, Politiker, Ingenieure und Bürger das zur Kenntnis nehmen.“ Das weckt dann doch Misstrauen.

Kosinski weiß, dass er mit seiner Behauptung, dass Gesichtserkennungsprogramme die politische Orientierung vorhersagen können, Aufmerksamkeit erregen wird. Er will davon profitieren, ein Pionier sein und gleichzeitig als Warner auftreten, während er interessierten Parteien eine Methodik in die Hand gibt oder überhaupt erst auf die Möglichkeit hinweist, durch Gesichtserkennung politische Gesinnung (und sexuelle Orientierung) zu unterscheiden. Aktuell könnten Sicherheitskräfte in den USA etwa der Meinung sein, über Gesichtserkennung Personen nicht in die Nähe der Parlamentsgebäude zu lassen, die konservativ aussehen. Umgekehrt könnten autoritäre Systeme Menschen, die liberal gesinnt, das Leben schwer machen.

Kaum denkbar ist, dass weltweit alle Forscher und Unternehmen beschließen, solche technischen Entwicklungen zur Erkennung der Persönlichkeitsstrukturen, der sexuellen Orientierung, der politischen Gesinnung, der emotionalen Verfasstheit oder vielleicht auch der Absichten zu verbieten. Rückgängig lässt sich das nicht mehr machen, der vorher nicht bekannte Damm ist gebrochen und Kosinski erwirbt Prominenz. Aber natürlich hätte es auch jeder andere Wissenschaftler sein können. Allerdings haben in den USA einige Städte bereits den Einsatz von Gesichtserkennung verboten

Ähnliche Beiträge: