Face Reading

16.4.2024
Remote Recruiting ist nicht trivial. Denn wir begegnen einander nur noch als Gesicht auf einem Bildschirm. Das erschwert das Recruiting enorm. Denn große Teile der Körpersprache sind nicht zu sehen. Entsprechend schwer fällt es, sich ein zutreffendes Bild von Menschen zu machen, die später für den Erfolg des Unternehmens mitverantwortlich sein sollen.

Einleitung

Unter normalen Umständen liefern Gestik und Körperhaltung Anhaltspunkte, um ein Bild von Bewerbern zu gewinnen. Im Videocall ist all das auf einen kleinen Ausschnitt reduziert und ins Zweidimensionale verflacht. Recruiter, die sich sonst auf ihr Bauchgefühl verlassen konnten, können sich in dieser Situation ihres Urteils nicht mehr sicher sein.

In diesen Fällen zu helfen, versprechen Menschen und Unternehmen, die Face Reading anbieten. Sie lesen aus Gesichtern verborgene Emotionen, von denen Recruiter wissen wollen und haben in den letzten 20 Jahren ein verhaltenes Comeback erlebt. Deshalb wollen wir im Folgenden darstellen, welche Ansätze und Methoden beim Facereading angewandt werden. 

Methoden des Face Reading

Eher in das Gebiet der Esoterik sind Methoden einzuordnen, die auf Lehren der Physiognomik aus der Antike sowie denen von Lavater, Lambroso oder Huter beruhen. Sie behaupten einen unmittelbaren Zusammenhang zwischen der Gesichts- und Kopfform und bestimmten Charaktereigenschaften, der nicht wissenschaftlich nachweisbar ist und auf kognitiven Verzerrungen beruht. 

Weniger unseriös ist die Grundannahme der Pathognomik, nämlich dass sich Lebensumstände, Emotionen und die daraus resultierende Mimik im Erscheinungsbild (Falten usw.) von Gesichtern niederschlagen. Das ist eine Binsenweisheit.

Zwei wesentliche Formen der wissenschaftlichen Beschäftigung mit dem Gesicht sind das Facial Action Coding System (FACS) und die Untersuchung von Mikroexpressionen. Das FACS ordnet den verschiedenen Bewegungen des Gesichts Codes zu, mit denen sich der Gesichtsausdruck in einer Art Notation beschreiben lässt. 

Mikroexpressionen wiederum sind extrem flüchtige Gesichtsausdrücke, die selbst die Emotionen von Menschen verraten, die ihre Mimik sehr gut im Griff haben. Sie dauern oft nur eine halbe Sekunde und wurden erst in den 1960ern in Zeitlupenaufnahmen von psychotherapeutischen Filmaufnahmen entdeckt. Wer die Fernsehserie Lie to Me kennt, weiß, wovon hier die Rede ist. In ihr spielt Tim Roth einen Täuschungsexperten, der für die Polizei mit Hilfe von Mikroexpressionen die Lügen von Verdächtigen aufdeckt. 

Face Reading als Dienstleistung

Grundsätzlich gibt es Face Reading einerseits als menschliche Beratungsleistung (und entsprechende Schulungen) und andererseits als technologiegetriebenes Softwareprodukt.

So gibt es Personen und Unternehmen, die ihre Kunden beraten, indem sie die Mimik von Bewerbern oder von Verhandlungspartnern beobachten. Dabei kommen richtige psychologische Profile zustande. 

Dies zu leisten versprechen auch Softwareanbieter, deren Produkte Videos analysieren und in Echtzeit die Emotionen von Bewerbern zu entschlüsseln behaupten. Ein Beispiel hierfür ist das Unternehmen Human, das eine Künstliche Emotionale Intelligenz (KEI) für das Screening und für die Erstellung von Persönlichkeitsprofilen einsetzt. Dabei werden unter anderem Mikroexpressionen aufgedeckt und interpretiert. Human hat 2018 eine Partnerschaft mit der Recruitingsoftware-Plattform Workable begründet. Humans KEI wurde in die Workable-Plattform integriert und wird zum Profiling von Kandidaten eingesetzt. Sie soll kognitive Verzerrungen von Recruitern ausgleichen und für Objektivität sorgen.  

Das israelische Start-up Faception (“a Facial Personality Analytics company”) bietet ein vergleichbares Produkt. Mithilfe maschinellen Lernens analysiert die Software Gesichter und enthüllt in Echtzeit deren Persönlichkeit – so heißt es. Das Unternehmen stellt seine Software Unternehmen und Sicherheitsbehörden zur Verfügung. Sie soll sogar die Identifizierung von Pädophilen und Terroristen ermöglichen. 

Leider stellt das Unternehmen auf seiner Website keinerlei relevante Daten zur Verfügung, die ein Urteil über die Wirksamkeit von Faception zulassen. Wünschenswert wären zum Beispiel Belege für die Identifizierung von tatsächlichen Terroristen oder Pädophilen sowie klare Aussagen über die Treffer- oder Fehlerwahrscheinlichkeit. Zwar behauptet Faception die KI habe den überwiegenden Teil der Attentäter von Paris als Terroristen identifiziert, die alle arabisch aussahen – so wie vermutlich die Gesichter, mit denen sie trainiert wurde. Aber es fragt sich, ob die KI beispielsweise Ulrike Meinhof oder Anders Breivik ebenfalls als Terroristen identifiziert hätte. 

Skepsis gegenüber Face Reading

Physiognomik und Psycho-Physiognomik sind mit größter Vorsicht zu genießen, denn sie sind das Produkt unzulässiger Verallgemeinerungen. Sie mögen zwar gelegentlich richtig liegen, aber sie bergen große Risiken. So besteht die Gefahr, selbsterfüllende Prophezeiungen zu erzeugen: Ein Mensch, der aufgrund der Knochenstruktur des Gesichts oder ähnlicher Merkmale als “nicht vertrauenswürdig” vorverurteilt und anschließend als “nicht vertrauenswürdig” behandelt wird, verhält sich auf die Dauer dann auch entsprechend. 

Auf diese Weise werden potenziell wertvolle Mitarbeiter entweder gar nicht erst eingestellt oder abgestempelt und in Rollen gedrängt, aus denen sie sich nicht mehr befreien können. 

Auch das Persönlichkeits-Profiling mithilfe von Videoanalyse und Künstlicher Intelligenz muss seine Wirksamkeit und auch seine Unschädlichkeit erst noch beweisen. Denn auch hier besteht die Gefahr selbsterfüllender Prophezeiungen und unzulässiger Verallgemeinerung. 

Ein weiteres Problem, das auftreten kann, sind falsch positive Ergebnisse. Faception zum Beispiel behauptet, dass die verwendeten Algorithmen in 80 Prozent der Fälle für manche seiner Personenarchetypen zutreffend sind. Dabei wird nicht klar, was genau das in der Praxis bedeutet. Der Wert von 80 Prozent jedenfalls lässt Spielraum für 20 Prozent falsche Ergebnisse. In einem großen Bewerbungsverfahren mit Hunderten von Bewerbern kann auf diese Weise eine beachtliche Zahl an Fehlern zustandekommen. Schlimmer noch wird es, wenn jemand auf der Basis eines solchen Persönlichkeitsprofils fälschlich als Terrorist oder Pädophiler eingestuft wird. 

Weiterhin besteht die Gefahr, dass Künstliche Intelligenzen durch Kodierfehler systematisch bestimmte Personengruppen benachteiligen. So geschehen in Texas, das in Strafsachen eine Risk Assessment Software mit Face Reading-Komponente einsetzt. Die Ergebnisse dieser Software werden Richtern zur Verfügung gestellt. Die Software schätzt die Rückfallwahrscheinlichkeit ein und hat damit Einfluss auf die weitere Behandlung der Angeklagten und zum Teil auch auf die Höhe der Strafe. In einer unabhängigen Studie stellte sich heraus, dass die Software systematisch Afroamerikaner benachteiligt und besonders in der Vorhersage von Gewaltverbrechen versagt. 

Von solchen Verzerrungen war auch der erste Schönheitswettbewerb geplagt, der jemals von einer KI entschieden wurde. Die KI wählte überwiegend weiße Frauen in die Kategorie der schönsten Menschen. Hier wird deutlich, dass KIs, die Gesichter analysieren (statt sie nur zu erkennen), derzeit vor allem über kulturelle und ethnische Grenzen hinweg wenig aussagekräftige Ergebnisse erzielen.

Außerdem sind KIs, die Gesichter analysieren noch nicht besonders gut darin, die zugrundeliegenden Emotionen sicher zu bestimmen. So können sie nicht unterscheiden, ob eine senkrechte Falte zwischen den Augenbrauen bedeutet, dass eine Person zornig ist oder ob die Person sich nur sehr konzentriert mit einer Aufgabe beschäftigt. Ein Bewerbungsvideo könnte eine Gelegenheit sein, in der dieses Problem auftritt.

Fazit

Wiewohl die Gesichter von Menschen Schlüsse auf ihre Emotionen zulassen, sind Schlüsse auf ihre Persönlichkeit derzeit mit mehr potenziellem Schaden als Nutzen belastet. Denn es gibt in der Mimik zu viele Graubereiche, die eine KI nicht trennscharf unterscheiden kann.

Allenfalls können psychologisch Ausgebildete valide Aussagen über den jeweiligen emotionalen Zustand von Menschen aufgrund ihrer Mimik treffen. Diese lässt besonders durch die Analyse von Mikroexpressionen deutlich erkennen, ob eine Person lügt. 

Um Führungskräfte mit besonders großer Verantwortung zu rekrutieren, ist eine gründliche Analyse ihrer Mikroexpressionen daher eine durchaus sinnvolle Investition. Denn aufgrund ihrer hohen Position können sie besonders viel Schaden in einem Unternehmen anrichten.

Bis auf Weiteres ist die Gesichtsanalyse mithilfe von KI jedenfalls noch längst nicht an dem Punkt, ab dem man ihr uneingeschränktes Vertrauen entgegenbringen sollte.

Deshalb sind wir froh, dass wir bei metru mit der KI Vier Precire arbeiten. Sie analysiert etwas, das die Kandidaten in ihrem prospektiven Job auch tatsächlich tun werden, nämlich kommunizieren. Denn auch die Sprache ist ein Gebiet, auf dem sich niemand lange verstellen kann. Und jeder Mensch hat ein persönliches Sprachmuster, das so individuell ist wie ein Fingerabdruck. Davon abgesehen hat die Sprachanalyse den erheblichen Vorteil, dass die KI sich nicht von Äußerlichkeiten wie der Hautfarbe verwirren lässt.

Dieser Blogpost wurde erstmals im August 2021 in unserem alten Recruiter-Blog veröffentlicht.