ArticlePDF Available

Face facts: a history of physiognomy from ancient Mesopotamia to the end of the 19th century

Authors:

Abstract

Inscribed on the face is a code, the translation of which has entertained and eluded humankind for many centuries. The practice of reading the face dates back as early as the paleobabylonian period in Mesopotamia. It wasn't until much later, however, that this ancient tradition was named.
... This idea has a long history reaching back to the time of the ancient world. Today the scientific community rejects physiognomy as pseudo-science inspired by superstition and racism [17]. ...
Preprint
Recent research used machine learning methods to predict a person's sexual orientation from their photograph (Wang and Kosinski, 2017). To verify this result, two of these models are replicated, one based on a deep neural network (DNN) and one on facial morphology (FM). Using a new dataset of 20,910 photographs from dating websites, the ability to predict sexual orientation is confirmed (DNN accuracy male 68%, female 77%, FM male 62%, female 72%). To investigate whether facial features such as brightness or predominant colours are predictive of sexual orientation, a new model based on highly blurred facial images was created. This model was also able to predict sexual orientation (male 63%, female 72%). The tested models are invariant to intentional changes to a subject's makeup, eyewear, facial hair and head pose (angle that the photograph is taken at). It is shown that the head pose is not correlated with sexual orientation. While demonstrating that dating profile images carry rich information about sexual orientation these results leave open the question of how much is determined by facial morphology and how much by differences in grooming, presentation and lifestyle. The advent of new technology that is able to detect sexual orientation in this way may have serious implications for the privacy and safety of gay men and women.
Conference Paper
Full-text available
The purpose of the study is to determine the effect of structural empowerment on career satisfaction and innovative work behaviour and to investigate whether psychological empowerment plays a mediating role between these variables. In order to test the research model, data were collected from the white-collar employees in the production businesses by survey method. As a result of the analysis, it is found that structural empowerment and psychological empowerment has a positive relationship with career satisfaction and innovative work behaviour. In addition, hierarchical regression analysis was performed to determine whether psychological empowerment has a mediator variable effect on the relationship between structural empowerment and career satisfaction and innovative work behaviour. The results of hierarchical regression analysis, it is determined that psychological empowerment plays a partial mediating role on the relationship between structural empowerment, career satisfaction and innovative work behaviour.
Thesis
Full-text available
Les technologies de l’intelligence artificielle (IA) sont en phase de développement rapide et sont largement adoptées. Les algorithmes déterminent ce que nous achetons sur les plates-formes d’achats en ligne, choisissent les publications que nous voyons sur le fil d’actualité de nos réseaux sociaux, suggèrent les résultats dans nos moteurs de recherche, ou encore filtrent les profils des applications de rencontre. Au-delà des assistants et des systèmes de recommandations personnalisés, ces technologies sont discrètement intégrées dans des domaines plus critiques tels que le système judiciaire, la finance, le recrutement en entreprise, la sécurité publique ainsi que les contrôles des frontières ou la régulation de l’immigration où elles sont de plus en plus utilisées pour prédire de tout, de notre type de personnalité à nos opportunités professionnelles. En cette ère numérique, les systèmes de surveillance par reconnaissance biométrique qui intègrent de l’IA se multiplient et les populations du monde entier se voient ainsi de plus en plus réduites à des agrégats de données analysables. Les entreprises de l’IA promettent que leurs technologies peuvent identifier des schémas comportementaux subtils et bien plus encore. La reconnaissance faciale associée à l’apprentissage automatique, ou machine learning, leur permet d’extraire et d’analyser de façon très efficace les caractéristiques physiques du visage d’une personne et d’ainsi discerner et dessiner un type de personnalité ou une tendance comportementale. On appelle cela le profilage facial.
Thesis
Les technologies de l’intelligence artificielle (IA) sont en phase de développement rapide et sont largement adoptées. Les algorithmes déterminent ce que nous achetons sur les plates-formes d’achats en ligne, choisissent les publications que nous voyons sur le fil d’actualité de nos réseaux sociaux, suggèrent les résultats dans nos moteurs de recherche, ou encore filtrent les profils des applications de rencontre. Au-delà des assistants et des systèmes de recommandations personnalisés, ces technologies sont discrètement intégrées dans des domaines plus critiques tels que le système judiciaire, la finance, le recrutement en entreprise, la sécurité publique ainsi que les contrôles des frontières ou la régulation de l’immigration où elles sont de plus en plus utilisées pour prédire de tout, de notre type de personnalité à nos opportunités professionnelles. En cette ère numérique, les systèmes de surveillance par reconnaissance biométrique qui intègrent de l’IA se multiplient et les populations du monde entier se voient ainsi de plus en plus réduites à des agrégats de données analysables. Les entreprises de l’IA promettent que leurs technologies peuvent identifier des schémas comportementaux subtils et bien plus encore. La reconnaissance faciale associée à l’apprentissage automatique, ou machine learning, leur permet d’extraire et d’analyser de façon très efficace les caractéristiques physiques du visage d’une personne et d’ainsi discerner et dessiner un type de personnalité ou une tendance comportementale. On appelle cela le profilage facial.
Thesis
Les technologies de l’intelligence artificielle (IA) sont en phase de développement rapide et sont largement adoptées. Les algorithmes déterminent ce que nous achetons sur les plates-formes d’achats en ligne, choisissent les publications que nous voyons sur le fil d’actualité de nos réseaux sociaux, suggèrent les résultats dans nos moteurs de recherche, ou encore filtrent les profils des applications de rencontre. Au-delà des assistants et des systèmes de recommandations personnalisés, ces technologies sont discrètement intégrées dans des domaines plus critiques tels que le système judiciaire, la finance, le recrutement en entreprise, la sécurité publique ainsi que les contrôles des frontières ou la régulation de l’immigration où elles sont de plus en plus utilisées pour prédire de tout, de notre type de personnalité à nos opportunités professionnelles. En cette ère numérique, les systèmes de surveillance par reconnaissance biométrique qui intègrent de l’IA se multiplient et les populations du monde entier se voient ainsi de plus en plus réduites à des agrégats de données analysables. Les entreprises de l’IA promettent que leurs technologies peuvent identifier des schémas comportementaux subtils et bien plus encore. La reconnaissance faciale associée à l’apprentissage automatique, ou machine learning, leur permet d’extraire et d’analyser de façon très efficace les caractéristiques physiques du visage d’une personne et d’ainsi discerner et dessiner un type de personnalité ou une tendance comportementale. On appelle cela le profilage facial. Cependant, l’application du profilage facial dans les domaines dans lesquels les décisions ont un réel impact sur nos vies ne devrait pas se faire sous le seul prétexte d’une efficacité technique. De fait, les systèmes de profilage, pilotés par des techniques d’apprentissage automatique ne sont pas intrinsèquement neutres. Ils reflètent les priorités, les préférences et les préjugés —le regard biaisé— de ceux qui façonnent l’intelligence artificielle. Le choix des données collectées et les règles de traitement de ces dernières, qui restent opaques, peuvent générer des biais dans les résultats des algorithmes. Ces derniers ne formulent pas des prédictions objectives car ils ont étés écrits par des êtres humains, qui y ont introduit, délibérément ou pas, leurs propres préjugés. Par conséquence, le biais algorithmique promet d’exacerber l’inégalité, les préjugés et la discrimination. Cette recherche a pour objectif de mettent en garde contre le fait que les développements rapides de l’intelligence artificielle et de l’apprentissage automatique ont permis au racisme « scientifique » d’entrer dans une nouvelle ère, dans laquelle les modèles utilisés et intériorisés par la machine intègrent les biais présents dans le comportement humain. Qu’il soit intentionnel ou non, ce blanchiment des préjugés humains par des algorithmes informatiques peut les cautionner de façon indue. À l’ère des caméras omniprésentes et du Big data, compte tenu du recours croissant de la société à l’apprentissage automatique pour automatiser les tâches cognitives, la physionomie apprise par la machine peut également être appliquée à une échelle sans précédent et l’impact que ces systèmes peuvent avoir sur nos vies ne saurait être sous-estimé.
ResearchGate has not been able to resolve any references for this publication.