Un programme pourrait-il détecter des terroristes potentiels en lisant leurs expressions faciales et leur comportement? Telle était l'hypothèse mise à l'épreuve par la US Transportation Security Administration (XS) sous 2003, alors qu'elle commençait à tester un nouveau programme de surveillance appelé programme de filtrage des passagers par techniques d'observation (Spot).
Lors de l'élaboration du programme, ils ont consulté Paul Ekman, professeur émérite de psychologie à l'Université de Californie à San Francisco. Des décennies auparavant, Ekman avait mis au point une méthode permettant d'identifier les expressions faciales les plus minutieuses et de les mapper sur les émotions correspondantes. Cette méthode a été utilisée pour former des «agents de détection du comportement» à scanner les visages à la recherche de signes de déception.
Mais lorsque le programme a été déployé sous 2007, les problèmes étaient nombreux. Les officiers étaient référant passagers interrogés plus ou moins au hasard, et le petit nombre d'arrestations qui ont eu lieu était imputable à des accusations sans lien avec le terrorisme. Encore plus inquiétant était le fait que le programme aurait été d'utiliser justifier le profilage racial.
Ekman a essayé de se distancer de Spot, affirmant que sa méthode était mal appliquée. Mais d'autres ont suggéré que l'échec du programme était dû à une théorie scientifique dépassée qui sous-tendait la méthode d'Ekman; à savoir que les émotions peuvent être déduites objectivement à travers l'analyse du visage.
Ces dernières années, les sociétés de technologie ont commencé à utiliser la méthode d'Ekman pour former des algorithmes permettant de détecter les émotions à partir d'expressions faciales. Certains développeurs affirment que les systèmes de détection automatique des émotions non seulement seront plus efficaces que les humains pour découvrir de véritables émotions en analysant le visage, mais que ces algorithmes seront en phase avec nos sentiments les plus profonds, améliorant considérablement l'interaction avec nos appareils.
Mais de nombreux experts en sciences de l'émotion craignent que ces algorithmes échouent une nouvelle fois, prenant des décisions critiques concernant nos vies à partir de données scientifiques erronées.
La technologie de détection des émotions nécessite deux techniques: la vision par ordinateur, pour identifier avec précision les expressions du visage, et des algorithmes d'apprentissage automatique pour analyser et interpréter le contenu émotionnel de ces traits.
En règle générale, la deuxième étape utilise une technique appelée apprentissage supervisé, processus par lequel un algorithme est entraîné à reconnaître des choses déjà vues. L'idée de base est que si vous montrez à l'algorithme des milliers et des milliers d'images de visages heureux avec l'étiquette «heureux» lorsqu'il voit une nouvelle image d'un visage heureux, il l'identifiera à nouveau comme «heureux».
Une étudiante diplômée, Rana el Kaliouby, a été l’une des premières personnes à expérimenter cette approche. À 2001, après avoir déménagé d'Égypte à l'Université de Cambridge pour entreprendre un doctorat en informatique, elle a découvert qu'elle passait plus de temps avec son ordinateur qu'avec d'autres personnes. Elle a pensé que si elle pouvait apprendre à l'ordinateur à reconnaître et à réagir à son état émotionnel, son temps passé loin de sa famille et de ses amis serait moins solitaire.
Kaliouby a consacré le reste de ses études de doctorat à la résolution de ce problème et a finalement mis au point un dispositif permettant aux enfants atteints du syndrome d'Asperger de lire et de réagir aux expressions faciales. Elle l'a appelé "l'aide auditive émotionnelle".
À 2006, Kaliouby a rejoint le laboratoire d’Affective Computing du Massachusetts Institute of Technology, où elle a poursuivi, avec la directrice du laboratoire, Rosalind Picard, l’amélioration et le perfectionnement de la technologie. Puis, dans 2009, ils cofondé une startup appelée Affectiva, la première entreprise à commercialiser «l'intelligence émotionnelle artificielle».
Le plus grand terroriste est le gouvernement
Où le scan du visage pour eux?