Une AI qui lit le visage raconte à la police quand vous vous couchez

détection de mensonge
S'il vous plaît partager cette histoire!
image_pdfimage_print
Les forces de l’ordre appliquent avec parcimonie une technologie connue pour poser de graves problèmes d’exactitude, comme c’est le cas de l’IA effectuant une analyse prédictive, un système de détection des mensonges et une reconnaissance faciale avant le crime. ⁃ Éditeur TN

Les recherches du psychologue américain Paul Ekman sur les expressions faciales ont ouvert une nouvelle carrière de détecteurs de mensonges humains il y a plus de quarante ans. L'intelligence artificielle pourrait bientôt prendre leur travail.

Alors que les États-Unis ont été les premiers à utiliser les technologies automatisées pour révéler les émotions et les réactions cachées des suspects, cette technique est encore balbutiante et de nombreuses entreprises s’efforcent de la rendre plus efficace et moins sujette aux faux signaux.

Facesoft, une start-up britannique, affirme avoir construit une base de données de millions d'images 300 de visages, dont certaines ont été créées à l'aide d'un système d'IA inspiré du cerveau humain, a rapporté le Times. Le système mis au point par l'entreprise permet d'identifier des émotions telles que la colère, la peur et la surprise, à partir de micro-expressions souvent invisibles pour l'observateur occasionnel.

«Si quelqu'un sourit de manière peu sincère, sa bouche peut sourire, mais le sourire n'atteint pas les yeux - les micro-expressions sont plus subtiles que cela et plus rapide», a déclaré le cofondateur et directeur général Allan Ponniah, chirurgien plasticien et reconstructeur. à Londres, a déclaré au journal.

Facesoft a approché la police de Mumbai pour utiliser le système de surveillance de la foule afin de détecter l'évolution de la dynamique de la foule, a déclaré Ponniah. Il a également vanté son produit auprès des forces de police britanniques.

L'utilisation d'algorithmes d'intelligence artificielle parmi la police a récemment suscité la controverse. Un groupe de recherche dont les membres comprennent Facebook Inc., Microsoft Corp., Alphabet Inc., Amazon.com Inc. et Apple Inc a publié un rapport en avril indiquant que les algorithmes actuels visant à aider la police à déterminer qui devrait bénéficier de la mise en liberté sous caution ou de la probation, et qui aident les juges à prendre des décisions en matière de peine, sont potentiellement biaisées, opaques et peuvent même ne pas fonctionner.

Lire l'histoire complète ici…

S'INSCRIRE
Notifier de
invité
1 Commentaire
Le plus ancien
Date Les plus votés
Commentaires en ligne
Voir tous les commentaires