Les ingénieurs utilisent la psychologie cognitive pour comprendre comment les IA pensent et les responsabiliser.
Les ingénieurs en intelligence artificielle ont un problème: ils souvent ne sais pas à quoi pensent leurs créations.
Au fur et à mesure que l'intelligence artificielle gagne en complexité et en prévalence, elle devient également plus puissante. AI a déjà pris en compte les décisions concernant qui va en prison et qui reçoit un prêt. Il y a des suggestions que l'IA devrait déterminer qui a la meilleure chance de vivre quand une voiture autonome fait face à un accident inévitable.
Définir l'intelligence artificielle est une tâche glissante et de plus en plus croissante, alors que les startups masquent le mot à la mode par rapport à ce qu'elles font. Il est généralement accepté comme une tentative de singer l'intelligence et les capacités humaines. Un des sous-ensembles qui a décollé est celui des réseaux de neurones, des systèmes qui «apprennent» comme le font les humains grâce à la formation, transformant l'expérience en réseaux de neurones simulés. Le résultat n'est pas du code, mais une masse illisible et enchevêtrée de millions, voire de milliards de neurones artificiels, ce qui explique pourquoi ceux qui créent des IA modernes peuvent être déconcertés par la manière dont ils résolvent leurs tâches.
La plupart des chercheurs s'accordent pour dire que défi de comprendre l'IA est pressant. Si nous ne savons pas comment fonctionne un esprit artificiel, comment pouvons-nous déterminer ses biais ou prévoir ses erreurs?