Les véhicules autonomes sont apparemment à la mode dans de nombreuses gammes technologiques d'aujourd'hui. Les entreprises technologiques comme Tesla et Google n'abandonneront tout simplement pas, n'est-ce pas?
Pour ce que ça vaut, la probabilité que les voitures dites «autonomes» décolleront est mince. Bien sûr, les magnats de la technologie disent que c'est la prochaine grande nouveauté, tout comme la 5G, l'Internet des objets, les «compteurs intelligents» et la multitude d'autres catastrophes technologiques qui surgissent à travers le pays, principalement financées à l'aide de fonds publics détournés. Mais pourquoi devriez-vous les croire? Étant donné que les véhicules autonomes nécessiteraient très probablement des communications V2V, ou «véhicule à véhicule», utilisant des ondes millimétriques à haute fréquence, il est prudent de dire que si un trop grand nombre d'entre eux sortent sur la route, ce sera quoi que ce soit d'artificiel mais en sécurité.
La seule vraie chose que les véhicules autonomes ont pour eux est le parapluie de «sécurité», qui est en réalité plus une extension de notre stupidité qu'un point valable en soi. Si les gens prêtaient attention à la route, les décès dus à la circulation seraient considérablement réduits. Si l'alcool et les téléphones portables restaient à l'écart des véhicules, les autoroutes seraient un endroit beaucoup plus sûr!
Les véhicules autonomes soulèvent toutefois plus que des problèmes de santé. Les gens doivent faire face à de graves implications éthiques pour envisager sérieusement de lâcher ces véhicules de destruction sur les routes.
Le Media Lab du MIT a récemment exploré certains des dilemmes moraux posés par l'intelligence artificielle, qui jouerait un rôle important dans le domaine du véhicule autonome. Après tout, un véhicule autonome doit pouvoir faire l'appel lorsqu'il s'agit de la sécurité de ses occupants et de son environnement. De nombreuses questions éthiques sont ambiguës. C'est aussi, du moins en apparence, l'une des questions que les chercheurs du MIT ont explorées: qui devrait mourir dans une collision dans laquelle un véhicule autonome est impliqué? En tant qu'humains, nous avons une boussole morale qui nous guide dans ces types de dilemmes. L'intelligence artificielle, aussi «intelligente» soit-elle, se résume à 1 et 0 à la fin de la journée et n'a pas une telle boussole morale. Les chercheurs du MIT ont exploré si les gens pensaient qu'un véhicule autonome devrait heurter une personne jeune ou âgée afin de sauver ses occupants.
Selon ZDNet«Nous avons convenu à travers le monde que l'épargne de la vie des humains plutôt que celle des animaux devrait avoir la priorité; beaucoup de gens devraient être sauvés plutôt que peu, et les jeunes devraient être préservés par rapport aux personnes âgées. Quelqu'un d'autre voit un problème, ici?
Patricia Burke résume parfaitement cela dans son article explorant ce sujet:
Si l'ingénierie derrière les voitures autonomes peut entraîner la possibilité que l'intelligence d'une voiture délirante décide de frapper la vieille dame sur le passage pour piétons ou le bébé dans la voiture sur le trottoir, nous devons revenir à la planche à dessin. - L '«artificiel» de l'intelligence artificielle et la «machine morale» du MIT
Je peux voir pourquoi la plupart des humains conviendraient qu'il est primordial d'épargner la vie des humains par rapport aux autres animaux. C'est une décision morale avec laquelle la plupart d'entre nous seraient d'accord. Mais qu'en est-il des déclarations générales telles que «les jeunes doivent être préservés par rapport aux personnes âgées»?
Les réponses à ces questions avaient tendance à être fortement influencées par la culture. Si la jeunesse est plus valorisée en tant que culture qu'en tant qu'âge, pourquoi ne pas l'accepter? Le problème est que lorsque des décisions comme celles-ci sont programmées, aucune différenciation n'est faite. Un véhicule autonome devrait-il frapper une personne âgée, même si c'est le président des États-Unis? Même si c'est Paul McCartney? Même si c'est ta grand-mère? Les constructeurs de véhicules autonomes vont-ils programmer certaines «exceptions» à la liste «no-kill», en disant en fait «tout le monde est fair game»? Ce sont de graves problèmes éthiques avec lesquels nous devons nous attaquer, s'il doit y avoir tous conversation sur l’avenir des véhicules autonomes.
Voici une autre question: un véhicule autonome, s'il est contraint de choisir, devrait-il décider de tuer des piétons à proximité ou de tuer ses propres occupants?
La culture américaine est hautement individualisée. En tant que membres de notre culture, nous sommes plus intéressés et motivés que de nombreuses autres cultures, en particulier en Europe et à l'Est. Il serait donc logique que le véhicule autonome agisse pour sauver son propriétaire; ce ne serait que naturellement, non?
Là encore, nous sommes confrontés à un grave dilemme moral. Qui sont les utilisateurs de véhicules autonomes qui peuvent affirmer que leur vie est si importante qu’ils devraient être automatiquement épargnés et que tous ceux qui se trouvent à proximité doivent mourir à cause de leur décision d’utiliser une voiture autonome?
C'est égoïste, c'est ce que c'est.
Sur le plan moral, il n'y a pas de bonne réponse à cette question. Mais du point de vue de la justice et de «ce qui est juste», il y a, au moins à cette question, une réponse claire.
Il y a des gens qui veulent des voitures autonomes et d'autres qui n'en veulent pas. En général, les généralisations sont quelque chose que nous aimons éviter, mais en tant que tendance générale, les jeunes ont tendance à être plus à l'aise avec les véhicules autonomes - après tout, ils laissent déjà la technologie fonctionner (et peut-être ruiner) leur vie, n'est-ce pas?
En d'autres termes, vous trouverez plus probablement un étudiant en ville dans un véhicule autonome qu'une personne âgée. Cela a du sens, non? Les jeunes d'aujourd'hui évitent les responsabilités comme la peste et ont adopté toutes sortes de technologies sans signification et sans but, puis en sont devenus dépendants. Les véhicules autonomes sont une autre mode de ce genre qui, en pratique, n'est pas différente. (D'accord, assez de dénigrement des jeunes maintenant.)
Du point de vue de la justice, il est peu logique que les véhicules autonomes soient programmés pour cibler les passants ou les piétons. Après tout, ils sont complètement innocents, dissociés de toute la situation. Pourquoi devraient-ils être punis? Ne serait-il pas plus logique qu'une voiture autonome, si elle n'a pas d'alternative, tue ses occupants à la place?
Cela semble extrême, bizarre, même. Bien sûr, naturellement. Mais mettez l’émotion de côté et réfléchissez vraiment à ceci de manière analytique: s'il y a des gens qui sont prêts à confier leur vie à un véhicule autonome chargé de prendre des décisions morales, c'est impossible, alors l'ont devraient être disposés à en payer le prix s'ils ont effectivement perdu leur confiance.
Pourquoi des passants ou des piétons innocents, qui n'ont peut-être jamais préconisé ou adopté cette technologie, seraient-ils des dommages collatéraux l'ont avez-vous averti les autres depuis le début?
Pour être clair, nous ne préconisons que personne devrait mourir; ce serait inhumain. Mais la dure réalité de la question est que des gens meurent et des gens meurent dans des accidents de la route. Et, si un choix doit être fait, il est juste que les personnes qui ont cru et soutenu la technologie, l'ont demandée et achetée, en payent les conséquences. if quand cela devient nécessaire. Là, je l'ai dit - si vous êtes prêt à faire suffisamment confiance à un véhicule autonome pour en utiliser un, vous devriez être prêt à être la première victime lorsqu'une décision potentiellement fatale doit être prise..
Logiquement, nous pensons que c'est une ligne directrice parfaitement juste. Alors, prenez note des constructeurs de véhicules autonomes: si vous avez tellement confiance en vos produits, programmez-les pour qu'ils tuent leurs propriétaires, pas des passants innocents! C'est vrai, tuez vos clients! (Bien sûr, cela n'arrivera jamais, car les gens qui fabriquent des véhicules autonomes sont aussi égoïstes que ceux qui les utilisent!)
Et même si nous ne disons pas que les jeunes valent moins que les vieux, les jeunes soient plus susceptibles de prendre en charge des véhicules autonomes, donc si l'un des dysfonctionnements, pourquoi ne pas cibler un jeune? Les vieux ne demandent pas cette technologie; Pourquoi devrais-je l'ont être puni quand il a des fautes?
Vous n'aimez pas ce raisonnement? Nous non plus - c'est juste une autre raison pour laquelle les véhicules autonomes ne deviendront probablement jamais (et ne devraient pas) devenir réalité.
La conduite est, par rapport à d’autres tâches quotidiennes, une activité extrêmement dangereuse. Une personne ne penserait pas à sauter le trottoir pour éviter de frapper un enfant qui se précipite sur la route de manière inattendue, une voiture autonome conduirait. Si vous pensez que nous pouvons confier cette responsabilité exigeante de manière sûre, humaine et éthique à un ordinateur embarqué (qui, inévitablement, sera connecté sans fil et sujet au piratage), alors réfléchissez à nouveau. Les ordinateurs sont des outils incroyables et puissants, mais il y a certaines choses dans la vie que vous devez faire vous-même.
TE Lawrence (Il d'Arabie) a été tué sur sa moto parce qu'il avait choisi de faire pivoter la machine pour éviter de heurter deux garçons à bicyclette. Une voiture autonome serait-elle si héroïque?