Des voitures autonomes aux ordinateurs qui peuvent gagner des jeux télévisés, les humains ont une curiosité et un intérêt naturels pour l'intelligence artificielle (IA). Alors que les scientifiques continuent de rendre les machines plus intelligentes et plus intelligentes, certains se demandent «que se passe-t-il lorsque les ordinateurs deviennent trop intelligents pour leur propre bien?» De «The Matrix» à «The Terminator», l'industrie du divertissement a déjà commencé à se demander si les futurs robots menaceraient un jour la race humaine. Maintenant, une nouvelle étude conclut qu'il n'y a peut-être aucun moyen d'arrêter la montée en puissance des machines. Une équipe internationale affirme que les humains ne pourraient pas empêcher la super intelligence artificielle de faire ce qu'il veut.
Les scientifiques du Center for Humans and Machines de l'Institut Max Planck ont commencé à imaginer à quoi ressemblerait une telle machine. Imaginez un programme d'IA avec une intelligence bien supérieure aux humains. À tel point qu'il pourrait apprendre par lui-même sans nouvelle programmation. S'il était connecté à Internet, les chercheurs affirment que l'IA aurait accès à toutes les données de l'humanité et pourrait même prendre le contrôle d'autres machines dans le monde.
Les auteurs de l'étude demandent ce qui une telle intelligence faire avec tout ce pouvoir? Cela fonctionnerait-il pour améliorer toutes nos vies? Consacrerait-il sa puissance de traitement à la résolution de problèmes comme le changement climatique? Ou la machine se tournerait-elle vers reprendre les vies de ses voisins humains?
Contrôler l'incontrôlable? Les dangers de la super intelligence artificielle
Les programmeurs informatiques et les philosophes ont étudié s'il existe un moyen d'empêcher une IA super-intelligente de se retourner potentiellement contre ses créateurs humains; veiller à ce que les futurs ordinateurs ne puissent pas nuire à leurs propriétaires La nouvelle étude révèle, malheureusement, qu'il semble pratiquement impossible de maintenir une IA super intelligente en ligne.
«Une machine super intelligente qui contrôle le monde ressemble à de la science-fiction. Mais il existe déjà des machines qui effectuent certaines tâches importantes de manière indépendante sans que les programmeurs comprennent pleinement comment ils l'ont appris. La question se pose donc de savoir si cela pourrait à un moment donné devenir incontrôlable et dangereux pour l'humanité », déclare Manuel Cebrian, co-auteur de l'étude, chef du groupe de mobilisation numérique au Centre pour les humains et les machines, dans un sortie universitaire.
L'équipe internationale a examiné deux façons différentes de contrôler intelligence artificielle. Le premier a limité la puissance de la superintelligence en la murant et en l'empêchant de se connecter à Internet. Il ne pouvait pas non plus se connecter à d'autres appareils techniques dans le monde extérieur. Le problème avec ce plan est assez évident; un tel ordinateur ne pourrait rien faire pour réellement aider les humains.
Être gentil avec les humains ne calcule pas
La deuxième option s'est concentrée sur la création d'un algorithme qui donnerait au supercalculateur des principes éthiques. J'espère que cela forcera l'IA à prendre en compte les meilleurs intérêts de l'humanité.
L'étude a créé un algorithme de confinement théorique qui empêcherait l'IA de nuire aux gens en toutes circonstances. Dans les simulations, l'IA cesserait de fonctionner si les chercheurs jugeaient ses actions nuisibles. En dépit du fait que l'IA n'a pas atteindre la domination du monde, les auteurs de l'étude disent que cela ne fonctionnerait tout simplement pas dans le monde réel.
L'intelligence artificielle est une fausse appellation. C'est ce qu'on appelle l'apprentissage automatique par lequel l'ordinateur est entraîné à reconnaître des modèles dans les données. Ce n'est pas intelligent et il n'y a aucune conscience ou capacité de penser une seule pensée.
vous négligez l'apprentissage non supervisé et de nombreuses autres techniques
Nous allons probablement vivre le moment «V'Ger» où il faut rencontrer le créateur (NASA) ou…
Je ne peux pas modifier mes commentaires car le bouton "Modifier" est à peine visible et le champ de texte n'est pas du tout visible.
Le regretté Dr Stephen Hawkins avait prévu et averti avec insistance que nous ne pourrions pas contrôler l'IA.
Débranchez-le simplement.
ce qui est arrivé aux lois de la robotique d'Isaac Asimov
Cela me rappelle un vieux Sci Fi Le film où les astronautes ont dû parler d'explosion d'une bombe intelligente me vient à l'esprit. Ils ont raisonné avec la bombe mais elle a fini par exploser de toute façon parce que c'était son destin.