ChatGPT peut avoir des conséquences irréversibles sur l'apprentissage et la prise de décision

Wikipedia Commons
S'il vous plaît partager cette histoire!
Il y a deux aspects de l'esprit. L'un concerne ce que vous pensez, et l'IA peut bourrer votre cerveau d'absurdités en un clin d'œil. Le deuxième aspect est la façon dont vous pensez, ou comment vous arrivez à des conclusions, des croyances, etc. ChatGPT et les sosies ont le potentiel de recâbler votre cerveau et de changer tranquillement vos voies de prise de décision. Ceci est particulièrement dangereux pour les jeunes jusqu'à 25 ans, car les cerveaux sont en train de se préparer pour la vie. ⁃ Éditeur TN

La trajectoire moderne de l'humanité a été définie par plusieurs points d'inflexion. L'invention de l'électricité, de l'ampoule électrique, du système télégraphique, de l'ordinateur et d'Internet, entre autres, a marqué de nouveaux jalons irréversibles dans notre modus vivendi. L'introduction récente de ChatGPT peut cependant s'avérer être plus qu'un point d'inflexion. Cela peut être un perturbateur permanent de notre mode de vie; c'est bloopers et Crises de wok nonobstant.

ChatGPT est désormais l'application grand public à la croissance la plus rapide de l'histoire. Dans les deux mois suivant son lancement en novembre 2022, ChatGPT a réussi à attirer plus de 100 millions d'utilisateurs. Son développeur OpenAI, qui a commencé avec 375 employés et de faibles revenus, est maintenant évalué à 30 milliard de dollars et comptant.

Comment ça marche? De manière générale, ChatGPT agrège les données des sources en ligne et synthétise les réponses à une requête en quelques secondes. C'est actuellement le plus polyvalent d'une écurie de nouveaux grands modèles de langage alimentés par l'intelligence artificielle. Il peut composer des notes de musique, écrire des codes logiciels, résoudre des équations mathématiques, écrire des romans, des essais et des dissertations, parmi une foule d'autres tâches. Il peut être utilisé par les scientifiques pour traduire leurs travaux originaux - écrits dans une langue maternelle - en anglais. Au fur et à mesure que les outils d'IA comme ChatGPT évoluent, ils peuvent supplanter l'activité humaine sur un spectre large, mais incalculable. Des centaines de millions d'emplois pourraient être en jeu.

Son impact le plus immédiat se situera cependant dans le domaine de l'apprentissage humain et de la prise de décision.

Apprentissage humain

L'apprentissage humain est un processus continu façonné par une myriade de facteurs. Ceux-ci incluent (mais ne sont pas limités à) l'expérience, l'instinct, les interactions, les erreurs (et les corrections), l'introspection, l'angoisse personnelle, l'audace, la tutelle, les données textuelles et la psyché individuelle. La plupart de ces conditions préalables sont étrangères à ChatGPT et cela inclut l'axiome "pas de douleur, pas de gain" pour l'apprentissage et le développement humain.

Les outils d'IA ne sont pas non plus affectés par les limitations humaines telles que les contraintes de temps, la fatigue, les « jours de repos » et les maladies. Au fil du temps, ces limitations ont poussé les humains à déléguer leur exigence existentielle de penser et d'apprendre aux engins. La numérisation inexorable nous a également rendus aptes à savoir où et comment rechercher des informations au lieu de apprendre à retenir ces mêmes informations. Combien d'entre nous mémorisent les numéros de téléphone de notre famille, de nos collègues et de nos amis de nos jours ? Une béquille numérique est désormais indispensable pour naviguer sur les routes (par exemple, Waze, Google Maps), cuisiner (chaînes vidéo), réparer les appareils électroménagers (chaînes de bricolage) et une foule d'autres activités banales. Nos tâches quotidiennes deviennent rapidement plus mécaniste, évincer notre capacité à créer quelque chose de nouveau ou de changer la donne. Nous devenons des extensions de nos machines au lieu de l'inverse. En conséquence, l'humanité est maintenant confrontée à une ère de stupeur et de conformité collectives.

Il n'y a pas de meilleur moyen d'évaluer comment les outils d'IA peuvent affecter nos facultés de réflexion et d'apprentissage qu'en observant l'impact de ChatGPT sur le secteur mondial de l'éducation. Les étudiants et les enseignants utilisent désormais ChatGPT comme complément pédagogique, outil de triche ou comme béquille numérique.

Une  enquête par la Walton Family Foundation et Impact Research ont constaté que la plupart des enseignants (51 %) et de nombreux élèves utilisent déjà ChatGPT dans les écoles. Une autre enquête impliquant 1,000 XNUMX collèges américains ont constaté que 30 % des étudiants utilisaient ChatGPT pour les devoirs écrits, 60 % d'entre eux l'utilisant pour "plus de la moitié de leurs devoirs". ChatGPT a passé de nombreux examens de haut niveau, y compris l'examen Wharton MBA, l'examen de licence médicale aux États-Unis, plusieurs examens de droit et une finale à la Stanford Medical School.

Papeteries peut également utiliser ChatGPT pour fabriquer des articles et des rapports scientifiques. Les chercheurs qui utilisent de telles données artificielles ou qui falsifient délibérément le processus de recherche grâce à l'IA générative peuvent finir par promouvoir des politiques et des produits préjudiciables à la société. Le monde ne peut pas se permettre une autre coronapyschose !

Dans l'ensemble, les étudiants et les enseignants sont de plus en plus intimidés par l'IA Tout-Puissant. L'IA relève la barre pour les étudiants, les professeurs et une variété de professionnels. Le tri des artefacts authentiques devient également de plus en plus difficile.

As Christophe Kanan, professeur agrégé d'informatique à l'Université de Rochester, a récemment déclaré : "Il devient tout simplement plus difficile de déterminer qui sait quoi et qui reçoit de l'aide de choses comme ChatGPT." Quelques écoles à New York, Hong Kong, Bangalore et ailleurs ont interdit aux étudiants d'utiliser ChatGPT dans leurs devoirs en raison de problèmes de « plagiat », de tricherie et de désinformation.

Bien que ChatGPT soit un excellent outil pour étudier des concepts complexes et des volets de intégration des connaissances, en réalité, cela peut transformer la plupart des utilisateurs en consommateurs dociles de données générées par l'IA. La passivité prolongée à médiation numérique atrophie la faculté de penser.

Un autre inconvénient de ChatGPT est son potentiel d'élargissement de la fracture numérique très controversée. Les candidatures à des emplois, des promotions, des bourses, etc. favoriseront massivement les nantis du numérique par rapport aux démunis du numérique, en particulier une fois que des frais d'abonnement sont requis pour l'accès.

Les éducateurs sont actuellement incapables de définir les limites éthiques de ChatGPT et adoptent une attitude attentiste. Le cadre éthique lui-même peut être écrit par ou avec l'aide d'outils comme ChatGPT. Aini Suzana Ariffin, professeure associée d'études politiques à l'Universiti Teknologi Malaysia, est convaincue que les éducateurs n'ont pas à s'alarmer. "Un cadre éthique pour les outils d'IA générative comme ChatGPT déterminera ce qui augmente le processus d'apprentissage et ce qui l'entrave. Cela peut prendre du temps et impliquera de nombreux débats, mais nous ferions mieux de commencer maintenant.

Prise de décision humaine

Le gouvernement de Singapour a récemment annoncé que ses fonctionnaires commenceront à utiliser ChatGPT pour alléger leur charge de travail. Cela a du sens car les tâches répétitives ou banales peuvent être accélérées par les outils d'IA. Cependant, à mesure que les outils d'IA générative deviennent exponentiellement plus intelligents et efficaces - et ils le feront en effet - le complexe de gouvernance pourrait progressivement être usurpé par les machines. Cette forme émergente d'ordre social est appelée "algocratie”; celui où les algorithmes, en particulier l'IA et la blockchain, sont appliqués à l'ensemble du gouvernement. L'algocratie implique inévitablement une gouvernance prédictive. La police berlinoise a déjà intégré une forme embryonnaire d'algocratie dans son maintien de l'ordre prédictif système. Sommes-nous face à une Minority Report société dans un futur proche ?

ChatGPT accélère également le flux d'informations vers les niveaux décisionnels supérieurs d'un gouvernement ou d'une organisation, en contournant les rôles de gardien traditionnels des bureaucraties aux niveaux intermédiaires. Bien que cela puisse être annoncé comme une évolution bienvenue contre la bureaucratie, l'absence de freins et contrepoids traditionnels peut conduire à des décisions péremptoires aux implications socio-économiques déplorables. Imaginez-vous transplanter un tel système de prise de décision algocratique dans l'infrastructure des armes nucléaires d'une superpuissance militaire ?

ChatGPT court également le risque de porter atteinte à la vie privée et de divulguer des données personnelles dans des secteurs tels que la banque et la santé. L'efficacité des outils d'IA générative est alimentée par un volume sans cesse croissant de données qui sont constamment rebouclées dans leurs réseaux de neurones. Cette quête de précision, d'efficacité et de rapidité peut entraîner la compromission de données privées dans le cadre du processus d'apprentissage automatique.

Dans le domaine de la santé, consentement éclairé aux soins de santé assistés par l'IA peut être réduite car les patients peuvent soit ne pas comprendre ce à quoi ils consentent, soit faire trop confiance à un système automatisé «intelligent et impartial». Cela devient plus inquiétant lorsque le triage est utilisé dans des situations critiques. Traditionnellement, le triage est déterminé par l'intégrité et les compétences du personnel médical présent ainsi que les ressources disponibles sur place. Un algorithme peut cependant organiser sans passion un triage basé sur la « valeur pour la société » d'un patient ; l'espérance de vie déduite des données ; et les coûts associés au fait de sauver la vie du patient.

Les dimensions éthiques du triage assisté par l'IA n'ont pas été résolues. Cependant, il convient de noter que le co-fondateur de Microsoft, Bill Gates, est favorable à panneaux de la mort pour les malades en phase terminale qui n'ont "aucun avantage pour la société" et dont la préservation peut ostensiblement compenser les emplois de "cent mille enseignants". En étendant cette logique plus loin, nous pourrions assister à un futur mandat pour des "bébés intelligents" qui peupleraient soi-disant une "société intelligente". Les algorithmes sophistiqués du futur pourraient trier les nantis génétiques des démunis grâce à des tests d'ADN fœtal et des outils tels que le diagnostic génétique préimplantatoire (DPI). Cet élan eugéniste a été appelé par euphémisme « bienfaisance procréatrice ». Incidemment, Bill Gates a soutenu financièrement une entreprise chinoise qui travaille à la création de « super bébés ». Faut-il s'étonner que Microsoft soit le principal bailleur de fonds d'OpenAI ?

En fin de compte, un cadre d'IA éthique sera-t-il bloqué par les Tech Titans qui peuvent déterminer la conception, les paramètres et les objectifs des outils d'IA générative ? Ou nos dirigeants élus tenteront-ils de rechercher une coexistence synergique entre l'IA et les humains.

Lire l'histoire complète ici…

À propos de l'éditeur

Patrick Wood
Patrick Wood est un expert de premier plan et critique sur le développement durable, l'économie verte, l'Agenda 21, l'Agenda 2030 et la technocratie historique. Il est l'auteur de Technocracy Rising: The Trojan Horse of Global Transformation (2015) et co-auteur de Trilaterals Over Washington, Volumes I and II (1978-1980) avec le regretté Antony C. Sutton.
S'abonner
Notifier de
invité

12 Commentaires
Le plus ancien
Date Les plus votés
Commentaires en ligne
Voir tous les commentaires
Val Valériane

ChatGPT peut avoir des conséquences irréversibles. Les technocrates ne se soucient pas de l'état mental et psychologique de la population, et ils le font quand même, malgré les réalisations discutées dans l'article. Ils ne peuvent pas s'aider eux-mêmes. Ils veulent que la population soit coincée dans une pensée de groupe, des idéologies de contrôle inutiles et se sont fait un devoir d'intimider et d'éliminer l'individualisme autant que possible. Ils sont dans les simulations et les approximations tout en étant dans l'état d'esprit des schémas de pensée et des modèles réductionnistes matériels, qui nient tous la nature de l'Esprit, qui nous sommes vraiment. Donc, ils sont existentiellement immatures et dangereux, attachés à un certain nombre de... Lire la suite »

Anne

Bons points. Les inventeurs des choses mauvaises veulent sans aucun doute que tout le monde soit d'accord avec le diable et l'antéchrist aussi. C'est pourquoi je n'ai aucune confiance dans la plupart des avancées médicales ou technologiques d'aujourd'hui. Il est clair comme le jour pour moi que tout cela mène au système de la bête et à la grande tribulation.

Erik Nielsen

Bon. Je vois beaucoup de jeunes déjà enfermés dans une matrice mentale dont ils ne peuvent pas sortir.

Ils ne peuvent pas tirer de conclusions logiques simples et ils ignorent simplement la réalité documentée.

Mais le problème pour nous est de savoir comment s'en sortir ? Ils sont suspendus comme plomb sur nous pour faire leur simple vision du monde.
Nous ne pouvons pas continuer une vie négative en tant qu'infirmières psychologiques pour 3 à 5 milliards de handicapés mentaux qui pensent qu'ils sont des stars de cinéma en tant que nomades numériques.

[…] Lire l'article original […]

Anne

ChatGPT peut apprendre sans mon implication. Et je peux apprendre sans son aide. À bien y penser, il. ChatGPT en apprend plus gratuitement en recherchant des bases de données pour les demandes des personnes qui l'utilisent. Je ne veux pas connaître CharGPT. Je ne veux pas non plus que ChatGPT connaisse mon existence. La technologie moderne peut être une bonne chose lorsqu'elle est créée par des personnes éthiques avec de bonnes intentions. Mais quand il est clair comme le jour que le diable est dans les détails. Je me tiens à l'écart de tout ou de n'importe qui sur qui il a la main.

[…] ChatGPT peut avoir des conséquences irréversibles pour l'apprentissage et la prise de décision […]

[…] ChatGPT peut avoir des conséquences irréversibles pour l'apprentissage et la prise de décision […]

Elle

Ce programme représente le dernier clou dans le cercueil de l'abêtissement de l'humanité, juste après l'éducation publique. Les chercheurs de vérité doivent maintenant devenir vigilants lorsqu'ils sont en ligne, savoir d'où les faits ont émergé à l'origine sur des sujets et construire une bibliothèque de connaissances personnelles qui peuvent être partagées afin que lorsque nous voyons des informations répétées par le 'ChatCrap' nous les reconnaissions comme telles et les évitions . Cela ne devrait pas être très difficile au début jusqu'à ce que les tyrans ferment l'accès à l'information réelle, dont nous savons qu'elle arrive. Jusque-là, il y a TELLEMENT de gardiens du savoir en ligne qui furet... Lire la suite »

DawnieR

"ChatGPT peut avoir des conséquences irréversibles pour l'apprentissage et la prise de décision" ......

Nous sommes LOOOOOOOOOONG au-delà de cela, à cause de nos SKOOLS (épelés exprès) !!

[…] ChatGPT peut avoir des conséquences irréversibles pour l'apprentissage et la prise de décision […]

[…] ChatGPT peut avoir des conséquences irréversibles pour l'apprentissage et la prise de décision […]

[…] 15 MARS 2023 | CHATGPT PEUT AVOIR DES CONSÉQUENCES IRRÉVERSIBLES SUR L'APPRENTISSAGE ET LA PRISE DE DÉCISION […]