Je n'ai jamais voulu pouvoir contrôler l'un de mes appareils avec mes pensées. Je suis parfaitement heureux d'utiliser une interface physique que je peux désactiver, abandonner ou m'éloigner. Et toi? Votre clavier vous retient ? Votre souris vous ralentit ? Voulez-vous simplement penser à un message sans avoir à le feuilleter ? Pourquoi la technologie cyborgienne nous est-elle si fortement imposée ?
Quelqu'un l'a-t-il demandé ? Est-ce que quelqu'un en a besoin?
Dans cet essai, j'examinerai les éthiciens qui s'inquiètent de la technologie Brain Machine Interface (BMI), dont l'utilité projetée serait la capacité de glisser avec votre esprit et de cliquer avec vos ondes cérébrales. Franchement, je ne vois pas de demande pour cela, pas même pour les personnes paralysées, puisque nous avons des interfaces sans chirurgie du cerveau, comme celles utilisées par Stephen Hawking. Aussi, voulons-nous vraiment que nos tweets de rage impulsifs soient envoyés instantanément ?
Non non Non. Ce n'est pas là que cette technologie va. Personne ne veut que BMI effectue des tâches ordinaires d'une nouvelle manière, surtout pas si cela signifie porter un casque bizarre toute la journée ou subir une opération au cerveau. La carotte et le bâton ici sont la promesse de améliorée capacités mentales.
Il semble y avoir une campagne alarmiste coordonnée pour nous convaincre qu'à tout moment maintenant, les légions de cyborgs IA transhumains nous surpasseront mentalement. Donc, tout le monde va devoir obtenir un IMC juste pour suivre le rythme. Malheureusement, lorsque nous ferons cela, notre cerveau sera lisible par toute personne disposant du bon logiciel, et nous ne pourrons pas faire la distinction entre nos propres décisions et celles qui sont implantées dans nos têtes via des appareils sans fil.
Les neuroéthiciens suggèrent que nous devons agir vite, peut-être même réécrire nos Constitutions !
Je trouve que leurs nouvelles suggestions sur les droits neurologiques sont conçues non pas pour nous protéger mais pour limiter les façons dont nous pouvons être violés pour le plus grand bien. Les neuroéthiciens sont des loups déguisés en brebis. Voyons si vous êtes d'accord avec mon évaluation.
Pour le contexte plus large, examinons d'abord ce qu'on appelle le « problème du chariot » dans le domaine de l'éthique. Supposons qu'un homme exploite la station d'aiguillage dans une gare de triage. Si un chariot de train en fuite est sur le point d'enfoncer cinq ouvriers sur une voie, est-il moralement obligé de tirer le levier pour rediriger le chariot afin qu'il ne tue qu'un seul ouvrier sur une autre voie ?
Vous remarquerez peut-être que j'ai apporté un changement significatif à l'image standard, celle-ci a été levée de Wikipédia, illustrant ce dilemme. Mon aiguilleur n'agit pas sous sa propre agence. Il est un représentant du gouvernement, agissant selon une politique ou une procédure standard. C'est pourquoi il est photographié avec un bâtiment gouvernemental derrière lui. Ce changement change tout. Selon le protocole, il doit tuer un gars pour en sauver cinq.
Mais lorsque les actions sont automatisées, il n'y a pas d'agence, et par conséquent, ce que fait l'homme ne peut pas être décrit comme le choix d'agir de manière éthique. Les éthiciens de l'ancien temps, par exemple Thomas d'Aquin ou Kant, soutenaient que la moralité découle de l'agent qui librement décide de l'action, mais aujourd'hui, l'idée qu'un individu a la responsabilité (pas la liberté, pas le droit, mais la responsabilité) choisir entre le bien ou le mal a pratiquement disparu du débat sur l'éthique.
Jose Munoz fait partie du groupe Mind-Brain en Espagne, il est également à Harvard Medical et dans quelques autres endroits vraiment importants. Révision le travail d'un collègue, Nita Farahany, il résume l'approche des neuroéthiciens d'aujourd'hui à un T. Il soutient que nous devons «établir des lignes directrices pour les droits neuronaux». (Lignes directrices, cela semble doux, mais je me demande s'ils auront le genre de pouvoir des directives du CDC, qui ont été mises en œuvre avec toute la force de la loi).
Munoz dit qu'il doit y avoir spirituelle entre les universitaires, les gouvernements, les entreprises et le public. (Je me demande qui va faire toute la conversation dans la discussion ?) Il dit que les « citoyens » doivent avoir un accès garanti à leurs données. (D'accord, je dois franchir quelques étapes pour savoir quelles données ont été collectées sur moi à mon insu ou sans mon consentement, et puis quoi ?)
Je note l'utilisation du mot « citoyens » au lieu de êtres humains or parts.
Il ne veut pas qu'on oublie qu'en tant que citoyens, nous sommes sujets d'un état. Il pense également qu'« une alphabétisation autour de ces données doit être cultivée », ce qui est une manière stupide de dire que les gens doivent savoir ce qu'ils doivent penser de la collecte de données. Quand a-t-on demandé aux gens d'accepter la collecte de données ? La possibilité de refuser d'autoriser tous données à collecter du tout n'est pas sur ce menu de politiques éthiques.
De nos jours, les éthiciens semblent simplement supposer qu'en fin de compte, l'État doit prendre ces décisions en matière d'éthique - sur la base d'un consensus, bien sûr. Donc ça va parce que c'est un démocratique perte d'agence. Bientôt, l'IA optimisera ces décisions pour nous, nous dit-on. L'être humain individuel est devenu un simple instrument par lequel les choix « éthiques » de quelqu'un d'autre sont exécutés. Ce n'est pas éthique. C'est dangereux.
Nous pouvons adapter le problème du chariot à la question de savoir si l'individu doit ou non faire des sacrifices personnels pour le bien de la société. L'illustration ci-dessous montre le genre de logique qui dit que les gens devraient risquer leur vie dans la guerre pour le bien de leur pays, ou prendre un vaccin qui comporte un certain risque parce qu'il est nécessaire pour l'immunité collective.
Dans cet essai, je ne soutiendrai pas que l'individu a le droit être égoïste et décider de ne pas faire de sacrifices personnels pour le bien supposé des autres. Ce n'est pas pour cela que nous devons valoriser la responsabilité individuelle par rapport au bien collectif. Nous valorisons la responsabilité individuelle car, si des individus sont contraints, contraints ou soudoyés à faire des sacrifices pour le bien collectif, il existe un grave danger que l'entité qui a le pouvoir d'imposer une politique puisse utiliser ce pouvoir pour nuire, involontairement ou intentionnellement.
Au moins, lorsque la responsabilité individuelle est accordée, plus de cerveaux sont appliqués aux problèmes et plus d'opportunités existeront pour trouver de bonnes solutions. Voulons-nous vraiment faire la guerre ? Les vaccins sont-ils réellement sûrs et efficaces ? De plus, les erreurs d'un individuel peuvent faire sont généralement confinés à un petit cercle. Les erreurs d'un décideur politique affecte l'ensemble de la population.
Après un cauchemar de trois ans, au cours duquel Les erreurs n'ont pas été commises—pour faire référence à Margaret Anna Alice poème par ce titre, accusant les « philanthropes » et autres dirigeants de démocide intentionnel, nous devrions être sceptiques à l'égard de tout « éthicien » qui nous demande plus de sacrifices pour faire avancer les notions des décideurs politiques d'un plus grand bien. En ce qui concerne le C0vlD, le consensus se développe sur le fait qu'ils se sont trompés sur tout : les confinements, le masquage et l'isolement, le refus d'un traitement précoce et la réutilisation des médicaments, et la promotion d'un vaccin expérimental.
Dernièrement, nous entendons beaucoup parler de la nécessité de redéfinir les droits de l'homme alors que le paysage sociétal s'adapte aux nouvelles technologies qui changent ce que signifie être humain. On prétend qu'une nouvelle « éthique du transhumanisme » est nécessaire pour nous sauver des dangers des pirates informatiques ou des gouvernements et des entreprises qui pourraient vouloir utiliser l'IA pour lire nos pensées et contrôler nos esprits.
Ienca et Andorno, auteurs de "Vers de nouveaux droits de l'homme à l'ère des neurosciences et des neurotechnologies", notent la quantité d'informations actuellement collectées sur les internautes, et ils supposent que les nouvelles technologies collecteront également des données cérébrales. Voici le genre de considérations éthiques auxquelles ils réfléchissent :
« À quelles fins et dans quelles conditions les informations cérébrales peuvent-elles être collectées et utilisées ? Quels composants de l'information cérébrale doivent être légitimement divulgués et rendus accessibles aux autres ? Qui aura le droit d'accéder à ces données (employeurs, assurances, Etat) ? Quelles devraient être les limites du consentement dans ce domaine ?
Ils ne mentionnent même pas l'argument le plus évident selon lequel tous la collecte de données en ligne pourrait être considérée comme une violation de la vie privée. Étrangement, le premier droit dont ils parlent dans cet article est le droit des individus de décider de utilisé neurotechnologies émergentes. Dans leurs discussions, on suppose également que les nouvelles technologies feront ce pour quoi elles sont annoncées. Aucune discussion sur la nécessité d'études à long terme ou de tests pour d'éventuelles erreurs technologiques. Rappelons que l'autorisation d'utilisation d'urgence du vaccin C0vld était justifiée car il était dit que les gens devraient avoir le droit d'utiliser une technologie non testée si ils veulent.
Dans sa discussion sur les neurodroits poussés au Chili, Whitney Webb note que les pauvres et les privés de leurs droits sont amenés à l'avant de la ligne de volontaires de l'essai BMI.
Il se trouve que je pense que les adultes devraient pouvoir opter pour de nouvelles thérapies, éventuellement dangereuses, obtenir des implants mammaires double D, se suicider, consommer de l'héroïne, se prostituer ou se castrer, s'ils le souhaitent librement. Mais je ne pense pas qu'il soit éthique d'encourager ou de permettre à quiconque de s'automutiler. Une société éthique essaie généralement d'aider les gens à voir qu'ils peuvent avoir d'autres options. Nous ne voulons pas encourager les gens à prendre des risques, certainement pas des risques inutiles.
Ienca et Andorno nous informent également que…
La plupart des droits de l'homme, y compris le droit à la vie privée, sont relatifs, en ce sens qu'ils peuvent être limités dans certaines circonstances, à condition que certaines restrictions soient nécessaires et constituent un moyen proportionné d'atteindre un objectif légitime. En traitant spécifiquement du droit au respect de la vie privée, la Convention européenne des droits de l'homme stipule que ce droit admet certaines restrictions "pour la prévention de l'ordre ou du crime, pour la protection de la santé ou de la morale, ou pour la protection des droits et libertés d'autrui ' (art. 8, al. 2).
Cela donne l'impression que les Européens n'ont pas le droit à la vie privée ; ils ont des privilèges qui peuvent leur être retirés chaque fois que l'État le juge nécessaire.
Il est bien connu que le godzillionaire Elon Musk, abandonnant ses prétentions au libertarianisme, veut que les réglementations gouvernementales sur l'IA, alors même qu'il vante sa technologie invasive Neuralink AI, soient implantées de manière irréversible dans le cerveau humain afin de les lire. Jusqu'à présent, les primates de test n'ont pas si bien réussi, et l'automne 2022 Montrer et dire était décevant à l'extrême. Un problème, parmi les nombreux qu'ils ont eu, était que les schémas d'ondes cérébrales du primate pour une lettre particulière que l'IA a apprise un jour, se sont transformés en un schéma différent cinq ou six jours plus tard.
Il y a bien longtemps, Héraclite avait déjà compris qu'on ne se baignait jamais deux fois dans le même fleuve. Tous les processus biologiques sont dynamiques et en constante évolution, en particulier les ondes cérébrales émergentes ; ils doivent l'être parce que le monde l'est aussi. Les êtres vivants doivent continuer à changer juste pour rester plus ou moins les mêmes. Les algorithmes informatiques, pas même ceux de Deep Learning, ne sont pas aussi plastiques que les ondes cérébrales.
Depuis l'époque de ce Show & Tell grinçant, Neuralink a été refusé l'autorisation de s'attaquer à des sujets humains, pour le moment. Mais je doute que cela empêchera le mauvais argent qui a été jeté sur cette technologie d'attirer plus d'argent bon. Les investisseurs doivent récupérer leur argent de pompe avant de jeter. La FDA viendra.
Je ne suis pas contre le progrès technologique de la transhumanité qui aide les gens à surmonter les difficultés. Les bras bioniques sont géniaux et même la régénération des membres semble être une excellente idée à poursuivre avec soin. Mais quelque chose ne va pas avec cette discussion sur la technologie BMI et les droits neurologiques.
Cette année, Nita Farahany, professeur de droit et de philosophie et nuéroéthicienne autoproclamée à l'Université Duke, a fait la promotion de son nouveau livre, La bataille pour votre cerveau : défendre le droit de penser librement à l'ère des neurotechnologies, qui ne défend rien de tel. Dans ce livre, elle ne donne pas de conseils pour aider les gens à prendre les meilleures décisions éthiques pour eux-mêmes et leurs familles. Elle essaie de vendre des normes éthiques pour être imposé sur nous tous.
Dans son livre et dans un parler lors d'une réunion du Forum économique mondial à Davos, Farahany opine avec une langue fourchue. Par exemple, tout en défendant initialement l'idée d'intimité mentale et de « liberté cognitive » (Oh, mon frère, faut-il qu'ils inventent de nouveaux termes si maladroits ?), elle concède rapidement que ce n'est pas un droit absolu - car, après tout, l'une des choses les plus élémentaires que nous faisons en tant qu'humains est d'essayer de comprendre ce que pensent nos semblables. Nous devons trouver un équilibre, soutient Farahany, entre les intérêts individuels et sociétaux. Cela signifie que les décideurs doivent décider quels droits vous devez abandonner.
Par exemple, elle dit que ce pourrait être une bonne idée de faire porter aux camionneurs des appareils EEG pour surveiller la fatigue, pour le bien collectif. S'ils s'endorment au volant, ils pourraient potentiellement tuer cinq ou six personnes. Puis-je suggérer plutôt que les camionneurs soient raisonnablement bien payés pour le travail qu'ils font, afin qu'ils ne veuillent pas conduire plus de huit heures par jour? Alternativement, pouvons-nous obliger nos représentants politiques à se soumettre à une surveillance constante de tous leurs e-mails et appels téléphoniques et même de leurs conversations en personne ? Parce que leurs décisions pourraient potentiellement tuer des millions de personnes.
Farahany fait l'éloge des appareils personnels qui surveillent les données biologiques pour leur potentiel à fournir aux travailleurs des données quantitatives sur leurs performances afin qu'ils puissent faire des "améliorations personnelles éclairées". Le fait que les FitBits soient si populaires, affirme-t-elle, indique que les gens sont enthousiastes à l'idée d'être surveillés et notés. Mais je suis à peu près sûr que les employés des entrepôts d'Amazon ne réclament pas d'appareils de neurofeedback qui les aideront à être plus rentables pour les actionnaires.
La surveillance forcée et la fausse évaluation quantitative sont contraires à l'éthique, je pense.
Farahany admet qu'une telle surveillance doit être volontaire et croit que les employés voudront accepter ces appareils pour s'améliorer. Aujourd'hui, nous avons quelque chose de semblable avec l'assurance automobile; les gens obtiennent des taux inférieurs s'ils acceptent d'être surveillés pendant qu'ils conduisent. Mais chaque fois qu'il y a une récompense offerte pour avoir sacrifié la vie privée, ce n'est pas éthique. C'est coercitif. Les pauvres seront plus susceptibles de se soumettre que les riches.
Le suivi des performances des employés est-il même utile ?
Comme Yagmur Denizhan soutient dans "l'éducation simulée et les technologies illusoires", lorsque les gens sont placés dans des situations où ils sont jugés sur les points gagnés - et non sur des évaluations qualitatives plus générales et holistiques - les plus rusés se concentrent rapidement sur le jeu du système afin qu'ils puissent gagner plus de points, avec moins d'efforts et un travail de moindre qualité. Mais Farahany ne remet jamais en question l'hypothèse selon laquelle soumettre les employés à des commentaires négatifs et positifs sera bon pour la productivité.
[…] Lien source […]
Seuls les zombies en voudront. Après tout, ils ont littéralement du schitt pour le cerveau !!
Les gens doivent VRAIMENT se rendre compte que tout le monde sur la planète Terre n'est pas humain !! Il y a TROIS types d'êtres (n'incluant pas les animaux) qui marchent sur cette Terre… ..
1) HUMAINS (nous sommes la MINORITE)
2) Zombies (NON Humains)
3) Démons (NON Humains)
C'est la RÉALITÉ dans laquelle nous vivons ! Comprenez-le…….CONNAISSEZ-LE !