Les futuristes ne se contentent pas de prédire les événements à venir. Ils cherchent aussi à les façonner. Chaque prédiction est conçue pour provoquer un changement dans une certaine direction, que ce soit par des promesses audacieuses ou des prophéties apocalyptiques.
Par exemple, lorsque vous entendez des avertissements selon lesquels l'intelligence artificielle pourrait déjouer l'humanité et nous détruire tous, ou plus précisément, si vous croyez ces affirmations, vous n'avez d'autre choix que de repenser votre stratégie à long terme. Peut-être que vous cassez les machines de manière préventive. Ou peut-être que vous apprenez à l'IA à être gentille, puis bloquez une marche Neuralink dans votre cerveau pour suivre la conversation.
Dans la mesure où nos décisions immédiates sont guidées par ces futurs imaginaires, nous sommes tous des outils involontaires du futuriste.
Après le crash spectaculaire de l'échange de crypto-monnaie FTX, les philosophies jumelles de «l'altruisme efficace» et du «longtermisme» ont envahi la conscience publique. Comme une infestation de termites eusociaux, une fois que vous remarquez le premier altruiste efficace rampant autour de la maison, vous commencez à les voir partout.
L'altruisme efficace est un mouvement académique obtus axé sur l'aide à un grand nombre de personnes, ou peut-être toutes les entités conscientes, à l'échelle mondiale. Une proposition populaire consiste à accumuler autant d'argent que possible, puis à le donner à des œuvres caritatives. Ces stratégies reposent souvent sur des types de calculs élaborés et des cadres éthiques alambiqués que seuls les « experts » pourraient concocter.
Le long-termisme prend cette balle bienfaisante et court avec elle dans un futur lointain. Ses partisans imaginent comment nos actions altruistes d'aujourd'hui pourraient profiter à tous les esprits conscients qui finiront par exister. En théorie, cela inclut des milliers de milliards d'humains vivant dans l'espace, ainsi que des téléchargements d'esprit et des robots d'IA vivant dans de vastes simulations numériques.
Vous pouvez avoir des problèmes aujourd'hui. Mais si nous voulons être sérieux à propos de l'utilitarisme, la priorité morale la plus élevée appartient à tous les envahisseurs cyborgs de l'espace encore à venir. Désolé, mais en fin de compte, ils sont plus nombreux que vous.
En pratique, ces philosophies semblent impliquer beaucoup de signaux de vertu et dépenser l'argent des autres. Sam Bankman-Fried, le leader gras et négligent de FTX projetée ces idéologies désintéressées comme écran de fumée pour son système crypto Ponzi, où il fraudé investisseurs de milliards. Bankman-Fried a assuré à ses clients, et au monde entier, qu'il utiliserait ses profits gargantuesques pour aider à sauver l'humanité de la prochaine pandémie ou une guerre nucléaire, ou les deux.
Au lieu de cela, il a gaspillé tout l'argent sur les manoirs et autres luxes, a perdu son temps sur les jeux vidéo, a détruit son cerveau avec des médicaments exotiques d'amélioration cognitive et a apparemment hébergé orgies bizarres du repoussant nouveau riche. Du bon côté, son scandale hilarant a fait la lumière sur les mouvements intellectuels qui l'ont engendré, démasquant l'arrogance délirante qui sous-tend l'altruisme efficace, le long terme et la plupart des théories d'élite.
Comme je l'ai mentionné, les deux écoles philosophiques sont utilitaire. Les défenseurs cherchent à maximiser le bonheur pour le plus grand nombre de personnes - ou dans des versions plus universelles, le plus grand nombre d'êtres sensibles - y compris tous les animaux et les futurs esprits numériques. Semblable à l'ancienne croyance selon laquelle les dieux ont besoin de sang pour faire pousser les récoltes, ils admettent cependant que des sacrifices doivent être faits. Comme le écrivain Walter Duranty dit de la collectivisation communiste en 1933, "Pour le dire brutalement, vous ne pouvez pas faire une omelette sans casser des œufs."
À titre d'exemple hypothétique, si vous vouliez arrêter une pandémie mortelle, alors pour le bien de toute l'humanité, vous devriez enfermer chez eux les personnes qui refusent le vaccin. S'ils continuaient à se faufiler, vous enverriez des flics pour les battre à mort ou peut-être les enfermer dans des camps de quarantaine. Quand la poussée vient aux coups forcés, tuez-les tous avec gentillesse.
Plus intéressant encore, les deux philosophies se chevauchent également et dérivent du transhumanisme - ce tristement célèbre techno-culte dont les membres croient que les humains seront comme des dieux en fusionnant avec des machines. L'université d'Oxford a été le creuset d'un altruisme efficace et d'un longtermisme, où le philosophe bien payé et transhumaniste avoué Nick Bostrom a eu un impact décisif sur le mouvement.
Bostrom est surtout connu pour avoir averti que l'intelligence artificielle est un "risque existentiel" pour l'humanité dans son livre de 2014 Superintelligence : Chemins, Dangers, Stratégies. Ses idées étaient extrêmement influent sur le transhumaniste le plus riche du monde, Elon Musk, qui suggère d'implanter des interfaces cerveau-ordinateur pour suivre le rythme de l'intelligence artificielle.
Bostrom est également membre fondateur du Future of Humanity Institute, situé à Oxford, auquel Musk don 1 million de livres sterling. Les futuristes peuvent toujours utiliser plus d'argent pour nous sauver de l'avenir qu'ils prédisent.
Cette transition des élites du techno-optimisme à l'altruisme blanchi à la chaux des entreprises est évidente dans les agendas mondiaux établis au Forum économique mondial. En 2016, le président du WEF, Klaus Schwab, a publié La quatrième révolution industrielle, dans lequel il annonce la « fusion des mondes physique, numérique et biologique ».
Quatre ans plus tard, son odieux tract La Grande Réinitialisation a identifié la pandémie de COVID-19 comme une « opportunité sans précédent » pour accélérer cette révolution technologique. Naturellement, les gens normaux à travers la planète étaient furieux. Ainsi, en décembre 2021, Schwab a rassuré tout le monde sur les bonnes intentions des élites avec un volume de suivi intitulé Le grand récit.
"Ce récit émergent est des plus utiles car il montre que cette capacité à prendre soin", ont écrit lui et son co-auteur, "peut être exploitée pour le bien social".
Pour le dire autrement, votre cœur qui saigne peut être utilisé comme une batterie pour alimenter la Machine.
Longtermisme et altruisme efficace est apparu pour la première fois sur mon radar en août dernier, quand Elon Musk a tweeté une fiche pour le livre à paraître de William MacAskill Ce que nous devons à l'avenir. "Cela plaide en faveur du long terme", a écrit le philosophe d'Oxford, "l'idée qu'affecter positivement l'avenir à long terme est une priorité morale clé de notre époque". Incidemment, MacAskill était aussi un mentor à Bankman-Fried, et a conseillé FTX sur la voie mystique de l'altruisme efficace.
"Ça vaut la peine d'être lu", a répondu Musk, rompant avec ses vagues auto-descriptions habituelles. "C'est un match proche de ma philosophie."
A lire. C'est très proche de ma philosophie. https://t.co/cWEM6QBobY
- Elon Musk (@elonmusk) le 2 août 2022
En un éclair, la dernière interview de Musk sur TED avait beaucoup plus de sens. "SpaceX, Tesla, Neuralink et la Boring Company sont de la philanthropie", a-t-il insisté.
Tesla accélère l'énergie durable. C'est un amour, la philanthropie. SpaceX tente d'assurer la survie à long terme de l'humanité avec une espèce multi-planète. C'est l'amour de l'humanité. Vous savez, Neuralink essaie d'aider à résoudre les lésions cérébrales et les risques existentiels avec l'IA. Amour de l'humanité.
Pourquoi a-t-il acheté Twitter ? "Je pense que le risque civilisationnel diminue plus nous pouvons accroître la confiance dans Twitter en tant que plate-forme publique", a-t-il répondu.
Peu de temps après le tweet de « philosophie personnelle » de Musk, les algorithmes de Twitter m'ont présenté le travail d'Émile Torres. Cette personne peut se situer à l'extrême gauche du spectre politique, mais j'admets volontiers que Torres est un excellent écrivain. Les articles du philosophe dans Temps infini et Salon exposer les idées de base du longtermisme, que Torres appelle « le credo laïc le plus dangereux du monde ». En tant qu'ancien militant de longue date qui a quitté le mouvement avec dégoût, Torres le saurait.
Ce train fou futuriste part dans une gare tranquille où tout le monde travaille pour augmenter le bonheur général et diminuer la souffrance, en adoptant toujours une vision à long terme. Cependant, plus nous avançons, dépassant les armes biologiques génocidaires et les terminateurs robotiques - parallèlement aux solutions proposées à ces événements au niveau de l'extinction - la quête du bien-être déraille.
"Le long terme pourrait être l'une des idéologies les plus influentes dont peu de gens en dehors des universités d'élite et de la Silicon Valley ont entendu parler", a écrit Torres dans Temps infini. « Le fait crucial qui échappe aux longtermistes est que la technologie est beaucoup plus susceptible de provoquer notre extinction avant cet événement futur lointain que de nous en sauver. »
Torres est tellement sur place ici, je suis enclin à ignorer ces pronoms embêtants "ils / eux" dans la bio Twitter. De telles querelles quotidiennes semblent mesquines face à une techno-dystopie dysfonctionnelle.
Comme nous l'avons appris de la récente panique pandémique, le « remède » est souvent pire que le mal. C'est la différence entre tousser dans sa manche et porter trois masques pour aller chercher son dixième rappel. Le long terme et l'altruisme efficace sont des incarnations comiques de tels extrêmes. Ils commencent par quelques moustiquaires pour les enfants affamés en Afrique et se terminent par tout voir poussière intelligente réunis sous ton lit.
Pour illustrer, Nick Bostrom a argumenté pour un système de surveillance mondial incontournable, qui implique que chaque citoyen porte des «étiquettes de liberté» qui alimentent les «stations patriotes» afin que les gouvernements puissent identifier les menaces potentielles au niveau de l'extinction, telles que la superintelligence artificielle illicite ou les essaims de nanobots gluants gris fabriqués dans des sous-sols. Et il ne faisait que commencer.
In Superintelligence, Bostrom a lancé un curieux plan à long terme pour augmenter le QI moyen et réduire la stupidité humaine : fertiliser une armée de fœtus in vitro, cribler leurs codes génétiques, sélectionner les spécimens suprêmes, les implanter chez de vraies femmes ou les faire gestation en masse dans des utérus artificiels, et puis jetez les rejets dans des bacs à déchets biologiques. Il ne semble jamais s'inquiéter d'engendrer une couvée de sociopathes sans émotion, mais alors, c'est peut-être le but.
Vous voulez des omelettes ? Mieux vaut casser des œufs.
Nous voyons déjà des programmes d'eugénisme similaires en cours dans le mouvement nataliste obsédé par l'intelligence. Sam Altman, le magnat de la technologie gay qui a cofondé OpenAI avec Elon Musk, a investi dans la société Genomic Predictor, qui filtre les zygotes indésirables, et une autre appelée Conception. D'après un fascinant Business Insider exposer, cette dernière startup "prévoit de faire pousser des ovules humains viables à partir de cellules souches et pourrait permettre à deux mâles biologiques de se reproduire".
Dans le même ordre d'idées, Vitalik Buterin (le co-fondateur de la crypto-monnaie Ethereum, un booster FTX notable, et encore un autre nœud dans le mouvement de l'altruisme efficace) récemment suggéré que les bébés doivent être mis en gestation dans des bio-sacs en plastique pour protéger les droits des femmes :
Les disparités de réussite économique entre les hommes et les femmes sont beaucoup plus importantes une fois que le mariage + les enfants entrent en ligne de compte. Des utérus synthétiques supprimeraient le lourd fardeau de la grossesse, réduisant considérablement les inégalités.
Sur une période suffisamment longue - et avec suffisamment de capital pour se regarder le nombril sans interruption - les longtermistes et les altruistes efficaces pourraient concocter le plan suicidaire ultime pour éliminer la douleur. Ils ont déjà un bon départ.
Il y a quelques années, William MacAskill affirmait «Pour vraiment mettre fin à la souffrance animale, le choix le plus éthique est de tuer les prédateurs sauvages (notamment Cecil le lion).” Sonnant comme un bouddhiste de banlieue en train de faire un bad trip sous acide, le maigre végétarien a expliqué :
En tuant les prédateurs, nous pouvons sauver la vie de nombreuses proies comme les gnous, les zèbres et les buffles de la région qui seraient autrement tués. … Et il n'y a aucune raison de considérer la vie des prédateurs comme les lions comme plus importante que celle des proies.
Il n'est pas difficile d'imaginer cette campagne d'extermination s'étendant à des hommes humains hyper-agressifs. Ou, avec les progrès des gamètes dérivés de cellules souches, vous pourriez vous débarrasser complètement des mâles. Tant que nous philosophons, pourquoi ne pas appliquer cette norme aux philosophes autistes ? S'ils prenaient un jour le contrôle du monde, disons, par le biais d'une infrastructure technologique mondiale, ils causeraient bien plus de souffrances que n'importe quel prédateur sauvage.
Une grande partie de la pensée de MacAskill et de l'altruisme efficace dans son ensembleQuoi hérité du philosophe Peter Singer. Au début des années 90, Singer célèbre argumenté que les nourrissons, en particulier les handicapés, sont une proie facile pour l'avortement jusqu'à trente jours après la naissance. La prémisse était que cela réduirait la souffrance à la fois des parents surchargés et de leurs enfants potentiellement retardés. C'est juste une question de calcul moral.
Rejetant toute considération pour le sacré ou le profane, la philosophie de Singer traite la bonté humaine pour tout ce qu'elle vaut, aussi aigre que puisse être ce lait. Si nous ne tuons pas des bébés difformes et des vieillards inutiles, pour leur propre bien, nous devrions libérer les animaux de la ferme.
"Le seul point d'arrêt justifiable pour l'expansion de l'altruisme est le point où tous ceux dont le bien-être peut être affecté par nos actions sont inclus dans le cercle de l'altruisme", écrit-il dans son livre de 1981. Le cercle en expansion. "Cela signifie que tous les êtres ayant la capacité de ressentir du plaisir ou de la douleur devraient être inclus."
Aujourd'hui, alors que la quatrième révolution industrielle se déroule à travers la planète, Singer a également étendu son extrémisme altruiste à la vie artificielle. Il a récemment expliqué cette position sur un Big Think épisode:
Si nous créons des robots qui sont à notre niveau, alors je pense que nous devrions leur donner, vraiment, les mêmes droits que nous avons. Il n'y aurait aucune justification à dire : "Ah oui, mais nous sommes une créature biologique et vous êtes un robot." Je ne pense pas que cela ait quoi que ce soit à voir avec le statut moral de l'être.
Pour récapituler, les nouveau-nés méritent moins de statut moral que les animaux de ferme, tandis que les robots méritent les droits de l'homme. Vous ne pouvez pas arrêter le progrès !
En ce qui concerne la valeur morale des esprits artificiels, MacAskill avance des arguments similaires. Dans son article de 2021 «Les arguments en faveur d'un longtermisme fort", co-écrit avec Hilary Greaves pour le Global Priorities Institute, il estime que la "sensibilité numérique" devrait élargir le bassin d'esprits futurs de manière exponentielle, atteignant un maximum d'environ 10 ^ 45 - ou un quattuordécillion - d'âmes numériques s'étendant à travers la Voie lactée.
Si vous pesez cet avenir cybernétique surpeuplé par rapport à nos besoins et désirs actuels, c'est tout un problème moral.
"En supposant qu'en moyenne les gens ont une vie de bien-être significativement positif", écrivent MacAskill et Greaves, "selon un utilitarisme total, l'existence de l'humanité est nettement meilleure que sa non-existence, à un moment donné. En combinant cela avec le fait que les deux états sont persistants, une extinction humaine prématurée serait astronomiquement mauvaise.
L'implication est horrible. Si notre objectif moral est de profiter au plus grand nombre d'êtres possibles, alors il est de notre devoir moral d'éviter l'extinction - comme les impacts d'astéroïdes ou la superintelligence artificielle maligne - par tous les moyens nécessaires.
Poussé à sa conclusion logique, un tel raisonnement moral justifierait tout, depuis affamer les populations actuelles afin de nourrir la Machine pour les futurs esprits numériques, jusqu'à anéantir les masses entassées qui sont trop stupides pour comprendre à quel point cette Machine est vraiment importante.
Après tout, que valent les 8 milliards de dumdums qui vivent aujourd'hui par rapport à la quattuordécillion des âmes numériques qui ne sont pas encore nées ?
Voulez-vous coloniser la galaxie ou non ?

Ziggy Stardust et les araignées qui ont colonisé Mars
L'effondrement du marché de FTX, associé à la rhétorique moraliste de Sam Bankman-Fried, nous donne une indication de l'endroit où le long terme et l'altruisme efficace peuvent nous mener en tant que philosophies dominantes. Tout d'abord, nous voyons à quel point tous ces signaux de vertu d'entreprise sont vraiment insipides. Alors que la tempête de feu se préparait, Bankman-Fried était demandé par SMS par une Vox enquêteur—qui est elle-même une altruiste efficace- si "l'éthique" est "principalement une façade". Il a répondu:
ouais
je veux dire que ce n'est pas *tout*
mais c'est beaucoup
Il a poursuivi en expliquant:
c'est ce dont sont faites les réputations, dans une certaine mesure
je me sens mal pour ceux qui se font baiser par ça
par ce jeu stupide, nous avons réveillé les occidentaux jouer où nous disons tous les bons shiboleths et donc tout le monde nous aime
La deuxième chose que la débâcle FTX nous montre, en introduisant le long terme et l'altruisme efficace dans la conscience publique, c'est à quel point ce type d'idéologie est omniprésent parmi nos élites technologiques, universitaires et économiques. Culture « réveillée », folie covidienne, philanthropie radicale – tout cela est une nouvelle version d'une ancienne arnaque :
« Si vous n'obéissez pas aux pouvoirs en place, vous devez être une personne égoïste. En fait, vous n'êtes pas du tout une « personne ».
Enfin, ce scandale montre à quel point nos élites sont facilement dupes et à quel point elles nous croient stupides. FTX a été hype par tout le monde de Sequoia Capital et a établi des professeurs d'Oxford aux insulaires comme Bill Clinton et Tony Blair. Alors même que les mensonges se déroulent sous nos yeux, les les nouveautés Wall Street Journal continuer à transformer toute l'affaire en une série de décisions commerciales malheureuses. Actuellement, Bankman-Fried est encore prévu de parler au NYT DealBook Summit aux côtés de Janet Yellen, Mark Zuckerberg et Volodymyr Zelensky.
Les fous dirigent vraiment l'asile, et si vous osez crier à leur folie, ils vous mettront dans une camisole de force et vous injecteront des tranquillisants. Il est grand temps de voler les clés et de s'échapper de ce cinglé. Et s'il reste un peu d'esprit en nous, nous laisserons l'asile brûler derrière nous.
[…] Lire l'article original […]
[...] https://www.technocracy.news/longtermism-and-effective-altruism-are-the-new-faces-of-transhumanism/ [...]
« Pourquoi a-t-il acheté Twitter ? "Je pense que le risque civilisationnel diminue plus nous pouvons accroître la confiance dans Twitter en tant que plate-forme publique", a-t-il répondu.
En d'autres termes, un pot de miel pour la liberté d'expression. Autorisez la liberté d'expression et poursuivez les orateurs. Facile.
Ils sauvent LEUR civilisation, pas celle dans laquelle vous vivez… ou dans laquelle vous avez vécu.
[…] Lire l'histoire complète ici… https://www.technocracy.news/longtermism-and-effective-altruism-are-the-new-faces-of-transhumanism/ [...]
[…] Le « long terme » et « l'altruisme effectif » sont les nouveaux visages du transhumanisme […]