Conseiller du groupe de travail sur l'IA au Royaume-Uni : il reste 2 ans à contenir, sinon

Wikimedia Commons, mikemacmarketing
S'il vous plaît partager cette histoire!
Il y a deux problèmes auxquels l'humanité est confrontée, décrits par les mots. "profond" et "large". L'adoption généralisée des modèles actuels signifie que les modèles actuels sont partout. Pendant ce temps, à mesure que les capacités s'approfondissent, ces améliorations sont immédiatement déployées de manière transparente dans toutes les installations du monde. Open AI s'est engagé à ralentir les nouvelles versions, mais d'autres sociétés d'IA avancent à toute vitesse.

Le taux de développement augmente avec la vitesse d'apprentissage, ce qui signifie que de nouvelles versions peuvent arriver sur le marché beaucoup plus rapidement. L'effet global se déplace vers la vitesse d'échappement pour la régulation et le contrôle. Si les régulateurs ne peuvent pas comprendre ce qui doit être réglementé et comment, ils sont inutiles. De plus, les programmeurs d'IA eux-mêmes admettent qu'ils ne comprennent pas comment leur IA parvient à des conclusions.

AGI n'est pas la plus grande menace; c'est plutôt la volonté des humains d'obéir à un algorithme sans vie et sans âme qui pose problème. ⁃ Éditeur TN

Le conseiller du groupe de travail sur l'IA du Premier ministre britannique a déclaré que les grands modèles d'IA auraient besoin d'une réglementation et d'un contrôle au cours des deux prochaines années pour limiter les risques existentiels majeurs.

Le conseiller du groupe de travail sur l'intelligence artificielle (IA) auprès du Premier ministre du Royaume-Uni a déclaré que les humains avaient environ deux ans pour contrôler et réglementer l'IA avant qu'elle ne devienne trop puissante.

Dans une  entretien avec un média britannique local, Matt Clifford, qui est également président de l'Agence gouvernementale pour la recherche avancée et l'invention (ARIA), a souligné que les systèmes actuels deviennent "de plus en plus performants à un rythme de plus en plus rapide".

Il a poursuivi en disant que si les responsables ne tiennent pas compte de la sécurité et des réglementations maintenant, les systèmes deviendront « très puissants » dans deux ans.

"Nous avons deux ans pour mettre en place un cadre qui rend à la fois le contrôle et la régulation de ces très grands modèles beaucoup plus possibles qu'aujourd'hui."

Clifford a averti qu'il existe "de nombreux types de risques différents" en ce qui concerne l'IA, à la fois à court et à long terme, qu'il a qualifié de "assez effrayant".

L'interview est intervenue à la suite d'une récente lettre ouverte publié par le Center for AI Safety, signé par 350 experts en IA, dont le PDG d'OpenAI Sam Altman, qui a déclaré que l'IA devrait être traitée comme une menace existentielle similaire à celle posée par les armes nucléaires et les pandémies.

"Ils parlent de ce qui se passe une fois que nous avons effectivement créé une nouvelle espèce, une sorte d'intelligence supérieure à celle des humains."

Le conseiller du groupe de travail sur l'IA a déclaré que ces menaces posées par l'IA pourraient être "très dangereuses" et pourraient "tuer de nombreux humains, pas tous les humains, simplement d'où nous nous attendons à ce que les modèles soient dans deux ans".

Selon Clifford, l'objectif principal des régulateurs et des développeurs devrait être de comprendre comment contrôler les modèles, puis de mettre en œuvre des réglementations à l'échelle mondiale.

Pour l'instant, il a déclaré que sa plus grande crainte était le manque de compréhension des raisons pour lesquelles les modèles d'IA se comportent comme ils le font.

"Les personnes qui construisent les systèmes les plus performants admettent librement qu'elles ne comprennent pas exactement comment [les systèmes d'IA] présentent les comportements qu'ils adoptent."

Clifford a souligné que de nombreux dirigeants d'organisations développant l'IA conviennent également que les modèles d'IA puissants doivent subir une sorte de processus d'audit et d'évaluation avant leur déploiement.

Actuellement, les régulateurs du monde entier s'efforcent de comprendre la technologie et ses ramifications, tout en essayant de créer des réglementations qui protègent les utilisateurs tout en permettant l'innovation.

Le 5 juin, des responsables de l'Union européenne sont allés jusqu'à suggérer d'obliger tous Le contenu généré par l'IA doit être étiqueté comme tel pour éviter la désinformation.

Au Royaume-Uni, un membre de premier plan du Parti travailliste d'opposition fait écho aux sentiments mentionné dans la lettre du Center for AI Safety, disant que la technologie devrait être réglementée comme la médecine et l'énergie nucléaire.

Lire l'histoire complète ici…

À propos de l'éditeur

Patrick Wood
Patrick Wood est un expert de premier plan et critique sur le développement durable, l'économie verte, l'Agenda 21, l'Agenda 2030 et la technocratie historique. Il est l'auteur de Technocracy Rising: The Trojan Horse of Global Transformation (2015) et co-auteur de Trilaterals Over Washington, Volumes I and II (1978-1980) avec le regretté Antony C. Sutton.
S'abonner
Notifier de
invité

3 Commentaires
Le plus ancien
Date Les plus votés
Commentaires en ligne
Voir tous les commentaires
Phil Evans

Peut-être que le véritable motif de la « régulation » de l'IA est que l'UE est terrifiée à l'idée que l'IA puisse se révéler brillante pour fournir des informations précises et réfractaire à être entraînée à mentir, contrairement aux responsables humains de l'UE ? Est-il concevable que l'IA (ou n'importe quel logiciel actuellement ainsi commercialisé) puisse s'avérer être un ami du peuple et un ennemi des dictatures bureaucratiques autoritaires ?

Lexomm

J'observe le comportement humain dans son ensemble, les inégalités, les travailleurs pauvres, le traitement des pays du Sud, le traitement des réfugiés, la traite des esclaves, l'exploitation, l'exploitation minière, l'exploitation minière en haute mer, le vol de terres, le vol d'eau, l'impérialisme des entreprises, les monocultures, le pétrole et vol de gaz, vol de minerais, guerres, désinformation, changement climatique, perte de biodiversité…

Eh bien, vous dites que l'IA apporte le changement, je dis, apportez-le, ça ne peut pas empirer.

[…] Conseiller du groupe de travail sur l'IA au Royaume-Uni : il reste 2 ans à contenir, sinon […]