Les outils d'IA peuvent être utilisés pour "éditer" et "polir" le travail des auteurs, disent les organisateurs de la conférence, mais le texte "entièrement produit" par l'IA n'est pas autorisé. Cela soulève la question : où tracez-vous la frontière entre l'édition et l'écriture ?
L'une des conférences d'apprentissage automatique les plus prestigieuses au monde a interdit aux auteurs d'utiliser des outils d'IA comme ChatGPT pour rédiger des articles scientifiques, déclenchant un débat sur le rôle du texte généré par l'IA dans le milieu universitaire.
La Conférence internationale sur l'apprentissage automatique (ICML) a annoncé la politique plus tôt cette semaine, déclarant: «Les articles qui incluent du texte généré à partir d'un modèle de langage à grande échelle (LLM) tel que ChatGPT sont interdits à moins que le texte produit ne soit présenté dans le cadre du l'analyse expérimentale de l'article. La nouvelle a déclenché discussion généralisée sur les réseaux sociaux, avec des universitaires et des chercheurs en IA défendant et critiquant la politique. Les organisateurs de la conférence ont répondu en publier une déclaration plus longue expliquant leur pensée. (L'ICML a répondu aux demandes de The Verge pour commentaires en nous dirigeant vers cette même déclaration.)
Selon l'ICML, la montée en puissance de modèles de langage d'IA accessibles au public comme ChatGPT - un chatbot d'IA à usage général qui lancé sur le web en novembre dernier – représente un développement "excitant" qui s'accompagne néanmoins de "conséquences imprévues [et] de questions sans réponse". L'ICML dit que cela inclut des questions sur qui détient la production de ces systèmes (ils sont formés sur les données publiques, qui sont généralement collectées sans consentement et régurgitent parfois ces informations textuellement) et si le texte et les images générés par l'IA doivent être "considérés comme nouveaux ou comme de simples dérivés d'un travail existant".
Cette dernière question est liée à un débat délicat sur la paternité - c'est-à-dire qui "écrit" un texte généré par l'IA : la machine ou son contrôleur humain ? Ceci est particulièrement important étant donné que l'ICML n'interdit que les textes "entièrement produits" par l'IA. Les organisateurs de la conférence se disent pas interdisant l'utilisation d'outils comme ChatGPT "pour éditer ou peaufiner le texte écrit par l'auteur" et notez que de nombreux auteurs utilisaient déjà des "outils d'édition semi-automatisés" comme le logiciel de correction grammaticale Grammarly à cette fin.
« Il est certain que ces questions, et bien d'autres, trouveront une réponse au fil du temps, car ces modèles génératifs à grande échelle sont plus largement adoptés. Cependant, nous n'avons pas encore de réponses claires à aucune de ces questions », écrivent les organisateurs de la conférence.
En conséquence, l'ICML déclare que son interdiction des textes générés par l'IA sera réévaluée l'année prochaine.
Cependant, les questions auxquelles l'ICML s'attaque peuvent ne pas être facilement résolues. La disponibilité d'outils d'IA comme ChatGPT est source de confusion pour de nombreuses organisations, dont certaines ont répondu par leurs propres interdictions. L'année dernière, le site de questions-réponses sur le codage Stack Overflow interdit aux utilisateurs de soumettre des réponses créées avec ChatGPT, tandis que le ministère de l'Éducation de la ville de New York bloqué l'accès à l'outil pour toute personne sur son réseau cette semaine.
Dans chaque cas, il existe différentes craintes concernant les effets néfastes du texte généré par l'IA. L'une des plus courantes est que la sortie de ces systèmes n'est tout simplement pas fiable. Ces outils d'IA sont de vastes systèmes de saisie semi-automatique, formés pour prédire quel mot suit le suivant dans une phrase donnée. En tant que tels, ils n'ont pas de base de données codée en dur de «faits» sur lesquels s'appuyer - juste la capacité d'écrire des déclarations à consonance plausible. Cela signifie qu'ils ont tendance à présenter de fausses informations comme étant la vérité puisque si une phrase donnée sons plausible ne garantit pas sa factualité.
Dans le cas de l'interdiction par ICML des textes générés par l'IA, un autre défi potentiel consiste à faire la distinction entre l'écriture qui n'a été que « polie » ou « éditée » par l'IA et celle qui a été « entièrement produite » par ces outils. À quel moment un certain nombre de petites corrections guidées par l'IA constituent-elles une réécriture plus importante ? Que se passe-t-il si un utilisateur demande à un outil d'IA de résumer son article dans un résumé accrocheur ? Est-ce que cela compte comme du texte fraîchement généré (parce que le texte est nouveau) ou un simple polissage (parce que c'est un résumé des mots que l'auteur a écrits) ?
C'est comme promulguer une loi en 1905 qui autorise les automobiles, mais seulement si elles sont tirées par un cheval.
Interdisez aux auteurs d'utiliser des outils d'IA ! Bonne chance avec ça. Et OJ Simpson est toujours à la recherche du vrai tueur.
J'écoutais juste votre rapport Quickening sur ce sujet et j'ai décidé de commenter ici. (1) Vous indiquez que ChatGPT peut effectuer des contrefaçons profondes de voix off pour les vidéos. Cela pourrait aussi être une ruse de propagande pour que les acteurs de Deep State puissent nier ce qu'ils ont vraiment dit sur les preuves vidéo que nous recueillons. (2) Tout ce dont je peux être certain, c'est que je ne sais pas ce qu'il y a à l'autre bout de l'interface. Qui ou quoi est l'homme derrière le rideau ? Quand est-ce une IA, un humain ou un propagandiste ? Voir aussi le concept de Mécanique... Lire la suite »