Projet:Observatoire des IA/Règlementation/Contrôle des textes générés par IA
L'usage de générateurs de texte fondés sur les grands modèles de langage (acronyme anglais LLM), peut poser des problèmes sur Wikipédia aussi bien dans la réalisation de contenu que dans leur préparation.
Étant données les lacunes de ces technologies, tout texte généré par une IA identifiable comme tel doit être supprimé ou réécrit. Un mésusage peut entamer la confiance accordée à vos contributions par la communauté des wikipédiens et celle du lecteur envers l'encyclopédie entière[1].
Ces technologies impliquent notamment des risques d'infraction aux règles de l'encyclopédie pouvant impliquer des mesures de contrôle de type administratif. Par-delà l'infraction aux règles, il est recommandé aux utilisateurs d'acquérir les compétences adaptées et de suivre les préconisations découlant de principes de précaution face aux problèmes intrinsèques de ces technologies, de transparence dans leur utilisation et de responsabilité personnelle sans se décharger sur la communauté pour régler les soucis.
Risques d'infraction aux règles
modifierLes règlementations à considérer sont les conditions d'utilisation de la plateforme définies par la Wikimedia Foundation et les règles et recommandations décidées par consultation de la communauté de la Wikipédia francophone. Elles pourraient à terme demander des limitations dans les usages pour préserver le caractère humain du projet indépendamment de la qualité des générateurs de texte : « La technologie est importante. L'humain est essentiel ».[2]
Travaux inédits et hallucinations
modifierLes articles de Wikipédia ne doivent pas contenir de travaux inédits, c'est-à-dire des faits, allégations ou idées sans source fiable et publiée. Cela inclut les synthèses inédites, toute analyse menant à une conclusion ou à la suggestion d'une conclusion non énoncée par les sources.
Les générateurs de texte peuvent produire une gamme d'erreurs appelées hallucinations qui relèvent du travail inédit.
Ils mettent à la suite d'un texte les mots d'apparition la plus probable selon leurs données d'entraînement mais celles-ci sont de nature très variables et comportent notamment des œuvres de fiction, des discussions de forum, du contenu non structuré et de faible qualité optimisé pour le référencement etc. Il en résulte que malgré une apparence de fiabilité provenant d'un style affirmatif, le texte généré peut développer des thèses n'appartenant à aucune source fiable, faire des développements absurdes par simple demande, inventer des faits etc.
Une vérification complète est nécessaire : n'aurait-on vu aucune erreur après voir vérifié 90% du texte que cela ne garantirait rien sur la validité des 10% restant.
Contenu non sourcé ou non vérifiable
modifierLes générateurs de texte ne respectent pas les normes de Wikipédia en matière de vérifiabilité et de fiabilité des sources.
Ils peuvent ignorer les sources les plus pertinentes, en donner de faible qualité dont Wikipédia et autres wiki voire invoquer des Références fictives (en). Les sources impactées elles-mêmes par des générateurs de texte ne doivent pas être considérées comme fiables. Cela peut concerner le domaine universitaire, l'édition[3] ou la presse[4].
Biais algorithmiques et non neutralité de point de vue
modifierLes textes peuvent sembler respecter la règle de neutralité de point de vue alors qu'ils intègrent des biais algorithmiques. Le sujet peut être particulièrement sensible vis-à-vis des biographies de personnes vivantes.
Violation du droit d'auteur
modifierUn générateur de texte peut produire du contenu violant le droit d'auteur[5]. Cela peut être des extraits littéraux de contenu non libre, relever de l'œuvre dérivée[6] ou du plagiat par paraphrase trop proche. Le statut même des LLM entraînés à partir de données protégées par le droit d'auteur n'est pas encore bien établi. Leurs résultats pourraient ne pas être compatibles avec la licence CC BY-SA et la licence GNU des textes publiés sur Wikipédia.
Savoir-vivre, bonne foi et discussions
modifierRègles de savoir-vivre : n'utilisez pas de texte généré dans des discussions sans l'indiquer expressément, ce serait une atteinte à la bonne foi attendue dans les échanges.
Conventions de style non-respectées
modifierLes générateurs de texte ne respectent pas par défaut les styles convenus sur Wikipédia et notamment le style encyclopédique. Les instructions demandant un style encyclopédique peuvent induire encore plus d'illusion de fiabilité qu'en leur absence.
Mesures de contrôle
modifierSi vous suspectez un contenu généré par IA mais sans certitude sur les mesures à prendre, vous pouvez le signaler sur l'Observatoire des IA. Si vous identifiez un contenu non-conforme généré par IA, vous pouvez :
- pour un article créé : faire une demande de suppression immédiate si la non-conformité est évidente ou que cela relève du canular (Vandalisme, critère G3 d'une demande de suppression). La précision « IA présumée » peut être indiquée dans la demande. Une réaction rapide est particulièrement attendue pour les biographies de personnes vivantes
- pour un contenu partiel : le supprimer en indiquant en résumé de modification le problème standard détecté : inexact, non sourcé ou source invalide, style non-encyclopédique etc. et en rajoutant « IA présumée ».
- alerter sur le problème
- placer le bandeau {{IA générative}} en tête d'article[7] ;
- indiquer en page de discussion de l'article les problèmes identifiés
- le modifier pour le rendre conforme. Le signalement de la modification sur l'Observatoire des IA sera apprécié pour le suivi des usages.
Recommandations aux utilisateurs
modifierChaque modification apportée à un article doit être conforme à toutes les directives communautaires applicables. Les informations fournies par un générateur de texte ne sont pas fiables, il peut ne pas détecter correctement les erreurs grammaticales, interpréter les ambiguïtés syntaxiques ou conserver les informations clés intactes.
Compétences
modifierUn usage correct demande non seulement la maîtrise des outils, la connaissance de leurs défauts et limites, mais aussi celle du domaine dans lequel on entend les utiliser pour être à même d'évaluer le texte et la pertinence de sources, comment elles s'inscrivent dans le domaine, leurs possibles biais etc. ceci concernant aussi un travail simplement préparatoire (plan, brainstorming, synthèse automatique de source).
Préconisations :
- ne pas utiliser ces outils sans en avoir appris les limites ;
- éviter l'illusion de compétence, ne pas les utiliser pour un sujet que l'on ne maîtrise pas déjà.
Précaution
modifierAbstenez-vous si vous avez un doute sur le respect des règles ou l'impact de votre intervention sur l'encyclopédie.
Préconisations :
- faire des discussions préalables sur l'intérêt d'un usage, demander des avis communautaires ;
- ne pas semi-automatiser : chaque usage doit être contrôlé au cas par cas ;
- Wikipédia n'est pas un laboratoire, ne faites pas de modifications juste pour tester ;
- ne pas laisser en brouillon du texte généré : les brouillons sont dans les espaces utilisateurs mais sont publics et peuvent tout autant induire en erreur le lecteur qu'une publication dans l'espace principal.
Transparence
modifierLa transparence est nécessaire pour assurer la bonne foi des usages et avoir un suivi de l'impact de ces technologies sur l'encyclopédie.
Préconisations
- indiquer dans le résumé de modification ce qui a été fait et avec quoi. Exemples : « rédaction par Perplexity AI », « traduction assistée par ChatGPT », « synthèse de source par NotebookLM » etc.
- répondre à toute sollicitation demandant des précisions sur ce qui a été fait ;
- se déclarer utilisateur en page utilisateur.
Responsabilité personnelle
modifierChacun est responsable de ce qu'il introduit sur Wikipédia, ne comptez pas sur la communauté pour « nettoyer » derrière vous. Un mauvais usage volontaire de la génération de texte relève du vandalisme et peut impliquer des sanctions administratives.
Préconisations
- ne pas créer d'ébauches d'article à partir d'un texte généré ;
- ne pas demander de relecture sans l'avoir fait déjà soi-même ;
Notes et références
modifier- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Wikipedia:Large language models » (voir la liste des auteurs).
- (en) Selena Deckelmann, « Wikipedia’s value in the age of generative AI »,
- (en) « Knowledge is human. Technology is important. Humanity is essential. » - version archivée du 7 octobre 2024 évoquant les IA - « passing knowledge from generation to generation is an essential part of what makes us human »
- « Sur Amazon, des milliers de livres seraient rédigées par intelligence artificielle sous de faux noms », Ouest-France, (lire en ligne)
- Claudia Cohen, « Claire Léost, présidente de Prisma Media : « Voici a publié sur son site ses premiers articles avec l’aide de l’IA » », Le Figaro, (lire en ligne)
- Cela s’applique également lorsque le modèle d’IA se trouve dans une juridiction où les œuvres générées entièrement par IA ne sont pas protégées par le droit d’auteur, même si ces cas sont rares.
- (en) FAQ Copyright - Derivative works
- Modification à faire : paramètre « certain=oui » pour usage avéré