L'utilisation de l'intelligence artificielle générative (IAg), fondée sur les grands modèles de langage (LLM), est vivement déconseillée.

Si une utilisation raisonnée reste possible, sous conditions exposées ci-dessous, elle présente des risques de mésusage. Le mésusage conduit généralement à bafouer les principes fondateurs ainsi que les règles et recommandations, pouvant entraîner le blocage en écriture du compte concerné.

Avant-propos

modifier

L'intelligence artificielle générative repose sur l'apprentissage de données d'entraînement afin de produire de nouvelles données.

Cette méthode pose deux principaux enjeux. Le premier, les données d'entraînement ne sont pas toujours fiables : une source fictive (ex. : mythe) ou dépassée[1] peut avoir autant de poids qu'une source réelle et contemporaine. Ainsi, la qualité et l'exactitude des informations peuvent être compromises. Le second, les données créées — c'est-à-dire le texte généré — peuvent être statistiquement cohérentes[2] mais peuvent manquer de précision (ex. : un biais) ou de contexte.

Concrètement, l'utilisation d'une IAg, sans compréhension fine de son fonctionnement, conduit parfois à l'insertion d'informations hallucinées[3],[4], à des travaux inédits, à l'emploi d'un style non encyclopédique, voire à du plagiat[5]. Ces dérives ne sont pas acceptables et entament la confiance accordée à vos contributions par les autres bénévoles ainsi que celle des lecteurs envers l'encyclopédie elle-même[6].

Risques

modifier

Principes

modifier

Usages tolérés

modifier

Parmi les usages tolérés :

  • Résumer une source que vous avez déjà lue (tout en veillant à réaliser une synthèse avec d'autres lectures), ce qui implique un sourçage précis pour témoigner du fait que vous l'avez lue ;
  • Aider à la reformulation (attention : ce n'est pas une immunité contre le plagiat, lisez Aide:Rédiger sans plagier) ;
  • Corrections orthographiques, typographiques et syntaxiques (attention : les conventions typographiques prévalent) ;
  • Vérifier les sens d'un mot étranger (attention : pas de traduction littérale ou mot à mot, veillez à ce qu'il n'y ait pas de contre-sens).
Si l'on peut déterminer à la lecture qu'un contenu est généré par une IAg, il doit alors être réécrit ou supprimé.

Que faire en cas de suspicion d'utilisation ?

modifier

Si vous suspectez qu'un contenu a été généré par une intelligence artificielle (IA) mais que vous n'êtes pas certain(e) des mesures à prendre, vous pouvez le signaler sur l'Observatoire des IA.

Si vous identifiez un mésusage, vous pouvez :

  • pour un article créé : faire une demande de suppression immédiate si la non-conformité est évidente ou que cela relève du canular (Vandalisme, critère G3 d'une demande de suppression). La précision « IA présumée » peut être indiquée dans la demande. Une réaction rapide est particulièrement attendue pour les biographies de personnes vivantes ;
  • pour un contenu partiel : le supprimer en indiquant en résumé de modification le problème standard détecté : inexact, non sourcé ou source invalide, style non-encyclopédique, etc. et en rajoutant « IA présumée » ;
  • discuter avec l'auteur de l'ajout des risques et des problèmes suscités ;
  • placer le bandeau {{IA générative}} ({{IA générative|date=juin 2025}}) en tête d'article, avec le paramètre certain=oui si l'utilisation est avérée ;
  • indiquer en page de discussion de l'article les problèmes identifiés ;
  • le modifier pour le rendre conforme.

Notes et références

modifier
(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Wikipedia:Large language models » (voir la liste des auteurs).
  1. Les données d'entraînement peuvent contenir des œuvres de fiction, des discussions de forum, du contenu non structuré et de faible qualité optimisé pour le référencement, etc.
  2. Le contenu génère une suite de mots en faisant apparaître ceux qui sont les plus probables selon les données d'entraînement.
  3. « Leaderboard Comparing LLM Performance at Producing Hallucinations when Summarizing Short Documents »
  4. (en) Elham Asgari, Nina Montaña-Brown, Magda Dubois et Saleh Khalil, « A framework to assess clinical safety and hallucination rates of LLMs for medical text summarisation », npj Digital Medicine, vol. 8, no 1,‎ , p. 1–15 (ISSN 2398-6352, DOI 10.1038/s41746-025-01670-7, lire en ligne, consulté le )
  5. Joseph Dien, « Editorial: Generative artificial intelligence as a plagiarism problem », Biological Psychology, (DOI 10.1016/j.biopsycho.2023.108621), p. 108621
  6. (en) Selena Deckelmann, « Wikipedia’s value in the age of generative AI », .
  7. Quelques exemples :
    • Sites rédigés avec l'assistance d'un chatbot ;
    • Domaine universitaire ;
    • Monde de l'édition : « Sur Amazon, des milliers de livres seraient rédigées par intelligence artificielle sous de faux noms », Ouest-France,‎ (lire en ligne)
    • Presse : Claudia Cohen, « Claire Léost, présidente de Prisma Media : « Voici a publié sur son site ses premiers articles avec l’aide de l’IA » », Le Figaro,‎ (lire en ligne).
  8. L'insertion de fausses informations est assimilable à du vandalisme.
  9. Cela s’applique également lorsque le modèle d’IA se trouve dans une juridiction où les œuvres générées entièrement par IA ne sont pas protégées par le droit d’auteur, même si ces cas sont rares.
  10. Ils peuvent également être contraires à Wikipédia:Conventions de style.
  11. Le fait de ne pas avoir d'erreur dans 90 % du contenu ne garantit pas qu'il n'y en a aucune ou que les 10 % restants n'en contiennent pas.
  12. Exemple : prendre suffisament de recul pour repartir des sources et voir si le contenu généré est fidèle ou pourrait être amélioré.

Voir aussi

modifier

Pages connexes

modifier