Projet:Observatoire des IA/Documentation

Cf. discussion en cours, 8/10/2024 : Que documenter et comment ?.

Centrer la documentation sur la problématique des usages en lien avec Wikipédia, particulièrement les problèmes que ça peut poser. Indiquer des types généraux de pratiques.

Documentation générale

modifier

Types de technos, usages actuels, problèmes connus, questions générales de principe etc.

Détecteurs de contenus générés par IA

modifier

À faire : donner des infos sur leur fiabilité et la manière de les utiliser sur Wikipédia

Évaluation des technologies en lien avec Wikipédia

modifier

Faire des rapports sur les technos en lien avec WP. Ce qu'on a testé, les questions que ça pose.

Générateurs de texte

modifier

Grand modèle de langage en général (LLM - Large Language model)

modifier
  • Biais et limites : à compléter par la manière dont les utilisateurs experts gèrent les défauts
  • Types d'usages et valeur d'usage : brainstorming, textes standardisés (code, rédactionnel bureaucratique), agent conversationnel...

ChatGPT

modifier
  • Wikilegal : Copyright Analysis of ChatGPT
  • GPT-4 surpasses its predecessors" in writing Wikipedia-style articles about NLP concepts, but still "occasionally exhibited lapses"
  • Texte standardisé : assistant correct pour du langage codé (cf. Création d'infobox), style administratif,
  • Usages en rédaction de bon niveau : les pratiques ne sont pas encore bien fixées[7], il semblerait pour l'heure qu'un utilisateur expert puisse par exemple obtenir une bonne copie de niveau terminale en philo[8] mais il faut maîtriser le sujet et l'outil ce qui le rend alors moins utile voire plus coûteux à utiliser que de rédiger directement, et l'usage le plus pertinent serait comme sorte de « partenaire » d'écriture avec qui échanger, y compris dans un cadre pédagogique pour améliorer des apprentissages[9],[10].
  • utilisation de recherches en ligne : ChatGPT explore maintenant des sites comme un moteur de recherche. Je lui ai demandé[source insuffisante] dans quel contexte, réponse pour : des événements actuels ou sujets récents, des sujets peu connus ou nouveaux, de références spécifiques ou de vérification, des informations dynamiques (météo etc.). Sur une question d'actualité (attaques du 7 octobre), il m'a ainsi indiqué Bing et Human Rights Watch comme sources.
    • Test complémentaire (13/10/2024), demande de résumé d'un article simple sur des remises de prix littéraire[11] qui contient une erreur de nom dans le titre (Avril Bernard au lieu de Bénard) mais pas dans le texte : il reprend l'erreur de nom , se trompe sur le titre de l'ouvrage qu'il nomme Le temps des cerises, glose dessus (« Le roman de Bernard, qui évoque les souvenirs d'enfance et le passage du temps... ») et ne mentionne pas les autres lauréats indiqués dans l'article. Erreur, hallucination, incomplet : fiabilité zéro ?
  • test Fabius Lector[12] : indication de sources appréciable mais aussi résultats peu satisfaisants et l'impression que ça pouvait trop utiliser Wikipédia. P.e. à la question « Leucippe était-il une femme ? », il prenait en compte une correction que j'ai faite en mai mais sans cette correction, la réponse aurait pu être fausse puisqu'il renvoie à l'article comme source. Risque de cercle référentiel.
  • En version de base et sans inscription, tests sur divers sujets et problématiques : 0° Pour mémoire : réel risque de cercle référentiel. 1° Il s'agit d'un moteur de recherche associé aux LLM : j'ai trouvé certaines sources remarquablement adéquates à certains prompts (des thèses pointues). 2° Comme moteur de recherche également, il commence souvent par reconnaître sa relative difficulté à répondre avec les sources trouvées (il faut donc travailler les prompts ; changer de langue (pas testé), etc.) 3° Aucune hallucination trouvée dans les réponses, si ce n'est - je crois - l'invention de "vagueur" dans une des questions proposées en complément de la réponse. 4° Reste à voir du côté de la relecture des articles : a) demander si c'est moi qui trouve encore que c'est du charabia ou par ailleurs si c'est bien un point pertinent dans cet article. b) trouver les lacunes des articles (ou éliminer la redondance). Beaucoup d'avenir de mon côté ! TigH (discuter) 7 octobre 2024 à 19:58 (CEST)[répondre]

STORM AI

modifier

Microsoft Copilot

modifier

Projets expérimentaux

modifier
  • 3-10-2024, mentionné ici par Softenpoche : « Je teste depuis un mois une encyclo expérimentale entièrement basée sur 2IA fonctionnant en tandem : l'une s'occupe de la recherche des sources, l'autre analyse ce que la première a trouvé puis synthétise le tout et rédige un article sourcé. [...] J'utilise Perplexity couplé à Claude 3.5 Sonnet. »

Générateurs d'images

modifier

Stable Diffusion

modifier

Adobe Firefly

modifier

Sources impactées

modifier

À coordonner avec l'observatoire des sources ?

Notes et références

modifier
  1. cf. p.e. Journal Computers and composition, présentation Microsoft Comprendre les outils de rédaction basés sur l’IA et les assistants d’écriture
  2. Indiqué par Global Donald : « Actuellement l'un des meilleurs détecteurs, et parmi les plus fiables est Copyleaks (la plupart des autres sont des blagues qui ont des faux positifs et faux négatifs en surabondance) »
  3. Mauvais point par ici, score de 0% ou 100% selon version anglaise ou française alors que la seconde traduit la première.
  4. a et b Utilisé par les auteurs de l'étude indiquée dans "As many as 5%" of new English Wikipedia articles "contain significant AI-generated content", says paper
  5. Spotting LLMs With Binoculars: Zero-Shot Detection of Machine-Generated Text, Abhimanyu Hans, Avi Schwarzschild, Valeriia Cherepanova, Hamid Kazemi, Aniruddha Saha, Micah Goldblum, Jonas Geiping, Tom Goldstein, 13 Oct 2024, Arxiv
  6. Who Wrote That? Evaluating Tools to Detect AI-Generated Text, Jesse McCrosky, Mozilla, 28 mars 2024
  7. (en) Stacey Pigg, « Research writing with ChatGPT: A descriptive embodied practice framework », Computers and Composition, vol. 71,‎ (lire en ligne) - analyse qualitative de 35 vidéos illustrant l'utilisation de ChatGPT et de Bing
  8. Rédaction de copie de philo notée par des profs (vidéo Youtube)
  9. (en) Cal Newport, « What kind of writer is ChatGPT », The New Yorker,‎ (lire en ligne)
  10. Post de prof, 7-10-2024 : « je leur demande explicitement de se faire assister par ChatGPT. En revanche, ils doivent décrire leur démarche, les prompts utilisés, tout le travail de rafistolage, etc. C’est même plus contraignant »
  11. Avril Bernard reçoit le prix de littérature française Lire en Poche 2024
  12. discussion bistro
  13. GPT-fabricated scientific papers on Google Scholar
  14. Sur Amazon, des milliers de livres seraient rédigées par intelligence artificielle sous de faux noms
  15. Claire Léost, présidente de Prisma Media : « Voici a publié sur son site ses premiers articles avec l’aide de l’IA »