Wikipédia:Sondage/Intelligence artificielle générative

Le sondage est clos depuis le 28 janvier 2024 à 23 h 59 (CET).

Contexte modifier

Depuis un peu plus d'un an, l'Intelligence artificielle générative est devenue une fonctionnalité qui s'est démocratisée chez le grand public avec l'essor de ChatGPT puis de plusieurs concurrents. Cette démocratisation induit de plus en plus des insertions ou des soupçons d'insertions dans la Wikipédia en français de textes issus de ce type de logiciel. Par exemple, le sujet est discuté sur Wikipédia:Le Bistro/9 janvier 2024#Intelligence Artificielle dans les articles : on y est.... Il y a également eu plusieurs discussions liées comme Discussion Wikipédia:Observatoire des sources#ChatGPT : source ou pas source ?, Discussion Wikipédia:Observatoire des sources#ChatGPT : source ou pas source ? (2) ou plus récemment Wikipédia:Le Bistro/31 décembre 2023#Plaidoyer pour une IA incorporé a Wikipédia..

La même question se pose pour l'insertion d'images issues de l'intelligence artificielle générative créant des images comme Midjourney ou DALL-E. À la différence de Wikipédia:Appel à commentaires/Illustrations de sujets fictifs, ce sondage vise uniquement les œuvres d'arts créés par une IA. Le fait que cet appel à commentaire inclut dans son périmètre tant les illustrations manuelles que les illustrations générées par IA, masque un consensus qui semble être important concernant les illustrations générées par IA. Ce sondage vise à formaliser un peu plus cela, en tant que question secondaire.

Ce sondage vise à se concentrer sur le contenu lié à l'Intelligence artificielle générative et exclut à priori les questions d'automatisations des tâches, de traductions automatiques, de création d'articles ou de contenus par bot, etc.

La phase de vote du sondage est prévue pour durer 2 semaines à la date de lancement du sondage.

Discussions du Bistro modifier

Sur les textes générés modifier

Sur les images générées modifier

Résultats modifier

Vote n°1 : « Acceptez-vous que les insertions sur l'espace encyclopédique de textes produits par une intelligence artificielle générative soient traitées avec plus de sévérité que des textes écrits par des humains ? »
Pour Contre  Neutre Total pour/(pour+contre) pour/exprimés
59 23 25 107 71.95 % 55.14 %
. . . . contre/(pour+contre) contre/exprimés
. . . . 28.05 % 21.5 %
Vote n°2 : « Êtes-vous favorable à l'insertion d'images produites par une intelligence artificielle générative sur l'espace encyclopédique ? »
Pour Contre  Neutre Total pour/(pour+contre) pour/exprimés
30 74 11 115 28.85 % 26.09 %
. . . . contre/(pour+contre) contre/exprimés
. . . . 71.15 % 64.35 %

Proposition 1 modifier

Acceptez-vous que les insertions sur l'espace encyclopédique de textes produits par une intelligence artificielle générative, si elles possèdent suffisamment de caractéristiques pour être identifiées comme telles, soient traitées avec plus de sévérité[pas clair] que des textes écrits par des humains ?

Votes modifier

Oui modifier

  1. Pour Formulation pas très claire. Sous entendu que texte générés par IA validés. Si c'est bien le cas, alors oui, ils doivent être identifiés comme tel est leur contenu méticuleusement analysé. Du coup, quel intérêt de recourir à une génération par IA ?
  2. Pour les ajouts problématiques doivent être traités de manière plus sévères, justement parce qu'ils sont problématiques. Vu la capacité à halluciner de ces machines, on peut soupçonner que, si les modifications sont partiellement problématiques, alors elles le sont entièrement. DarkVador [Hello there !] 14 janvier 2024 à 05:04 (CET)[répondre]
  3. Pour les IA génératives ne devraient être et rester qu'un outil de back-office nécessitant un important travail fourni par un opérateur bien humain, lui. Les articles ayant eu recours à cette technologie devraient être documentés en PdD (il serait peut-être même opportun de créer des modèles ou des catégories de maintenance pour pouvoir lister de telles pages). Pour avoir fait le test avec la création de Maria Beasley, cela m'a demandé davantage de travail pour moins de satisfaction au final. Bref je ne suis pas certain de réitérer dans un avenir proche. — adel 14 janvier 2024 à 09:56 (CET)[répondre]
  4. Pour Même principe que pour les traducteurs automatiques. Quand dans un article je repère un, deux contre-sens, puis qu'en vérifiant l'historique je vois une traduction par outil "retouchée/relue", je suis nettement plus sévère, quitte à faire du nettoyage par le vide. Sinon on se retrouve avec des aberrations, qui en plus ont l'air sourcées, et qui peuvent perdurer des années. Si le travail est bien fait, l'utilisation d'un traducteur automatique (ou d'une IA) devrait être transparente, puisque le texte résultant, relu et vérifié, doit paraître naturel, à la fois précis et compréhensible. Esprit Fugace (discuter) 14 janvier 2024 à 10:02 (CET)[répondre]
  5. – Swa cwæð Ælfgar (discuter) 14 janvier 2024 à 10:15 (CET)[répondre]
  6. Pour On reste dans les grands principes, mais idem Esprit Fugace et Madelgarius.--Sherwood6 (discuter) 14 janvier 2024 à 12:38 (CET)[répondre]
  7. Pour si ce ne sont pas des humains qui contribuent, à quoi bon être ici ? levieuxtoby  · w (il/lui) – le 14 janvier 2024 à 13:27 (CET)[répondre]
  8. Pour Nos articles doivent êtres basés sur des sources. Si nous sommes en mesure d’identifier que ces modifications sont produites par des IA génératives, alors c’est certain: ces modifications portent atteinte à notre objectif encyclopédique. J’aurai aimé que la question ne se restreigne pas à l’espace encyclopédique, car il me semble que lorsqu’on écrit à des contributeurs en utilisant ces outils et que l’éventuelle intervention humaine est tellement limitée que l’on suspecte l’utilisation d’IA génératives (par exemple Sujet:Xwts6kqosbmzl900 où je n’ai aucun doute vu l’absurdité du message et sa formulation) on n’est vraisemblablement pas là pour contribuer. — Metamorforme42 (discuter) 14 janvier 2024 à 14:17 (CET)[répondre]
  9. Pour, autant pour des raisons de rédaction et de style que de copyvio potentiels massifs, mis en évidence par une plainte récente avec preuves de pillage à l'appui. Bien cordialement, Kertraon Merci de me répondre sur ma page ou me notifier 14 janvier 2024 à 15:48 (CET)[répondre]
  10. Pour Runi Gerardsen (discuter) 14 janvier 2024 à 16:48 (CET)[répondre]
  11. Pour --Myloufa Discuter ou faire Appel? 14 janvier 2024 à 16:57 (CET)[répondre]
  12. Nouill 14 janvier 2024 à 17:23 (CET)[répondre]
  13. Litlok (m'écrire) 14 janvier 2024 à 18:32 (CET)[répondre]
  14. Pour--Remy34 (discuter) 14 janvier 2024 à 18:41 (CET)[répondre]
  15. Pour je me retrouve dans bcp d'arguments mentionnés plus haut. -- Unptitpeudtout (discuter) 14 janvier 2024 à 19:52 (CET)[répondre]
  16. Pour Par "plus de sévérité" il faut comprendre une intransigeance absolue, voire le refus de tels textes. Sachant que ces textes résultent d'un emprunt de l'IA à des sources provenant soit de Wikipédia (donc autosourçage) et de textes protégés par le droit d'auteurs et de texte libres, sans mentionner les sources utilisées, il n'y a même pas à tergiverser, la réponse doit être ferme. Kirtapmémé sage 14 janvier 2024 à 20:10 (CET)[répondre]
  17. Pour aucune tolérance pour un texte généré à l'arrache par une IA sans relecture. Cdlt, Lyon-St-Clair [Hon hon hon] 14 janvier 2024 à 21:04 (CET)[répondre]
  18. Pour -- DCh50 (discuter) 14 janvier 2024 à 21:35 (CET)[répondre]
  19. Pour Les IA génératives peuvent servir d'outils, ils faut dire que celles-ci sont très puissantes et il serait bien dommage de s'en passer. Et c'est bien là tout le problème : il ne faut ne pas confondre outil avec automatisation. De plus je pense qu'il est préférable pour la communication que chaque texte reste sous une main humaine afin qu'aucun contenu ne puis se retrouver sur l'encyclopédie sans que personne ne s'en aperçoive, que tout le monde puisse vraiment être au courant de qui fait quoi, que chaque modification puisse être rattachée à un utilisateur. Échecs[Discuter] 14 janvier 2024 à 22:05 (CET)[répondre]
  20. Pour. Les insertions de texte ou contributions produites par IA ne devraient pas seulement être traitées avec « plus de sévérité », mais ne pas du tout être admises sur WP telles quelles. Un être humain peut bien entendu se servir d'une IA pour rédiger un article, mais l'exactitude des faits doit être vérifiée et l'ensemble de l'article doit être sourcé de la même manière que n'importe quel article de WP (ce qui, comme le dit Madel, peut générer en définitive plus de travail que de partir de zéro). Quant à la possibilité d'identifier ces contributions, étant professeur de philosophie, je renifle à des kilomètres un texte écrit par IA ; les étudiants sont parfois consternés de se voir démasqués aussi facilement. Le texte ne livre que des informations artificiellement liées et l'on voit tout de suite qu'il n'y a aucune réflexion, aucune pensée véritable. À lire par ailleurs, un article sur la liberté de la presse et les droits d'auteur paru il y a deux semaines. Il est instructif d'y lire que « Copilot, le chatbot de Microsoft, a fourni des informations incorrectes en citant le Times, notamment des résultats pour "les 15 aliments les plus sains pour le cœur", dont 12 n'étaient pas mentionnés dans l'article du journal ». Quand une IA pourra produire un texte qui vaut celui d'un humain, il faudra se questionner à nouveau. D'ici là, on doit continuer notre travail d'écriture comme avant : s'informer, vérifier, comprendre, sourcer, etc. Et considérer que l'IA est un outil de recherche ou de rédaction comme un autre, rien de plus. — Philobule (discuter) 14 janvier 2024 à 22:06 (CET)[répondre]
  21. PourBimBe93 (discuter) 15 janvier 2024 à 01:27 (CET)[répondre]
  22. Pour il faut traiter ces ajouts le plus possible. Et quid des sources ? On ajoute en source « cité par ChatGPT »? ━━☆ 𝒜𝒿𝒾𝓁𝑒𝒻𝑜𝓈𝓉𝒶𝒹 🌹🎀💎[Parlons peu...] 15 janvier 2024 à 10:03 (CET)[répondre]
  23. Pour à la condition que l'IA en elle même ne soit pas considérée comme une source en elle même, c'est à dire que le passage rédigé par une IA devra être sourcé manuellement par un humain, l'IA ayant pour l'instant une fâcheuse tendance à mentir de temps en temps. Yhaou (discuter) 15 janvier 2024 à 11:27 (CET)[répondre]
  24. Pour Slzbg (discuter) 15 janvier 2024 à 14:36 (CET)[répondre]
  25. Pour Idem Esprit Fugace.  — 🦊 jilucorg converser, le 15 janvier 2024 à 16:35 (CET)[répondre]
  26. Pour, me paraît logique. --Lodewijk van den Broucke (discuter) 15 janvier 2024 à 18:07 (CET)[répondre]
  27. Pour tant que la personne qui a ajouté le texte ne l'as utilisé que pour faire de la formulation et pas pour créer le contenu. Le contenu doit être sourcé par un humain (ou au moins un humain doit passé derrière pour vérifier le contenu). --Huguespotter (discuter) 15 janvier 2024 à 18:11 (CET)[répondre]
  28. Pour que les textes produits par une intelligence artificielle générative soient traités avec plus de sévérité, voire catégoriquement refusés. J'anticipe aussi le fait que de nouveaux robots viendraient contribuer à WP : les IA peuvent être des boîtes noires, comment accéder à leurs intentions ? Comment leur demander de se justifier ? Qui est responsable de leurs écrits ? Il serait très facile pour une IA d'inonder WP de textes qui respectent les principes fondateurs. Rigoureusement sélectionnés, et en très grand nombre, ils pourraient mettre en valeur des intérêts particulier, ce qui irait à l'encontre en quelque sorte du principe de neutralité d'opinion. Est-ce qu'une IA, toute seule, aurait le pouvoir de donner insidieusement une couleur politique à l'encyclopédie ? Pour l'instant, par précaution, et en attendant de futurs débats, je suis pour la proposition. Rigoluce, 15 janvier 2024 à 18:27 (CET)[répondre]
  29. Pour fort Comme l'intitulé est ambigu, mon opinion reflète la proposition suivant : Ne pas accepter les textes générés par IA et la connaissance d'ajout de ce type sur NS:0 doit aboutir à un blocage. Cordialement. ―Eihel (discuter) 15 janvier 2024 à 19:35 (CET)[répondre]
  30. Pour À mon avis, il faudrait très franchement décourager toute utilisation des IA génératives dans l'espace encyclopédique. J'ai d'abord une raison pratique : on peut vite se retrouvés submergé.e.s par des insertions en masse de murs de texte que nous n'avons pas les ressources pour lire avec assez d'attention — les erreurs des IA actuelles ne sont pas moins graves, mais demandent une lecture de plus en plus serrée. Il y a un risque juridique : les IA génératives ayant été entraînées sur des bases qui posent des problèmes de respect du droit d'auteur, nous pouvons nous retrouver à devoir un jour nettoyer les historiques de toutes les pages touchées. Bokken | 木刀 15 janvier 2024 à 22:38 (CET)[répondre]
  31. Pour Use85430 (discuter) 15 janvier 2024 à 22:55 (CET)[répondre]
  32. Pour Il semble difficile d’empêcher complètement les contributeurs de s'aider de LLM pour la rédaction (reformulation, style, etc.). Si le texte ajouté à une page est strictement sourcé et validé par un humain, la proposition est raisonnable pour moi. Sunoc94 (discuter) 16 janvier 2024 à 12:45 (JST)
  33. Pour, principe de précaution sur cette nouvelle technologie et de transparence aussi, si c'est possible d'identifier dans l'article que le contenu a été en partie généré par une IA, je trouverais ça très bien. Ensuite, il me semble difficile d'interdire aux gens de rajouter du contenu en utilisant une IA. Une des limites (de Chat GPT pour ce que j'en sais), c'est l'absence d'affichage des sources, cela reste donc à mon avis problématique dans ce sens. -- JR (disc) 16 janvier 2024 à 08:34 (CET)[répondre]
  34. Pour --Antoine.b (discuter) 16 janvier 2024 à 09:51 (CET)[répondre]
  35. Pour --Zekovski (discuter) 16 janvier 2024 à 11:50 (CET) Je serai pour interdire l'utilisation complètement (même si ce n'est pas vérifiable, ce n'est pas une raison). Une personne lambda peut rédiger du contenu avec des erreurs. Une IA peut le faire avec un rythme beaucoup plus soutenu. On se retrouve ainsi avec beaucoup plus d'erreurs à rattraper que si la personne avait rédigé manuellement. J'ajouterai que Wikipédia n'a pas besoin de cet outil pour fonctionner correctement et offrir un contenu de qualité. Pourquoi prendre le risque de dégrader cette dernière au profit de la productivité ?[répondre]
    Merci pour ce commentaire plein de bon sens. Xminor (discuter) 16 janvier 2024 à 22:20 (CET)[répondre]
  36. Pour si le contenu généré ne présente pas de problème et puisqu'il ne faut pas aller contre l'évolution des usages (qui se feront quand même malgré tout), il faut le traiter avec la précaution élémentaire que l'intelligence artificielle n'est que de la prédiction statistique : donc toute insertion doit faire l'objet d'une vérification complète, y compris des sources qui peuvent être inventées ou mal interprétées. --Silex (discuter) 16 janvier 2024 à 13:53 (CET)[répondre]
  37. Pour --AnatoleC (discuter) 16 janvier 2024 à 16h31 (CET) Pour répondre très précisément à la question "Faut-il traiter les textes générés par de l'IA avec plus de sévérité", ma réponse est Oui car justement on a aucune garantie que l'auteur a lui même relu le texte. En revanche, je n'adhère pas du tout aux commentaires ci-dessus qui rejettent totalement l'usage de l'IA. C'est un outil de productivité d'une grande aide, l'interdire revient à se tirer une balle dans le pied, d'autant qu'il n'y a aucun moyen fiable de vérifier si un texte provient d'une IA.
  38. Pour Yoyo 360Wanna talk? 16 janvier 2024 à 19:16 (CET)[répondre]
  39. Pour Pour assurer une plus grande crédibilité de Wikipédia. Les contributeurs peuvent se servir de l'IA comme un outil pour la formulation des textes mais doivent vérifier son contenu avant d'éditer. C'est leur crédibilité qui est en jeu (et celle de Wikipédia).--AndréLegault (discuter) 17 janvier 2024 à 01:04 (CET)[répondre]
  40. Pour Pour assurer un maximum de "travail humain" derrière Wikipédia et refuser de faire confiance par défaut à un algorithme rempli de biais (dont la philosophie derrière est rarement en accord avec les projets Wikimédia) CelianGdfrd (discuter) 17 janvier 2024 à 11:04 (CET)[répondre]
  41. Pour L'IA doit juste permettre de gagner du temps pour fabriquer un brouillon, qui doit être intégralement vérifié et sourcé dans le détail par le "rédacteur" pour devenir crédible. Même si l'opération brouillon reste invisible, ce sont les sources qui donneront la crédibilité. Si un robot peut alerter sur l'origine suspecte d'un texte c'est encore mieux pour que d'autres que le contributeur initial s'assurent de la neutralité/véracité/etc. du texte. --Gnrc (discuter) 17 janvier 2024 à 12:17 (CET)[répondre]
  42. Pour A mon sens, ce qui a permis à Wikipédia de traverser ses 23 années d'existence sur Internet et d'en être toujours une référence, c'est l'unité relative de sa communauté, et son caractère purement humain. Certes, tout écrire nous-mêmes demande plus de temps, plus d'énergie, etc., mais c'est aussi ce qui fait la force de notre encyclopédie. Dans 10 ans, Internet sera peut-être envahie de contenus générés par IA indiscernables des humains, mais je gage que si la communauté continue à privilégier le travail humain, elle restera un phare de connaissance indépassable sur le Web. --Gaspart de la Meije (discuter) 17 janvier 2024 à 12:44 (CET)[répondre]
    +1 Xminor (discuter) 17 janvier 2024 à 13:30 (CET)[répondre]
  43. Pour En l'état, le risque d'importation massive d'erreurs et de copyvio n'est pas (ne peut pas être) sous contrôle. Cdt, Manacore (discuter) 17 janvier 2024 à 17:13 (CET)[répondre]
  44. --En passant (discuter) 17 janvier 2024 à 19:50 (CET)[répondre]
  45. Pour Technologique encore largement immature. Girart de Roussillon (Discrepance ?) 18 janvier 2024 à 12:43 (CET)[répondre]
  46. Pour --Æpherys (discuter) 18 janvier 2024 à 17:50 (CET)[répondre]
  47. Pour qu'elles soit signalées au même titre que les modifs d'IP et de nouveaux profils inscrits ; et à marquer comme relu par les contributeurs expérimentés. A.BourgeoisP 19 janvier 2024 à 07:03 (CET)[répondre]
  48. Pour. "plus de sévérité" => suppression. D'accord avec Zekovski. --Croquemort Nestor (discuter) 19 janvier 2024 à 08:54 (CET)[répondre]
  49. Pour Oui, vandalisme à part, les ajouts apportés par des humains viennent au moins d'une certaine honnêteté et ne proviennent pas de nulle part, là où une intelligence artificielle peut mélanger tout de manière imprévisible et avoir la même autorité que si elle était dans le vrai, donc il faudrait d'autant plus s'en méfier. MDCCCC (discuter) 19 janvier 2024 à 22:03 (CET)[répondre]
  50. Pour. Les LLM et autres IA rendent difficile de s'assurer de l'intégrité et sources des données. Le concept de réputation est également difficilement applicable. Mais j'ai des difficultés à comprendre ce que "sévérité" signifie dans la question. --Gileri (discuter) 19 janvier 2024 à 22:07 (CET)[répondre]
  51. Pour Ruyblas13 [conversazione] 20 janvier 2024 à 09:54 (CET)[répondre]
  52. Pour L'usage de l'IA sans frein est un pratique à décourager. Sinon, on verra les articles de Wikipedia remplis d'hallucinations. Il est nécessaire que le texte soit relu et modifié par une intelligence capable de discernement et de sens critique. Je m'aide pour ma part parfois d'IA pour des traductions mais c'est toujours moi qui ai le dernier mot. Faire preuve d'une grande sévérité, voire retoquer la production au moindre doute rappellerait au contributeur la nécessité de travailler les textes pour les rendre WPcompatibles. HB (discuter) 20 janvier 2024 à 13:11 (CET)[répondre]
  53. Pour selon les explication données par Nouill dans son message du 14 janvier 2024 à 17:14. Je précise que je m'oppose fortement à l'ajout de contenus textuels rédigés par une IA (voir commentaire de Xminor du 14 janvier 2024 à 21:48). Veverve (discuter) 21 janvier 2024 à 11:51 (CET)[répondre]
  54. Plutôt pour, l'interdiction n'a pas de sens et l'utilisation ne pourra pas être vérifiée. Il semble donc plus vertueux d'encadrer son usage, mais les modèles génératifs textuels ont les mêmes problématiques que les modèles génératifs d'illustrations. Voir rien que dernièrement la plainte du New York Times contre OpenAI. Je suis pour son usage en tant qu'outil de rédaction, mais pas comme moyen de rédaction autonome ; faute d'avoir les moyens humains pour vérifier les textes générés. Dans un futur proche, tous ces outils seront réservés aux plus aisés de toute manière, il suffit de voir comment ChatGPT3 a baissé en qualité au fil des mois. Déjà qu'avant, ça hallucinait pas mal... L'infrastructure coûte trop cher. Lofhi (discuter) 22 janvier 2024 à 19:18 (CET)[répondre]
  55. Plutôt pour : proposition intéressante mais pas très précise.--Simonk (discuter) 24 janvier 2024 à 21:07 (CET)[répondre]
  56. Je ne suis pas forcément d'accord avec le "plus de sévérité", mais je pense qu'il ne faut surtout pas lier un bot et une IA. On a le risque de voir des ajouts qui ont l'air correct, qui semblent sourcés, mais qui sont totalement inventés et ce, sans relecture humaine. Le risque est là amha. En revanche, un humain qui ouvre ChatGPT, qui lui demande de l'aide rédactionnelle en lui demandant par exemple un résumé de 2 ou 3 sources, puis qui colle le texte et insère les sources exploitées, pourquoi pas. On ne pourra pas l'empêcher car c'est incontrôlable, il est plus intelligent d'écrire une recommandation sur la bonne façon de le faire. Bertrouf 25 janvier 2024 à 11:38 (CET)[répondre]
  57. Pour Les arguments ont été apportés d'autres y compris dans les sections "contre", "neutre" et "autres" : sauf à prendre le risque que Wikipédia soit submergée par des contenus mal écrits par une IA, à l'instar des exemples présentés, dont celui-ci, il faut être réaliste et constater que nous autres, bénévoles, ne sommes pas de taille à lutter contre les modifications massives. Or les textes générés par IA sont si faciles à produire, que l'on peut raisonnablement s'attendre à devoir vérifier, sourcer, reformuler des textes de plus en plus longs. Il faut donc être manichéen, sans chercher à épargner l'auteur et à le former.
  58. Pour Ça va de soi vu la puissance de ces outils et leur facilité d'utilisation Ooglook (discuter) 25 janvier 2024 à 19:19 (CET)[répondre]
  59. Plutôt pour, même si, comme beaucoup de mes petites camarades, je trouve la formulation « avec plus de sévérité » pas très représentative des débats que nous avons eu à ce sujet ; j'aurais préféré, par exemple (au débotté, là) « avec plus de vigilance ». L'idée, au départ, pour moi était plutôt de demander aux dresseurs de nous pondre un bot capable de relever à coup sûr (+ de 10Ko d'une traite, parfaitement wikifié et sans modif' ultérieure) les parties d'articles pouvant relever d'IA, de manière qu'après, on puisse juger de la qualité (=> du maintien) ou pas de ce « travail ». Parce que la partie qui concerne le « débusquage » de l'IA est longue et fastidieuse et même pas « taillée pour » la patrouille. Il faudrait certainement, par la suite créer une instance de relecture qui serait « affectée » à ce travail, laborieux mais déjà allégé par les traqueurs-bots. — jeep (j33p) 27 janvier 2024 à 15:36 (CET)[répondre]

Non modifier

  1. Au risque d'étonner, -? Plutôt contre. À la fois car je trouve que la proposition est mal formulée, mais aussi parce que cela me semble déjà « couvert » (ibidem traduction automatique cf. Esprit Fugace ou per WP:V) ; parce que in fine, le problème ne sont pas les textes mais la responsabilité des auteurs et enfin, parce qu'il n'est pas exclu que la Wikimedia Foundation innove, ou que les IA fassent des progrès considérables. Le problème de la génération est d'abord du côté de la création ex-nihilo ou imitatrice d'une oeuvre de faible qualité, mais rien ne dit que la production d'une synthèse raisonnable (WP:PF1) n'est pas ou sera pas possible. Autrement dit je considère la formulation « si elles possèdent suffisamment de caractéristiques (...) » comme inexploitable. Pour expliciter cet avis : je suis favorable à une utilisation responsable et limitée mais il n'y a pas de necessité d'un dispositif « répréhensif » (« sévérité »  [sic]) supplémentaire puisque nos règles en vigueur (WP:V, WP:CVS, etc.) sont suffisamment robustes pour couvrir cette situation. Tous les contenus doivent ou devraient être évalués avec le même degré d'exigence, et cette exigence devrait être maximale partout — or on ne peut pas faire plus que plus, c'est tautologique. Donc même si en théorie je comprends les Pour, je considère qu'en pratique ou en principe cela n'a aucun sens. LD (d) 15 janvier 2024 à 02:15 (CET)[répondre]
  2. Idem, aucune raison sérieuse à mon avis. - p-2024-01-s - обговорюва 15 janvier 2024 à 09:10 (CET)[répondre]
  3. -? Plutôt contre je ne suis pas sûr de bien comprendre la question et en particulier ce qu'on entend par « plus de sévérité ». Est-ce que ça veut dire qu'on appliquerait des critères différents selon l'origine du contenu ? Ça ne me semble pas une bonne idée. -- HMa [discutez sans frapper] 15 janvier 2024 à 10:37 (CET)[répondre]
  4. Contre Les critères sont les mêmes, à partir du moment où une insertion est correctement documentée (pas de TI) et correctement écrite (pas de gloubi-boulga) elle est acceptable, sinon on corrige, sinon si c'est inexploitable on supprime. Où est la différence? Michelet-密是力 (discuter) 15 janvier 2024 à 11:03 (CET)[répondre]
  5. -? Plutôt contre. Pour moi, cela revient essentiellement à ouvrir une brèche pour le contenu plutôt médiocre produit par ChatGPT (ou une autre IA) ; si je veux lire ce que dit l'IA, je vais demander à une IA, pas aller sur Wikipédia. Et ça me paraît compliqué de supposer que tous les contributeurs soient suffisamment éclairés pour qu'on ne se retrouve pas avec du texte purement généré par ChatGPT... Thuiop (discuter) 15 janvier 2024 à 13:20 (CET)[répondre]
  6. Contre La question ne fait aucune différenciation entre une génération créative à partir d'un prompt, et une génération de synthèse d'une source par exemple ou autre type d'usage. A la base, WP a toujours jugé les arbres à leur fruits. On accepte des contributeurs de tous niveaux d'éducation, de toute neurodiversité, et l'IA est un autre type de contributeur, pas plus mauvais que beaucoup. Mais on juge au moins à la même aune que les autres : vérifiabilité, neutralité etc.. En revanche, il est possible d'avoir des règles particulières pour les IA, sans être plus "sévères", comme l'obligation de déclaration etc.. mais ce n'est pas cette question. --Jean-Christophe BENOIST (discuter) 15 janvier 2024 à 14:11 (CET)[répondre]
  7. -? Plutôt contre, car risque de dérives. Un ajout est fait par un humain. La manière dont l'humain créé cet ajout n'est pas quelque chose que l'on contrôle. Comment fait-on pour identifier qu'un contenu a été généré par une GenAI ? A-t-on un outil fiable pour identifier ces ajouts et/ou prouver qu'ils proviennent d'une GEnAI ? On peut le faire pour un copyvio : je cherche à savoir si on peut prouver l'accusation qui sera faite, ou si on sera juste sur du doigt-mouillé de modification visiblement trop étrange ? Par exemple, comment ne pas confondre un ajout massif fait par une GenAI et celui fait par une personne qui a travaillé son texte pendant longtemps sur son traitement de texte ? Est-ce que cet appel à plus de sévérité ne va pas juste aboutir à tordre WP:FOI et à faire fuir du monde ? Trizek bla 15 janvier 2024 à 18:33 (CET)[répondre]
  8. Contre. Je rejoins un certain nombre des avis plus haut : tant que le contenu est bien sourcé et qu’il respecte le droit d’auteur, et plus généralement les règles déjà établies ici, qu’importe son origine ? Ne pas confondre objet et fonction. Padex (discuter) 15 janvier 2024 à 20:59 (CET)[répondre]
  9. Contre Raisons évoquées ci-dessus. Athozus Discussion 15 janvier 2024 à 21:28 (CET)[répondre]
  10. Contre J'acquiesce pour le fait que cela va dégrader la qualité des articles, sans compter que faut vérifier ce qu'à dit le prompt (si on veux faire ça bien) et du coup c'est autant de taf (sauf si c'est utiliser pour résumer les sources mais ça risque de faire beaucoup de répétitions et on revient à la dégradation de la qualité des articles) Nono723 Discussion 15 janvier 2024 à 21:28 (GMT+1)
  11. Contre. La question est trop mal formulée, ce n'est pas très clair Cosmiaou (d) 16 janvier 2024 à 10:59 (CET)[répondre]
  12. Contre Je ne suis pas pour introduire plus de sévérité vis-à-vis des textes produits par de l'intelligence artificielle, je suis pour une interdiction totale de l'usage de l'intelligence artificielle. Le risque de manipulation ou, du moins, de standardisation, est bien trop élevé… non, tellement certain, qu'il est hors de question de question pour moi qu'il y ait la moindre tolérance à cet égard. Je rejoins totalement Notification Cedalyon sur ce point (voir dernière sous-section de cette question) --Laurent Jerry (discuter) 16 janvier 2024 à 11:28 (CET)[répondre]
  13. Contre Question mal formulée. Culex (discuter) 16 janvier 2024 à 20:49 (CET)[répondre]
  14. Contre Comme plusieurs, car mal formulée... au point que je précise tout de même que je serais tout aussi opposé à sa reformulation en miroir Émoticône. Mogador 17 janvier 2024 à 05:06 (CET)[répondre]
  15. -? Plutôt contre. Du même avis que notre ami Trizek Émoticône sourire À ce jour, il n'existe pas d'outils permettant de valider un contenu généré par une I.A. —— DePlusJean (Discuter) 17 janvier 2024 à 06:34 (CET)[répondre]
  16. -? Plutôt contre Je partage le même avis que Trizek. --BB 22385 (discuter) 19 janvier 2024 à 23:36 (CET)[répondre]
  17. Contre interdiction totale. --PHIL34 (discuter) 20 janvier 2024 à 12:35 (CET)[répondre]
  18. Contre Le problème que peut rencontrer Wikipédia c'est la médiocrité des articles, le manque de style encyclopédique etc... ces problèmes sont présents peu importe que des textes soient générés par des IA ou non. Si on puni l'utilisation d'IA car le résultat est mauvais alors il n'y a rien de nouveau par rapport à un utilisateur humain qui réalise lui-même artisanalement son article mauvais. Wikipédia est une encyclopédie, tant que l'article est correct, que le style est bon, qu'il est correctement sourcé, vérifié par des humains selon les valeurs de Wikipédia de vérifiabilité alors il n'y a strictement aucune raison de s'intéresser à s'il a été rédigé par un humain ou non. De toutes façons un tel résultat ne pourra pas être obtenu par une IA seule, il faudra nécessairement une contribution humaine, donc si un article est pondu à 100% par une IA ça se verra, et il sera traité de la même manière qu'un mauvais article pondu à 100% par un humain, inutile de faire des règles supplémentaires.--AodrenG (discuter) 20 janvier 2024 à 15:28 (CET)[répondre]
  19. Inutile Déjà couvert par nos règles et recommandations. Si un texte pose problème sur le fond, WP:Vérifiabilité et WP:Proportion doivent s'appliquer. S'il pose problème sur la forme, WP:Style encyclopédique doit s'appliquer. S'il contient des éléments de plagiat, WP:Droit d'auteur doit s'appliquer. Toute règle supplémentaire me semble superflue. --Cosmophilus (discuter) 20 janvier 2024 à 23:02 (CET)[répondre]
  20. Contre Comme le dit AodrenG l'important c'est la qualité des articles, donc aucune raison d'être plus sévère avec l'IA, qui d'ailleurs ne cesse de s'améliorer et qui bientôt donnera de meilleurs résultats de l'humain. L'humain aussi génère, parfois volontairement, souvent involontairement des contenus faux dans WP. Tout article doit être relu avec autant d'attention quelque soit son origine. Yv91 (discuter) 25 janvier 2024 à 13:34 (CET)[répondre]
  21. Inutile En s'embarquant dans ce genre de vérif, ça va être comme pousser le rocher de Sisyphe. Les dresseurs mal intentionnées ou simplement mauvais vont utilisé des IA de plus en plus évoluées qui contourneront le problème en imitant des comportements de plus en plus similaire aux bons contributeurs. WP, c'est une obligation de résultat, pas de moyens. Ce qu'il faut surement repenser, c'est le système de modération global. Par exemple, faire un édit de +500 caractères autorisé pour un nouveau contributeur, puis si validé par 20 autre contributeurs + expérimenté/déja validé, alors ça prochaine contrib pourra être de +1000 car. , ect.. Evidement faudra penser gérer a l'éventuel mauvaise cooptation (comme pour des éditeurs se faisant des remerciements en cercle fermé pour pouvoir continuer à promouvoir leurs œuvres). Cela sera un problème pour les contributeurs devant caché par nécessité leur IP... Mais il y a surement des moyens de les aider.. Hereptol (discuter) 25 janvier 2024 à 16:57‎
  22. Contre Un peu comme Trizek. Il y a des conneries faites par les humains comme par l'IA. De toute manière, tout ce qui est écrit doit être normalement sourcé et vérifié. --Chris a liege (discuter) 28 janvier 2024 à 00:12 (CET)[répondre]
  23. Contre Idem Trizek. — JKrs's (discuter) le 28 janvier 2024 à 20:16 (CET)[répondre]

Neutre modifier

  1. Je ne comprends pas le sens de la question, existe-t-il des personnes qui voudraient que les contenus générés par une IA soient traités de manière plus indulgentes que des contenus humains ? Évidemment que cela doit être relu avec au moins autant d'attention. — Pharma 💬 14 janvier 2024 à 16:15 (CET)[répondre]
    Le but de la question est de permettre un travail de maintenance et définir comme anormal certaines insertions d'intelligence artificielle. Et pour cela, la question vise à démontrer un consensus. Il y a actuellement pas énormément de discussion sur la question et si j'en crois Wikipédia:Le Bistro/31 décembre 2023#Plaidoyer pour une IA incorporé a Wikipédia., il semble qu'il y a des contributeurs tout à fait favorable à l'utilisation d'une IA. La question était à la base plus tranchée comme la question ci-dessous et cela a été rediscuté sur la page de discussion. Nouill 14 janvier 2024 à 17:14 (CET)[répondre]
  2. Mon intelligence naturelle ne comprend pas pour quelle raison il y a une différence sémantique entre cette question et cette de la proposition 2 qui a le mérite d'être claire. Résumons : je vote non et j'adoube la production et diffusion de texte IA en mode Alea jacta est. Je vote oui et je fais pareil mais avec l'espoir futile d'une illusion de contrôle sur la chose. Parce que le diable dans le détail, c'est ce qui est écrit entre les deux virgules de la proposition.--Xminor (discuter) 14 janvier 2024 à 21:48 (CET)[répondre]
  3. Seulement si c'est pour du pur factuel à partir de sources, comme avec les outils type Taxobot. Mais l'IA générative n'est PAS une synthèse de sources mais une invention vraisemblable, or le vraisemblable est bien souvent l'ennemi du vrai. FredD (discuter) 15 janvier 2024 à 10:07 (CET)[répondre]
  4. C'est étrange ce « soient traitées avec plus de sévérité »... Pour moi, soit l'article est recevable (et il répond aux exigences de la communauté)... soit il ne l'est pas ! Nul besoin de créer des règles spécifiques et supplémentaires... => Sg7438 discuter, c'est ici ! 15 janvier 2024 à 12:05 (CET)[répondre]
  5. Question biaisée : je suis absolument contre de telles logorrhées synthétiques. − ©éréales Kille® [Speak to me]* en ce lundi 15 janvier 2024 à 15:38 (CET)[répondre]
  6. Question pas claire et orientée. Acceptons-nous des textes "humains" visiblement mal écrits ? Non. Reformulation à revoir. --Hyméros --}-≽ 15 janvier 2024 à 22:34 (CET)[répondre]
  7. Question biaisée ; contre toute insertion de texte généré par une IA. Punctilla (discuter) 15 janvier 2024 à 23:52 (CET)[répondre]
  8. Je ne suis pas sûr que la question soit bien formulée. Mon avis suivant pourrait à la fois figurer en Pour et en Contre. Pour résumer ma pensée : on doit accepter les bons textes et retirer ou corriger les mauvais. Leurs origines importent peu, par contre l'humain qui les importe en est responsable. Le problème n'est pas si différent des traductions automatiques, généralement inexploitables sans une sévère relecture par un humain compétent. En l'état, je considère que les textes bruts générés par ChatGPT (ou autre) ne sont généralement pas utilisables dans Wikipédia ; par contre je n'ai rien contre le fait que des contributeurs et contributrices les utilisent comme base à retravailler pour publier un texte. Après tout, chacun bosse comme il le souhaite. Petite anecdote perso : j'ai récemment assisté à une présentation dans un cadre professionnel d'un collègue qui expliquait utiliser ChatGPT pour rédiger ses textes (reformulation, résumés...). Il en était très content. A titre personnel je ne me suis pas senti vraiment concerné, mais bon si ça l'aide, pourquoi pas, tant que c'est fait avec discernement et rigueur. Goodshort (discuter) 16 janvier 2024 à 10:07 (CET)[répondre]
  9. Je ne comprends pas les tenants et aboutissants de cette question. Vincent P. (discuter) 16 janvier 2024 à 16:33 (CET)[répondre]
  10.  Neutre, -? Plutôt contre, je rejoins certains commentaires : si à titre personnel, j'ai de grosses réserves quant à l'utilisation des IA génératives, j'imagine néanmoins qu'il doit être possible d'en faire un usage intelligent, de même qu'il est possible de faire un usage intelligent des traducteurs automatiques ? Si « ça se voit », je pense que la communauté se chargera de rectifier le texte en question, de même que quand « ça se voit que ç'a été traduit par Google Trad »... La Grande Feutrelle (discuter) 16 janvier 2024 à 20:08 (CET)[répondre]
  11. Pour ceux qui ne l'aurait pas vu: la position de Jimmy Wales sur le sujet. Pour ce qui est du vote, j'ai du mal à comprendre la question comme d'autres, l'essentiel étant le résultat que signifie "traiter avec plus de sévérité"? Triton (discuter) 17 janvier 2024 à 11:39 (CET)[répondre]
  12.  Neutre Question absurde. Tout est dans le 'si elles possèdent suffisamment de caractéristiques pour être identifiées comme telles' -> dans ce c'est que la contribution est mauvaise de base. Quant à savoir si on doit être plus 'sévère' qu'avec une autre mauvaise contribution... je ne vois pas pourquoi on serait moins sévère, mais je vois mal pourquoi on devrait être plus sévère. Les fautes d'orthographe de ce texte ont été corrigé par une IA D Cat laz (discuter) 17 janvier 2024 à 13:36 (CET)[répondre]
  13.  Neutre Je ne comprends pas très bien la question en fait. Nous n'avons pas a être plus/moins sévère avec l'IA qu'avec un contributeur lambda. Nous devons simplement ajuster notre niveau de vigilance sur les biais connus de l'IA. --GPZ Anonymous (discuter) 17 janvier 2024 à 14:41 (CET)[répondre]
  14.  Neutre La question est au minimum mal formulée. Sauf à ce que l'IA finisse par publier des contenus sans le concours d'un utilisateur humain, ce qui importe c'est que le contenu publié ne soit pas un plagiat et qu'il réponde aux critères encyclopédiques définis par la communauté. Le contributeur en porte la responsabilité, que l'article ou la modification proposés soient issus de son travail personnel ou qu'ils aient été générés par l'IA ou avec son aide. Donc le degré de "sévérité" des règles n'est pas le bon paramètre. Même si ce sera invérifiable et purement déclaratif, on peut toujours envisager une règle imposant d'indiquer qu'un contenu a été généré par l'IA et le sourcer comme tel (ref. Rédigé par ChatGpt). Mais on ne pourra pas aller bien au-delà. --Ncotso (discuter) 17 janvier 2024 à 22:48 (CET)[répondre]
  15. oui, non, peut-être. La détection de contenu généré par un LLM « moderne » n'est pas encore au point donc question rhétorique et comme tout le monde la formulation est bof. (:Julien:) 18 janvier 2024 à 11:11 (CET)[répondre]
  16. Cette question semble assumer en premier lieu être pour l’utilisation de LLM pour générer du contenu sur Wikipédia. Je suis contre pour beaucoup de raisons, dont 1. le fait qu’à moins d’être entraînée exclusivement sur des textes dans le domaine public, on ne peut pas considérer le résultat de la machine comme pouvant être mis sous licence libre, 2. les LLM n’ont aucune notion de sémantique donc les résultats sont très erratiques : on n’écrit l’encyclopédie à partir de sources, il n’y a aucune raison de générer du texte qui peut être faux (de manière subtile ou flagrante), puis chercher après des sources qui pourrait peut-être correspondre à peu près, c’est du travail en l’envers. Utiliser un LLM pour produire du contenu peut s’apparenter à de la désinformation, ce qui est tout contraire aux objectifs de l’encyclopédie. ~ nicolas (discuter) 19 janvier 2024 à 21:38 (CET)[répondre]
  17.  Neutre comme les outils de traduction, si c'est mal employé, ça se révoque. Géodigital (Ici la Terre digitale) 20 janvier 2024 à 14:27 (CET).[répondre]
  18.  Neutre Etonné qu'un sondage soit lancé avec une question aussi vague. Dans le principe, je suis Pour l'utilisation d'IA, par exemple pour synthétiser un document donné comme source. Il faudrait voir dans quelle mesure on accepte le résultat, mais que veut dire « avec plus de sévérité » ? La sévérité doit être la même : l'utilisateur qui édite Wikipédia est responsable du contenu, qui doit être dûment sourcé ; une mention pour dire que l'information est interprétée par une IA d'après une source est necessaire. Si elle pose problème, on fait comme d'habitude ; je ne vois pas pourquoi il faut plus ou moins de sévérité (un concept trop vague pour fournir une réponse suffisamment pertinente à ce sondage...). — Daehan [p|d|d] 22 janvier 2024 à 10:07 (CET)[répondre]
  19.  Neutre Même remarque que mon camarade ci-dessus. Je n'ai pas encore expérimenté ChatGPT, mais j'utilise par exemple et parfois Google Translate, rien à voir me direz-vous, mais voilà : j'obtiens une version (au sens littéral) que je retravaille, et source, avant de mettre en ligne le texte de l'article. Je ferai de même je pense avec un texte produit par ChatGPT. Maintenant, ce qui peut-être inquiétant ce serait un article produit directement par ChatGPT et mise en ligne par un bot. Comme ce fut le cas sur la Wikipedia Suède à une époque. --Marc-AntoineV (discuter) 23 janvier 2024 à 18:32 (CET)[répondre]
  20.  Neutre Comme indique Lofhi, « l'interdiction n'a pas de sens et l'utilisation ne pourra pas être vérifiée. ». En plus, les "IA" (terme marketing) sont déjà utilisées comme une amélioration d'outils préexistants des aides à la rédaction, sans autonomie. Et il en existe qui sont entrainées sur des bases de données légales. Par conséquent, je trouve cette question beaucoup trop vague dans sa formulation et mal renseignée pour quelle ait du sens. J. N. Squire (discuter) 24 janvier 2024 à 03:26 (CET)[répondre]
  21.  Neutre En ce qui concerne Wikipédia:Oracle, le sujet a été évoqué indirectement voir Wikipédia:Oracle/semaine 11 2023#ChatGPT contre l'Oracle,les réponses sont négatives par rapport à la question précise mais bien que l'Oracle soit un bon exemple (question/réponse) le ton est nettement incrédule, bien entendu la demande du sondage est différente de ce qui précède ici, mais l'incidence sur les réponses aux questions posées sur l'Oracle s'approcherait d'une tromperie manifeste décelable si répétition.--Doalex (discuter) 24 janvier 2024 à 15:40 (CET)[répondre]
  22.  Neutre la question ne distingue pas plusieurs sujets et semble considérer l'IA en soi comme néfaste, ce qu'on peut entendre, mais qui me semble mériter d'être nuancé. 1. Une IA telle que ChatGPT entraînée sur des échantillons sans autorisation viole le droit d'auteur et donc la licence WP, donc doit être refusée actuellement. Le problème de boucle d'une IA entraînée sur WPfr et qui créerait un texte utilisé dans WPfr est résolu par le fait que ce texte doit être sourcé, et le contenu doit être étayé par la source. Si c'est le cas, et que l'IA a été entraînée en respectant le droit d'auteur ou les licences sur les textes, alors je ne vois pas de problème. Un problème est qu'on ne peut pas aisément l'identifier, je pense qu'un sondage pourrait être lancé pour sanctionner plus lourdement un compte (personne physique ou même robot évidemment) qui userait d'une telle IA. 2. Par ailleurs, une IA qui n'est pas capable de citer ses sources ou qui ment lorsqu'on les lui demande ne peut être utilisée dans WP car elle trompe son usager ou son usagère. 3. Enfin, l'acceptation de contribution d'IA ouvre la porte à un nombre de contributions beaucoup plus nombreuses que celles des contributions d'origine humaines, et donc qui prendrait un temps de relecture bien plus important que le temps actuellement disponible. WPfr fonctionne actuellement car le nb de contributions produites est à peu près équilibré par le temps dédié à la relecture. Si plus de contributions étaient produites, alors il faudrait dédier sur le temps accordé par les contributeurs et contributrices plus de temps à la relecture et donc conséquemment moins de temps à la création, ce qui aboutirait à ce qu'une plus grande proportion de création serait faite par les IA et moins par les êtres humains. Si le nombre de contributions par IA augmente plus que le temps disponible, alors il ne sera plus possible de vérifier humainement ces contributions. - Lupin (discuter) 24 janvier 2024 à 23:50 (CET)[répondre]
  23.  Neutre Je suis très géné par le terme "sévérité". Il induit l'idée que l'intelligence artificielle serait de même nature que l'intelligence humaine, ne se différenciant que par une question de degré, un peu, je sais pas, comme quelqu'un qui aurait fait une bêtise avec son intelligence, et donc, forcément, il faudrait être plus sévère après. Ça me semble être une mauvaise façon de poser la question, et donc je préfère m'abstenir... ce qui n'est pas tout à fait pareil que d'être neutre, mais... --Touam discuter 27 janvier 2024 à 19:28 (CET)[répondre]

Mon commentaire même si je pense que la question n'est pas très bien formulée modifier

  1. Il me semble que l'ajout de phrases générées par des IA sur Wikipédia n'a surtout pas de grande utilité. La balance bénéfice / risque de l'opération me semble tellement négative que s'abstenir me semble le plus sage. Donc s'il faut interdire tout ajout via IA pour que les patrouilleurs aient une directive claire et simple, je suis pour. Cedalyon (discuter) 15 janvier 2024 à 19:10 (CET)[répondre]
  2. D'accord avec Cedalyon. Apollinaire93 (discuter) 17 janvier 2024 à 03:56 (CET)[répondre]

Proposition 2 modifier

Êtes-vous favorable à l'insertion d'images produites par une intelligence artificielle générative sur l'espace encyclopédique ?

Votes modifier

Oui modifier

  1. Pour Mike d 14 janvier 2024 à 08:05 (CET)[répondre]
  2. Pour Là où un dessin humain aurait été accepté. Je ne suis pas dessiner, je ne vois pas de raison de me priver d'utiliser une IA pour faire un schéma / une illustration. A condition bien sûr que l'image générée corresponde à ce que l'on souhaitait insérer et ne contienne pas d'hallucination / prise de liberté excessive de l'IA. Escargot (discuter) 14 janvier 2024 à 09:16 (CET)[répondre]
  3. Pour J'ai préparé un essai sur ces questions. Voici un extrait : Les articles de Wikipédia qui sont illustrés captent et soutiennent davantage l'attention du lecteur, ils peuvent également faciliter la compréhension en illustrant un propos de manière didactique. Il existe de nombreuses sources pour trouver des illustrations libres de droit, il est également possible au contributeur d'en réaliser lui-même pour illustrer Wikipédia. L'intelligence artificielle peut se révéler être à cet égard un outil intéressant pour générer ce type de contenu. Ceci soulève immédiatement des questions préliminaires :
    • La question première et centrale est celle de la pertinence encyclopédique. Cette illustration apporte-t-elle une plus-value pour l'encyclopédie? Ne peut-elle pas être valablement remplacée par une autre disponible sous une licence compatible ?
    • Est-elle "neutre" et "stéréotypique" au regard du sujet traité ou, a contrario, véhicule-t-elle un point de vue ou heurte-t-elle un principe de moindre surprise ?
    • N'est-elle pas entachée de plagiat parce que trop proche d'illustrations déjà existantes et protégées, elles, par le droit d'auteur ce qui en ferait des oeuvres dérivées par conséquent proscrites ?
    • Ne contrarie-t-elle pas le droit à l'image s'il s'agit par exemple de créer une "photographie" d'une personne ?
    • Enfin, une fois créée, cette illustration ne heurte-t-elle pas la sensibilité d'autres contributeurs qui se seraient exprimés en page de discussion de l'article illustré par une IA ? Dans un tel cas, moyennant une discussion loyale et argumentée, il sera préférable, comme toujours de préférer rien plutôt que quelque chose. — adel 14 janvier 2024 à 09:59 (CET)[répondre]
    Nécessité de mentionner l'origine IA de l'illustration
    Wikipédia, et de manière plus générale les projets Wikimedia, constituent un corpus important de données qui servent à entrainer des intelligences artificielles. Par ailleurs, toute personne consultant Wikipédia (ou un autre projet) est en droit d'être informé que l'illustration (Photographie, dessin, schéma, etc.) a été générée par une IA. A cette fin, il est impératif de se conformer aux usages sur Commons et, pour ce qui relève de Wikipédia, de mentionner en légende que cette illustration est le fruit d'une Intelligence artificielle générative. La page concernée sera également dument répertoriée dans la catégorie de maintenance catégorie:Page comportant une illustration générée par une IA. — adel 14 janvier 2024 à 10:10 (CET)[répondre]
  4. Pour en théorie. En pratique je ne suis pas convaincu du fait que beaucoup d'illustrations générées par l'IA jusqu'à présent soient pertinentes. Belysarius (discuter) 14 janvier 2024 à 22:46 (CET)[répondre]
  5. Pour. - p-2024-01-s - обговорюва 15 janvier 2024 à 09:10 (CET)[répondre]
  6. Plutôt pour mais avec le même niveau d'exigence que pour du texte afin d'éviter les TI : il faut des sources, c'est-à-dire des images originelles qui ont servi à créer l'illustration. Ce qui va être compliqué ça va être de juger de la conformité aux sources, c'est-à-dire ici de la ressemblance ce qui est nettement plus subjectif que pour un passage écrit, mais ça ne me parait pas insurmontable. -- HMa [discutez sans frapper] 15 janvier 2024 à 10:41 (CET)[répondre]
  7. Pour si l'image est insérée par un rédacteur humain, c'est lui qui en prend la responsabilité. Le traitement du TI doit rester le même. Seul avantage d'une image IA : il n'y a pas lieu de « refléter la personnalité de l'auteur » donc pas de droit d'auteur au sens juridique du terme (il peut cependant y avoir une propriété intellectuelle, c'est une autre question). Mais pour en discuter, voir wp:Legifer. Michelet-密是力 (discuter) 15 janvier 2024 à 11:06 (CET)[répondre]
  8. Pour à la condition de préciser en légende qu'il s'agit une image générée par IA. Je pense que ces images peuvent être utiles dans un certains nombre d'articles, et je ne vois pas de raisons qui justifieraient de s'en passer, dans la mesure où nous acceptons par exemple les visions d'artistes pour illustrer certains sujets. Yhaou (discuter) 15 janvier 2024 à 11:24 (CET)[répondre]
  9. Pour => Sg7438 discuter, c'est ici ! 15 janvier 2024 à 12:06 (CET)[répondre]
  10. Pour La plupart des images sont meilleures et plus qualitatives que celles des humains. Mais doivent être (tout comme celles des humains) comparables avec une iconographie existante ou d'inspiration sourçable. --Jean-Christophe BENOIST (discuter) 15 janvier 2024 à 14:14 (CET)[répondre]
  11. Pour Quand il n'y a rien d'autre à disposition et uniquement pour l'infobox. Slzbg (discuter) 15 janvier 2024 à 14:36 (CET)[répondre]
  12. Pourquoi pas pour certains types d'images, je pense par exemple à des schémas, plans, cartes… --Mathis B discuter, le 15 janvier 2024 à 17:30 (CET)[répondre]
  13. Pour, les dessins sont bien acceptés. Tant qu'un humain repasse derrière pour vérifier que ces images sont appropriés à l'article. --Huguespotter (discuter) 15 janvier 2024 à 18:12 (CET)[répondre]
  14. N'ajoutons pas une couche de complications et faisons comme pour n'importe quelle image : à partir du moment où elle est pertinente pour le contenu, elle est bienvenue. Trizek bla 15 janvier 2024 à 18:38 (CET)[répondre]
  15. Plutôt pour. Oui... avec modération. S'il existe une image ou photo de bonne qualité pour illustrer l'infobox (par exemple), je suis d'avis de plutôt utiliser cette image qu'une image générée par une IA. L'IA doit surtout servir à corriger ou améliorer la qualité des photos.--Pronoia (discuter) 15 janvier 2024 à 19:30 (CET)[répondre]
  16. Pour. Avec la même argumentation que pour le premier point : si l’image respecte les règles déjà édictées, qu’importe son origine ? Padex (discuter) 15 janvier 2024 à 21:01 (CET)[répondre]
  17. Pour Use85430 (discuter) 15 janvier 2024 à 22:57 (CET)[répondre]
  18. Pour cf. PdD--ManuRoquette 🌍 (Discutons !) 16 janvier 2024 à 10:16 (CET)[répondre]
  19. Plutôt pour mais uniquement dans des cas de derniers recours si aucune illustration n'est disponible, en précisant clairement dans la légende que l'image a été générée par l'intelligence artificielle Cosmiaou d 16 janvier 2024 à 10:55 (CET)[répondre]
  20. Pour Si le type d'image est explicite dans la légende, et si elle ne représente pas un contenu réel dans un but de remplacement (c'est acceptable dans le cas où cela permet de montrer des choses qui ne pourraient pas/pourraient difficilement être illustrées autrement) --Silex (discuter) 16 janvier 2024 à 13:58 (CET)[répondre]
  21. Pour Je ne vois pas de raison de refuser qu'une image générée par IA soit refusée pour ce motif. En revanche, il faut évidemment qu'elles respectent au moins les mêmes règles que les images classiques, notamment de licence, et qu'elles aient un rôle encyclopédique. JeanCASPAR (discuter) 16 janvier 2024 à 20:42 (CET)[répondre]
  22. Pour en accord avec plusieurs avis ci-dessus, doit être traité au cas par cas (pertinence, qualité, pas de remplacement inutile d'images de qualité déjà existantes, etc etc). Cette demande de vote ne prend par ailleurs pas du tout en compte la diversité des processus de création pouvant ou non utiliser une IA, de manière complète ou partielle.Triton (discuter) 17 janvier 2024 à 11:24 (CET)[répondre]
  23. Plutôt pour Je ne vois pas pourquoi on se priverait de cette fonction. En revanche c'est à manipuler avec discernement et précaution. Je pense notamment au cas d'images censées représenter des personnages historiques dans le passé (au moyen-âge par exemple). --GPZ Anonymous (discuter) 17 janvier 2024 à 14:46 (CET)[répondre]
  24. Pour Non pas que j'y sois résolument favorable, mais l'utilisation des images générées par l'IA s'imposera inévitablement à Wikipédia. C'est probablement déjà le cas. Plutôt que de s'y opposer frontalement, il me semble préférable d'envisager des règles spécifiques et surtout des actions de sensibilisation sur le bon usage de ces images par les utilisateurs. --Ncotso (discuter) 17 janvier 2024 à 22:40 (CET)[répondre]
  25. Plutôt pour Je suis pour son autorisation sous réserve que la production finale est vérifiée (problèmes de droit d'auteurs etc.). Par contre je pense que dans la majorité des cas ce sera inutile et je rejoint les arguments du contre il n'y aura pas de pertinence encyclopédique et à ce moment là l'image devrait être traitée comme n'importe quelle autre image créée par un humain (= on la supprime non pas parce que c'est une IA, mais parce qu'elle n'est tout simplement pas pertinente). Cependant je vote néanmoins "pour", car ce n'est pas parce que je doute de l'utilité des images IA qu'on ne pourra pas trouver parfois une utilité réelle selon les articles et les sujets, donc ça ne sert à rien de l'interdire sous prétexte que ce sera souvent inutile.--AodrenG (discuter) 20 janvier 2024 à 15:34 (CET)[répondre]
  26. Inutile de s'embêter Comme pour la question précédente, il suffit d'appliquer nos règles et recommandations — en l'espèce, WP:Conventions d'utilisation des images. J'identifie quatre inquiétudes potentielles liées à une illustration générée par IA : manque de pertinence encyclopédique, auquel cas il faut discuter de sa conservation ou de son retrait au même titre que n'importe quelle image ; manque d'esthétisme qui nuit à l'article, auquel cas il faut également discuter de sa conservation ou de son retrait au même titre que n'importe quelle image ; violation de droits d'auteurs, auquel cas cela doit se régler sur Commons (et si Commons décide de la conserver, je ne vois aucun intérêt à nous montrer plus royalistes que le roi) ; et enfin, travail inédit, auquel cas il faut évaluer le caractère vérifiable et proportionné de ce qui est représenté à l'aune de WP:Vérifiabilité. Là encore, toute règle supplémentaire (et a fortiori toute interdiction pure et simple) me semble superflue. --Cosmophilus (discuter) 20 janvier 2024 à 23:21 (CET)[répondre]
  27. Idem Cosmophilus ci-dessus. Il n'y a pas de raison d'être contre spécifiquement sur ces images : on a déjà les outils pour déterminer si une image pose problème ou pas. Une mention de son origine me semble néanmoins nécessaire. — Daehan [p|d|d] 22 janvier 2024 à 10:09 (CET)[répondre]
  28. Pour à condition comme dit ci-dessus que l'origine de l'image soit précisée. De toutes les façons, il y a énormément d'images sur Commons qui souffrent actuellement d'une absence d'origine... On aura juste encore un peu plus de taffe... --Marc-AntoineV (discuter) 23 janvier 2024 à 18:44 (CET)[répondre]
  29. Pour du fait d'absence d'illustrations sous droits d'auteurs et que tous les outils n'utilisent pas des images sauvagement. Mais, en plus des limitations conseillées plus haut (pertinence, etc.), sous conditions d'algorithmes utilisant des bases avec l'accord des auteurs. J. N. Squire (discuter) 24 janvier 2024 à 03:37 (CET)[répondre]
  30. Plutôt pour : sous conditions : ne pas faire de fausses photos ni utiliser de contenu sous droit d'auteur. Mais cela pourrait être utile dans certains types d'articles.--Simonk (discuter) 25 janvier 2024 à 17:09 (CET)[répondre]

Non modifier

  1. Contre : Absence de pertinence encyclopédique.
  2. Contre fort c'est un TI comme un autre, la plupart de ces images n'ont aucun intérêt encyclopédique. Uchroniste 40 14 janvier 2024 à 09:55 (CET)[répondre]
  3. – Swa cwæð Ælfgar (discuter) 14 janvier 2024 à 10:16 (CET)[répondre]
  4. -? Plutôt contre, pour les mêmes raisons qu'Uchroniste, mais la question est trop générale. Si c'est publier une image après avoir demandé à l'IA "Illustre-moi l'article x de WP", non fort.--Sherwood6 (discuter) 14 janvier 2024 à 12:40 (CET)[répondre]
  5. Contre fort il vaut mieux aucune illustration qu'une illustration générée par IA, qui va piller le travail de graphistes et illustrateurs. levieuxtoby  · w (il/lui) – le 14 janvier 2024 à 13:25 (CET)[répondre]
  6. Contre je considère que ce n’est pas pertinent dans le cas général (sauf dans les articles sur les IA génératives par exemple, ou lorsque c’est une image qui a participé à la notoriété du sujet): les images dans nos articles ne sont pas des enluminures. La présence de telles illustration n’est, pour moi, pas raisonnablement compatible avec notre objectif de créer une encyclopédie de qualité. — Metamorforme42 (discuter) 14 janvier 2024 à 14:40 (CET)[répondre]
  7. Contre fort ou alors ça n'est plus une encyclopédie. Et quelles conditions sur les licences ? Athozus Discussion 14 janvier 2024 à 15:45 (CET)[répondre]
  8. Contre, tout comme je suis plutôt contre les dessins humains. À très long terme, chaque article de Wikipédia pourra être illustré. Ne nous précipitons pas vers des images inédites sous le prétexte que ce serait mieux qu'aucune illustration. — Pharma 💬 14 janvier 2024 à 16:10 (CET)[répondre]
  9. Contre Déjà parce que ces outils ne sont pas éthiques (je trouve au passage assez hallucinant d’ailleurs qu’on nous casse interminablement les pieds avec les droits d’auteurs sur des photographies d’avant 1945 dont personne ne connaît les auteurs mais que par contre piller massivement le travail de gens bien vivants c’est ok). En outre je ne pense pas que ces outils seront utilisées à bon escient à voir les aberrations que sont les photographies anciennes colorées par IA, dont l’insertion est de plus en plus fréquente. Nous n’avons rien à vendre, donc pas besoin d’insérer des images flatteuses, mais mensongères, pour faire du clic. Runi Gerardsen (discuter) 14 janvier 2024 à 16:48 (CET)[répondre]
  10. Contre fort --Myloufa Discuter ou faire Appel? 14 janvier 2024 à 16:57 (CET)[répondre]
  11. Je ne suis pas convaincu par les exemples existants sur Catégorie:Page comportant une illustration générée par une IA, en dehors des articles consacrés eux-même à l'Intelligence artificielle, où les images peuvent montrer le style assez spécifique utilisé par la plupart des IA actuellement. La plupart du temps l'illustration n'apporte peu de nouvelles informations à l'article et n'est là qu'à titre illustrative. Nouill 14 janvier 2024 à 17:23 (CET)[répondre]
  12. Contre fort cela pose de lourds problèmes tant en tant que véracité, que de respect du droit d'auteur des personnes dont le travail a été pillé pour entraîner les IA. Litlok (m'écrire) 14 janvier 2024 à 18:34 (CET)[répondre]
  13. Contre idem Nouill et Litlok--Remy34 (discuter) 14 janvier 2024 à 18:42 (CET)[répondre]
  14. Contre fort L'image sur WP n'est pas qu'une illustration, c'est aussi une information à vocation encyclopédique qui n'est alors plus du tout vérifiable (et qui est par nature invérifiable). Certains sujets ne sont pas faciles à illustrer et ce n'est pas pour rien (manque d'informations fiables) évitons de brouiller encore plus les frontières. Unptitpeudtout (discuter) 14 janvier 2024 à 19:57 (CET)[répondre]
  15. Contre Attention je vais être long. Il y a deux type d'images produites par l'IA :1, les images améliorées (logiciels d'agrandissment "sans perte", et autres "enhancer picture"), avec Remini, Waifu2x, Topaz lab, ou Vance AI, etc. dont le but est d'améliorer une image préexistante de basse qualité (basse résolution, floue, désaturée, pixélisée...). Dans le cas de la colorisation cela peut donner des couleur qui n'ont rien à voir avec la réalité et l'exactitude historique, exemple de colorisation (Evelyn Nesbit en fait était rousse source). Dans le cas d'agrandissement "sans pertes" cela peut donner des artefacts très problématiques surtout avec des images en très basses résolution, et selon les logiciels et applis cela peut donner des résultats très différents. Dans le cas de photos de personnalités, certains logiciels comme Remini ou Aiseesoft "corrigent" les visages avec des résultats qui n'ont, des fois, plus rien de ressemblant.
    En second : les images générées par l'IA (Midjourney, DALL-E, Stable diffusion etc.), exemple: le pape François en doudoune. Le résultat est alors une manipulation de l'image, en particulier quand il s'agit d'imiter le réalisme d'une photographie avec une réinvention du réel. Il y a à la fois du TI, et de la manip qui abusent le lecteur.
    Ces applications évoluent et très vite, une tendance est en train de se développer avec de nouveaux logiciels, c'est la combinaison de l'IA générative avec l'IA améliorative. Un logiciel va améliorer et recréer une image préexistante à partir de l'original tout en cherchant, selon des réglages (+ ou - ressemblant et + ou - créatif), à être plus ou moins fidèle à la source d'origine, c'est ce que font Krea AI et Magnific AI, et les résultats peuvent etre bluffants (ou peut le constater sur le net) mais aussi artificiels. Donc avec ces évolutions dans l'IA (et ce n'est que le début), où la dernière version de Midjourney rend obsolète la précédente, on se retrouve avec des images de plus en plus manipulées et de moins en moins détectables avec les risques de manipulation du lecteur. Donc dans les deux cas de figures, ce n'est pas aux contributeurs de jouer les Frankenstein en faisant joujou avec ces programmes qui ne peuvent donner des résultats pertinents. Le seul usage autorisé pour ces images est d'illustrer les articles sur l'IA et ses différents logiciels. Kirtapmémé sage 14 janvier 2024 à 19:59 (CET)[répondre]
  16. Contre fort ça va être la foire aux emmerdes en tout genre. Toutefois tolérer l'utilisation d'IA permettant de retoucher ou coloriser une image. Cdlt, Lyon-St-Clair [Hon hon hon] 14 janvier 2024 à 21:03 (CET)[répondre]
  17. Contre -- DCh50 (discuter) 14 janvier 2024 à 21:35 (CET)[répondre]
  18. Contre les images entièrement générées, même si celles-ci peuvent se rapprocher très près de la réalité (la confondre même), une IA générative est biaisée, tout comme nous certes, mais un vraie photo reste un vraie photo, la réalité n'a pas de biais (sauf si le barbu en haut nous fait des farces) et la question des droits d'auteurs se pose aussi. De plus cela risque d'être un enfer pour définir ce qui est admissible ou non (presque du cas par cas ?). Toutefois je laisse une exception justement sur les sujets traitants des IA génératives avec mention de l'outil utilisé. Échecs[Discuter] 14 janvier 2024 à 22:20 (CET)[répondre]
  19. Contre. Pour les raisons déjà exprimées par Pharma et Kirtap. — Philobule (discuter) 14 janvier 2024 à 22:23 (CET)[répondre]
  20. Contre Certains articles sont illustrés en images au point de se demander si on est pas sur Instagram, alors que d'autres ne sont pas du tout illustrés pour cause d'avides droits d'auteurs confiscatoires. L'IA ne résout aucun de ces problèmes bien humains et à vrai dire, qu'est-elle sensée résoudre ici ?--Xminor (discuter) 14 janvier 2024 à 22:59 (CET)[répondre]
  21. ContreBimBe93 (discuter) 15 janvier 2024 à 01:30 (CET)[répondre]
  22. Contre fort C'est le contraire de l'encyclopédisme... FredD (discuter) 15 janvier 2024 à 10:44 (CET)[répondre]
  23. Contre fort, notamment pour les raisons déjà exposées de moissonnage de données d'entraînement sans autorisation. – Maraschinae 🍒 (discuter) 15 janvier 2024 à 11:32 (CET)[répondre]
  24. Contre fort Matpib (discuter) 15 janvier 2024 à 11:41 (CET)[répondre]
  25. Contre fort Pas d'intérêt encyclopédique puisque l'image généré par l'IA est soit un TI, soit un micmac d'images existentes qu'il faudrait mieux utiliser. Ca et les nombreux problèmes éthiques et légaux que ça peut entraîner. Thuiop (discuter) 15 janvier 2024 à 13:11 (CET)[répondre]
  26. Contre fort Toutes ces images finissent par se ressembler, il n’émane aucune émotion de ces pixels assemblés. Place à l’humain, à l’artiste qui sommeil en chacun. − ©éréales Kille® [Speak to me]* en ce lundi 15 janvier 2024 à 15:37 (CET)[répondre]
  27. Contre Idem Kirtap.  — 🦊 jilucorg converser, le 15 janvier 2024 à 16:42 (CET)[répondre]
  28. Contre fort en accord avec les divers arguments précités. --Lodewijk van den Broucke (discuter) 15 janvier 2024 à 18:07 (CET)[répondre]
  29. Contre fort Tant que le débat public ne sera au point sur la violation des droits d'auteurs par les IA génératives d'images, je pense qu'on ne devrait pas les utiliser sur WP. Rigoluce, 15 janvier 2024 à 18:34 (CET)[répondre]
  30. Contre Problème de licence, problème éthique et utilité encyclopédique très faible. Cedalyon (discuter) 15 janvier 2024 à 19:05 (CET)[répondre]
  31. Contre fort parce que pas encyclopédique, tout simplement. ―Eihel (discuter) 15 janvier 2024 à 19:44 (CET)[répondre]
  32. Contre Le respect du droit d'auteur est un principe essentiel de Wikipédia. On sait désormais que la plupart des IA génératives d'imagbes ont été entraînées sur des bases comprenant des œuvres d'auteurs et d'autrices qui n'ont pas donné leur consentement à cet usage. Au-delà du procédé, cela fait courir un risque juridique. Bokken | 木刀 15 janvier 2024 à 22:32 (CET)[répondre]
  33. Contre En plus de ce que dit Bokken, ces images vont avoir tendance à reproduire des poncifs tout en n'étant pas ancrées dans la réalité. Le processus les rend en quelque sorte intrinsèquement fausses et vulgaires, en plus d'être immorales et potentiellement illégales. Rama (discuter) 15 janvier 2024 à 22:39 (CET)[répondre]
  34. Contre fort Les images générées par IA sont des plagiats qui pillent et volent le travail de véritables artistes. Tan Khaerr (discuter) 15 janvier 2024 à 22:45 (CET)[répondre]
  35. Contre fort 1) Ces images posent de multiples problèmes de droits (propriété intellectuelle des œuvres utilisées pour entraîner les IA, représentations de personnes vivantes et de personnages de fiction n'appartenant pas au domaine public, etc.) qui sont loin d'être réglés à l'heure actuelle et qui risquent de valoir procès et autres ennuis judiciaires à la fondation Wikimedia. 2) Ces images posent des problèmes accrus de faux, forgeries et autres montages qui poseront plus de problèmes qu'ils n'en résoudront. Leur vérifiabilité pose problème. Même lorsqu'il s'agit d'agrandir une image de tableau en la "re-générant" en plus grand ou en plus petit. 3) Les images générées par les IA ne sont actuellement pas capables d'illustrer de manière fiable des sujets scientifiques (costumes historiques, schémas anatomiques...). 4) Ces images ont tendance à reproduire des poncifs, des stéréotypes et donc vont renforcer les différents biais de représentativité culturelle contre lesquels nous avons déjà du mal à lutter pour ce qui est du nombre et de la qualité des textes. --Eunostos|discuter 15 janvier 2024 à 22:56 (CET)[répondre]
  36. Contre fort Aucune authenticité. TI dans lesquels il est impossible de démêler les enjeux faute de contextualisation. Vérifiabilité problématique… En accord notamment avec Unptitpeudetout (13), Kirtap (14), et Runi Gerardsen (8) et Eunostos (ci-dessus), … Punctilla (discuter) 16 janvier 2024 à 00:15 (CET)[répondre]
  37. Contre fort tant que les IA génératives sont entrainées sur des datasets pillant les artistes. Léna (discuter) 16 janvier 2024 à 02:45 (CET)[répondre]
  38. -? Plutôt contre, notamment par rapport au problème de l'utilisation par ces systèmes de l’œuvre complète d'artistes illustrateurs non-crédités. Si l'image est pertinente et clairement indiquée comme ayant été générée, pourquoi pas, mais si une autre option est disponible, cela semble préférable. Sunoc94 (discuter) 16 janvier 2024 à 12:55 (JST)
  39. Contre fort --Antoine.b (discuter) 16 janvier 2024 à 09:53 (CET)[répondre]
  40. Contre --Zekovski (discuter) 16 janvier 2024 à 12:24 (CET) Premièrement pour tout l'aspect éthique (Gaspillage de ressource, exploitation de travailleurs, pillage d'images sans l'accord des auteurs, ...). Je ne tiens pas à légitimer et inciter au financement de ce genre d'outils. Deuxièmement, je repense à cette illustration de bébé paon générée par IA. Même si les erreurs peuvent être moins grossières, elles persisteront. On s'éloigne du style encyclopédique. De même pour les illustrations de créatures imaginaires par exemple : Les illustrations n'ont pas pour vocation de flatter la rétine. Troisièmement, Le sujet de ces technos n'est pas encore clair et tranché sur plein d'aspects (légalité du chalutage d'images pour entraîner le modèle, droit d'auteur sur les contenus générés, ...). Je ne suis pas pour immédiatement se jeter là-dedans et prendre le risque de le regretter plus tard.[répondre]
  41. Contre Entre les problèmes de TI et l'insécurité juridique qui entoure encore ces oeuvres, ça me semble impraticable. Vincent P. (discuter) 16 janvier 2024 à 16:34 (CET)[répondre]
  42. Contre fort Yoyo 360Wanna talk? 16 janvier 2024 à 19:16 (CET)[répondre]
  43. Contre --Lionel June (discuter) 16 janvier 2024 à 19:17 (CET)[répondre]
  44. Contre, je ne connais pas bien le sujet mais j'ai quand même cru comprendre que ça posait de grosses questions en termes de droits d'auteur·rice... — La Grande Feutrelle (discuter) 16 janvier 2024 à 19:51 (CET)[répondre]
  45. Contre Nombreux problèmes dont authenticité, vérifiabilité, droits d'auteurs, etc. Culex (discuter) 16 janvier 2024 à 20:52 (CET)[répondre]
  46. Contre fort Pour les mêmes raisons que mon prédécesseur, entre autres.--AndréLegault (discuter) 17 janvier 2024 à 01:08 (CET)[répondre]
  47. Contre fort Beaucoup de choses ont déjà été dites, rien à ajouter. Apollinaire93 (discuter) 17 janvier 2024 à 03:57 (CET)[répondre]
  48. Contre. À la question : « Êtes-vous favorable à l'insertion d'images produites par une intelligence artificielle générative sur l'espace encyclopédique ? », cette dernière doit sûrement faire référence à l'aide:Importer un fichier/Exceptions réservé aux images de logos de marques déposées, de bâtiments récents et de monnaies, sans y rajouter les images générées par une intelligence artificielle. Dans un autre cas, l'on ne peut imaginer que l'encyclopédie française puisse faire ingérence dans les règles, recommandations ou essais (liens : Commons:AI-generated media et version traduite) d'un projet frère ou sœur tel que Commons dont une partie des images acceptées sont visibles dans la catégorie : AI-generated et de s'opposer aux acceptations en vigueur dans un autre projet. En effet, si un projet accepte de telles images suivant un protocole de validation, l'encyclopédie française ne peut que délicatement s'y opposer.
    Cordialement à Toutes et Tous, —— DePlusJean (Discuter) 17 janvier 2024 à 07:10 (CET)[répondre]
  49. Contre fort Ce sont des contenus inventés, remplis de biais, qui ne seront pas une illustration représentative. Par ailleurs, conflits de droits d'auteur. CelianGdfrd (discuter) 17 janvier 2024 à 11:04 (CET)[répondre]
  50. Contre fort comme déjà dit nombre de fois plus haut, c'est un TI avec un résultat inventé qui n'a donc pas sa place dans une encyclopédie du vrai. --Gnrc (discuter) 17 janvier 2024 à 12:12 (CET)[répondre]
  51.  Neutre pour les dessins non réalistes, mais Contre fort pour les images photoréalistes. Une photo générée, ou même simplement agrandie ou colorisée par une IA est fausse, elle contient des artéfacts hallucinées. Des fausses photos dans une encyclopédie trompent le lecteur. Même une légende qui souligne la provenance fictive ne suffit pas. Qui parmi vous lit 100% des légendes des photos ? On pourrait donc se limiter aux images au style "dessin", mais c'est compliqué de mettre une limite claire entre les deux types d'images. Quand on ajoute les problèmes éthiques et de droit d'auteur, ça ne donne pas envie de se presser. ‒ Quasar (D) 17 janvier 2024 à 11:31 (CET)[répondre]
    Entièrement d'accord avec vous MDCCCC (discuter) 19 janvier 2024 à 22:06 (CET)[répondre]
  52. -? Plutôt contre car TI et vraiment ça peut partir en sucette cette histoire. Mais à mon avis on aura quelques cas qui se présenterons (peut être 0.05% des article) où ce sera utile. D Cat laz (discuter) 17 janvier 2024 à 13:40 (CET)[répondre]
  53. --En passant (discuter) 17 janvier 2024 à 19:52 (CET)[répondre]
  54. Contre fort TI. Cdt, Manacore (discuter) 17 janvier 2024 à 22:48 (CET)[répondre]
  55. Contre fort A mon, sens, ces images posent des problèmes de droit, de vérifiabilité, d'authenticité. Girart de Roussillon (Discrepance ?) 18 janvier 2024 à 12:45 (CET)[répondre]
  56. Contre fort --Ozzie10aaaa (discuter) 19 janvier 2024 à 05:07 (CET)[répondre]
  57. Contre autant je suis favorable à la création automatisée de textes à partir de bases de données (comme l'INSEE par exemple) autant je suis contre les images d'IA car il y a une gros risque de travestir la réalité et l'IA elle même puise ses sujets dans des images prise par des humains, donc gros problème de droit d'auteur. Après peut-être pourrait-on faire des exceptions comme la création de schémas par exemple, il faudra affiner plus tard. A.BourgeoisP 19 janvier 2024 à 07:07 (CET)[répondre]
  58. Contre fort déjà parce que les IA sont infestées de biais et surtout que la plupart des IA sont entraînées sur des bases d'images pas toujours libre de droits ce qui peut poser des problèmes par rapport à la politique de Wikipédia et la réutilisation des images qui doivent être libres de droits. À noter qu'un très grand nombre des ces programmes sont actuellement attaqués en justice pour ces raisons. --Gamma Corvi (discuter) 19 janvier 2024 à 20:27 (CET)[répondre]
  59. Contre fort Pour beaucoup de raisons, dont 1. le fait qu’à moins d’être entraînée exclusivement sur des images dans le domaine public, on ne peut pas considérer le résultat de la machine comme pouvant être mis sous licence libre, 2. une fausse image est désinformation, ce qui est tout contraire aux objectifs de l’encyclopédie. ~ nicolas (discuter) 19 janvier 2024 à 21:29 (CET)[répondre]
  60. Contre fort Comme le précise OpenAI, les LLM et IA génératrices nécessitent actuellement un corpus conséquent, et la seule manière de l'obtenir est de jouer avec, voir complètement ignorer le copyright. Le contenu est non-original, non-reproductible. Mais le plus important semble être que la licence du contenu produit est trop imprécise et instable juridiquement pour l'inclure à mon avis. --Gileri (discuter) 19 janvier 2024 à 22:10 (CET)[répondre]
  61. Contre fort --BB 22385 (discuter) 19 janvier 2024 à 23:38 (CET)[répondre]
  62. Contre Ruyblas13 [conversazione] 20 janvier 2024 à 09:55 (CET)[répondre]
  63. Contre fort Interdiction totale. --PHIL34 (discuter) 20 janvier 2024 à 12:37 (CET)[répondre]
  64. Contre pertinence douteuse, respect des droits douteux. HB (discuter) 20 janvier 2024 à 13:03 (CET)[répondre]
  65. Contre fort Wikipédia ou Commons n'ont pas à faire du recel et usage de recel d'oeuvres pillées au regard de l'énorme problème éthique et légal posé par la manière dont le corpus utilisé par ces IA a été constitué. Géodigital (Ici la Terre digitale) 20 janvier 2024 à 14:27 (CET).[répondre]
  66. Contre fort car souvent la qualité de ces images est mauvaise (mains mal dessinées, artefacts qui dépassent, etc.). Le fait d'être un TI n'est pas ce qui est décisif selon moi, puisque plusieurs TIs peuplent déjà Wikipédia (par ex. : c:File:Dwarf by BrokenMachine86.jpg, c:File:Lutin by godo.jpg, c:File:DnD Dwarf.png), mais le risque est de demander une image pour chaque chose à l'IA, de démultiplier sans raison les TIs. Veverve (discuter) 21 janvier 2024 à 11:49 (CET)[répondre]
  67. Contre, non encyclopédique, interprétations personnelles d'un sujet —JohnNewton8 (SysOp) [Viens !] 21 janvier 2024 à 11:57 (CET)[répondre]
  68. Contre, notre principe fondateur dispose que la rédaction des articles est un travail qui doit être faite en veillant aux questions légales et particulièrement au respect du droit d'auteur. Or, jusqu'à preuve du contraire, les derniers modèles génératifs accessibles au public suscitent des suspicions de violation dudit droit d'auteur ou font face à des débuts de litiges juridiques (e.g. Midjourney, DALL-E, Stable Diffusion). Jusqu'à que cela soit réglé, nulle raison de mettre la Fondation en son rôle d'hébergeur dans une situation délicate. Lofhi (discuter) 22 janvier 2024 à 19:07 (CET)[répondre]
  69. Peu favorable -- Pªɖaw@ne 23 janvier 2024 à 15:40 (CET)[répondre]
  70. Contre Comme pour les dessins à la main, se sont des TI. A part les photos, les seules images qu'on peut ajouter sont des images qui sont publiées de source fiable, libres de droit. Je ne vais pas peindre la maison d'une célébrité, soit je la prends en photo (si j'ai le droit), soit je prends un tableau réalisé par un artiste. Les images d'IA c'est pareil que les images de ma plume : hors-sujet ! Bertrouf 25 janvier 2024 à 11:46 (CET)[répondre]
  71. Contre Ooglook (discuter) 25 janvier 2024 à 19:28 (CET)[répondre]
  72. Contre Parce que la relation avec la chose imagée est inexistant. --Touam discuter 27 janvier 2024 à 19:30 (CET)[répondre]
  73. Contre Le risque de falsification est trop élevé et entièrement d'accord avec Bertrouf.
  74. Contre — JKrs's (discuter) le 28 janvier 2024 à 20:16 (CET)[répondre]

Neutre modifier

  1.  Neutre Franchement, cela dépend grandement des sujets : pourquoi pas si l'on possède de nombreuses photos sur lesquelles se baser, contre si cela revient à du TI sur les créatures légendaires. La question mériterait un sondage plus précis à elle toute seule. DarkVador [Hello there !] 14 janvier 2024 à 05:06 (CET)[répondre]
  2.  Neutre : Je ne me prononce pas, mais préfère rappeler quelques discussions à ce propos : Wikipédia:Le Bistro/26 décembre 2023#Images créées par une intelligence artificielle et insérées dans les pages ou les infoboxes et Wikipédia:Le Bistro/6 décembre 2023#Peut-on utiliser les images créées par OpenAI. Cordialement, L0Ldu82‬ ()14 janvier 2024 à 13:03 (CET)[répondre]
    Et une autre : Wikipédia:Le Bistro/30 novembre 2023#Illustrations Midjourney. L0Ldu82‬ ()14 janvier 2024 à 14:56 (CET)[répondre]
  3. Ni favorable, ni défavorable. Je suis pour une utilisation avec discernement, si et seulement si, cela va de pair avec nos autres règles. Par exemple, sous prétexte que l'image a été générée, je ne me vois pas interdire une image qui a été publiée dans une oeuvre de qualité et faisant autorité. Si l'illustration en elle-même atteint un potentiel de notoriété (pour le dire sommairement), ce n'est raisonnable de l'exclure. Une image, quelle que soit son origine, devrait être jugée sur des critères (pertinence, qui en sont ses auteurs, etc.). Or une oeuvre peut être dérivée, avoir plusieurs auteurs, etc., même si un des auteurs est une IA, cela ne justifie pas une interdiction ; réciproquement, être une IA ne légitime pas les oeuvres produites. LD (d) 15 janvier 2024 à 02:24 (CET)[répondre]
  4.  Neutre J'avoue que d'un côté j'aurai tendance à dire Pour en sachant que je ne sais absolument pas dessiner et que ça pourrait être éventuellement utile évidemment. Néanmoins, Contre, car l'IA n'est pas tout à fait au point, notamment sur les visages, les écritures... et puis on ne devrait pas mettre sur wikipédia ces images mais plutôt sur wikimedia commons. Et pour les licences ? L'IA publie en licence CC ou un DA s'impose ? ━━☆ 𝒜𝒿𝒾𝓁𝑒𝒻𝑜𝓈𝓉𝒶𝒹 🌹🎀💎[Parlons peu...] 15 janvier 2024 à 10:11 (CET)[répondre]
  5. Idem la question précédente. Pas précis ! Depuis longtemps il existe des images d'illustration et je passe sur les images photoshopées (avec une dose d'IA dedans depuis bien plus d'an). En quoi un bricolage humain est-il plus recevable qu'un bricolage (déjà bien plus qualitatif) ? En rien. --Hyméros --}-≽ 15 janvier 2024 à 22:38 (CET)[répondre]
  6. Pas d'avis tranché. Je ne suis pas contre a priori, notamment dans le cadre d'articles manquant d'illustrations, si c'est fait avec discernement (ne pas distordre la réalité, cf l'exemple ci-dessus avec le Pape en doudoune). Plus freiné par les côtés éthique et surtout droits d'auteurs, qui constituent quand même notre troisième principe fondateur et semblent relégués au second plan par les outils type Midjourney. Goodshort (discuter) 16 janvier 2024 à 10:14 (CET)[répondre]
  7. -? Plutôt contre par principe, mais pas opposé dans certains cas, à juger sur pièces. --Laurent Jerry (discuter) 16 janvier 2024 à 11:28 (CET)[répondre]
  8.  Neutre J'aurai un avis probablement dans 2 à 7 ans, j'imagine... mais là... Mogador 17 janvier 2024 à 05:09 (CET)[répondre]
  9. oui et non :) Y'a un gros doute légal sur le caractère libre des images produites. Si je veux faire un schema ou un diagramme, je pense que l'IA générative peut le faire mieux que moi en promptant correctement et je vois pas de pb majeur. Y'a ptet d'autres cas qui me semblent legit donc un ban global me semble inadapté. (:Julien:) 18 janvier 2024 à 11:14 (CET)[répondre]
  10.   Neutre même problème que la question 1 : 1. si viol de licence/droit lors de l'apprentissage, ce n'est pas possible 2. les vérifications humaines engendrées risquent-elles de limiter le nombre de contributions humaine ? - Lupin (discuter) 24 janvier 2024 à 23:54 (CET)[répondre]
  11.  Neutre Comme pour la question 1, j'aurai tendance à autoriser l'IA, pour m'aider à réaliser un graphique pertinent (ça arrivera sous peu) pouvant illustrer une idée ou un concept. Mais le coté "œuvre artistique" me laisse froid pour amélioré une encyclopédie... Hereptol (discuter) 25 janvier 2024 à 17:07