Utilisateur:Petuniaa/Brouillon

Position inflationniste et déflationniste

modifier

Abordé par le philosophe Nick Bostrom dans son ouvrage intitulé Superintelligence : chemins, dangers, stratégies (en anglais : Superintelligence: Paths, Dangers, Strategies), le « risque existentiel »[1] généré par l'intelligence artificielle provoque deux philosophies : l'inflationnisme et le déflationnisme. Selon Bostrom, l'émergence d'une intelligence bien plus importante que l'intelligence humaine serait à venir et ainsi, la divergence de points de vue opposerait ceux étant pour le développement à long terme de cette nouvelle technologie et ceux pensant plutôt aux enjeux actuels associés à son implantation dans notre société.

Point de vue inflationniste

modifier

« La perspective inflationniste met l’accent sur les conséquences à long terme du développement de l’IA en réfléchissant notamment aux enjeux et aux risques associés à l’émergence d’une IA générale (IAG). »[2] Ainsi, les gens adhérant à ce point de vue désirent créer des machines considérées éthiques selon les valeurs présentes dans la société moderne[2]. Ceux-ci partagent l'idée qu'un jour l'intelligence des machines surpassera celle des humains et qu'une IA pourra « exercer la plupart des professions humaines au moins aussi bien qu’un être humain moyen »[3]. Par exemple, l’astrophysicien Stephen Hawking a déjà déclaré :

[j]e pense que le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité. Une fois que les humains auraient développé l’IA, celle-ci décollerait seule, et se redéfinirait de plus en plus vite. Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés.


Dans ce même ordre d'idées, en janvier 2015, la Lettre ouverte sur l'intelligence artificielle défendue par des dizaines d'experts en intelligence artificielle dont Stephen Hawking et Elon Musk est venue appuyé la position inflationniste en déclarant que bien que l'intelligence puisse éradiquer diverses maladies et la pauvreté, il est nécessaire de superviser son progrès de près pour éviter une perte de contrôle[4]. Intitulé Priorités de recherches pour une intelligence artificielle solide et bénéfique : Lettre ouverte (en version originale en anglais Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter), ce document vise à mettre en place des priorités pour les enjeux économiques, éthiques et sociaux, entre autres[5]. Par exemple, « [u]n autre [enjeu] fréquemment évoqué est celui de systèmes d’IA fortes capables de programmer de façon autonome des algorithmes d’IA toujours plus performants, créant ainsi une distance supplémentaire entre l’IA et l’être humain. »[6]

Point de vue déflationniste

modifier

Au contraire, « la perspective déflationniste cherche plutôt à penser les enjeux éthiques spécifiques qui sont actuellement associés au développement des systèmes d’IA réels et à leur implantation dans nos sociétés. »[7] En se concentrant sur les enjeux provoqués par l'intelligence artificielle, les partisans se ralliant à la philosophie déflationniste priorisent les réglementations visant à limiter et réduire les possibles dégâts causés par une utilisation inadéquate de cette nouvelle technologie[8]. Dans cette même optique de création de normes, au Canada, le 3 novembre 2017, lors du Forum IA responsable qui s'est tenu au Palais des congrès de Montréal, et appuyé par l'institut québécois de l'intelligence artificielle Mila, une société informatique basée à l'Université de Montréal a posé une première version de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Celle-ci appuie la position déflationniste en déclarant prioriser le développement de l’IA dans l’intérêt de l’humanité par des règlements : « [l]e document déclare que l’IA doit ultimement promouvoir le bien-être de tous les êtres sensibles, la participation éclairée à la vie publique et les débats démocratiques. »[9] Suivant cette philosophie, plusieurs autres grandes organisations rédigent des documents visant à réguler l'utilisation de l'intelligence artificielle. Un exemple de réglementations mises en place pour favoriser l'usage de l'intelligence artificielle sont les normes ISO. Selon l'International Organization for Standardization (ISO), ces « document[s], établi[s] par consensus et approuvé[s] par un organisme reconnu »[10]sont nécessaires à la normalisation de l'IA et la démystifier[11]. L'objectif de la normalisation vient appuyer le point de vue déflationniste en provoquant que l'intelligence artificielle tienne compte de plusieurs enjeux éthiques tels que l'espionnage informatique, les biais algorithmiques[11] et bien d'autres :

La future norme ISO/IEC CD 23894 quant à elle, portera sur la gestion des risques des systèmes d’intelligence artificielle. Ce projet de norme s’appuie sur la norme ISO 31000:2018 - Management du risque, qui permet l’analyse et l’évaluation des risques, tels que les atteintes à la réputation ou à la marque, la cybercriminalité ou encore les risques politiques et le terrorisme.

Par ailleurs, une autre proposition de réglementation a été publiée en Europe le 21 avril 2021, dite Artificial Intelligence Act  (AI Act), et vise à rendre les appareils « digne[s] de confiance, centré[s] sur l’humain, éthique[s], durable[s] et inclusi[fs] »[12] appuyant ainsi le point de vue déflationniste.

  1. (en) Nick Bostrom, Superintelligence : Paths, Dangers, Strategies, Royaume-Uni, Oxford University Press, , 328 p. (lire en ligne)
  2. a et b Frédérick Bruneault et Andréane SABOURIN Laflamme, « Éthique de l’intelligence artificielle et ubiquité sociale des technologies de l’information et de la communication : comment penser les enjeux éthiques de l’IA dans nos sociétés de l’information ? », tic&société, no Vol. 15, N° 1 | 1er semestre 2021,‎ , p. 159–189 (DOI 10.4000/ticetsociete.5999, lire en ligne, consulté le )
  3. Superintelligence : Paths, Dangers, Strategies
  4. Lettre ouverte sur l'intelligence artificielle
  5. (en) Stuart Russell, Daniel Dewey et Max Tegmark, Research Priorities for Robust and Benefcial Artifcial Intelligence, Association for the Advancement of Artificial Intelligence, (lire en ligne), p. 106, 107
  6. Jocelyn Maclure et Marie-Noëlle Saint-Pierre, Le nouvel âge de l’intelligence artificielle : une synthèse des enjeux éthiques, (lire en ligne), p. 750
  7. Gabriel Girard, « PENSER LES TENSIONS POLITIQUES ET ÉMOTIONNELLES DES EXPÉRIMENTATIONS DANS LE DOMAINE DU VIH/SIDA », dans Les sociétés de l'expérimentation, Presses de l'Université du Québec, (lire en ligne), p. 181–198
  8. Éric Martin, « L’éthique de l’intelligence artificielle, ou la misère de la philosophie 2.0 à l’ère de la quatrième révolution industrielle », Cahiers Société,‎ (lire en ligne [PDF])
  9. « Intelligence artificielle (IA) au Canada », sur www.thecanadianencyclopedia.ca (consulté le )
  10. « COPOLCO », sur www.iso.org (consulté le )
  11. a et b « Intelligence artificielle - Enjeux éthiques et juridiques - Enjeux des normes ISO | Editions ENI », sur www.editions-eni.fr (consulté le )
  12. « Intelligence artificielle - Enjeux éthiques et juridiques - Recommandations | Editions ENI », sur www.editions-eni.fr (consulté le )