Intelligence artificielle digne de confiance

Standards pour une IA robuste et transparente

Une intelligence artificielle digne de confiance, ou IA digne de confiance ou encore IA de confiance (en anglais Trustworthy AI) est une intelligence artificielle en laquelle toutes les parties prenantes ont confiance tout au long de son cycle de vie. Pour cela elle doit être licite, éthique et robuste et répondre en cela à un certain nombre de principes éthiques et d'exigences clefs lui octroyant et validant ce statut de confiance.

Origines

modifier

À la suite de travaux tels ceux du Groupe européen d’éthique des sciences et des nouvelles technologies (GEE), groupe consultatif de la Commission européenne, le terme « IA digne de confiance » apparaît depuis 2019 dans les documents du Groupe d'experts indépendants de haut niveau en intelligence artificielle (GEHN IA)[1],[2], qui visent à donner des orientations sur la stratégie européenne en intelligence artificielle. Cela mène à en préciser les risques et opportunités pour les entreprises, administrations et populations européennes.

Ce comité d'experts publie notamment en 2019 un recueil d'orientations intitulé Lignes directrices en matière d'éthique pour une IA digne de confiance[3], où sont détaillés les éléments constitutifs d'une IA digne de confiance et repris dans cet article, ainsi qu'en 2020 une version aboutie de questionnaire d'auto-évaluation de la confiance que l'on peut porter à une IA[4], résultat d'un travail collégial de spécialistes de l'IA.

Travaux du groupe d'experts indépendants de haut niveau en intelligence artificielle

modifier

Le groupe d'experts indépendants de haut niveau en intelligence artificielle (GEHN IA) a rendu public le 8 avril 2019 son premier livrable, intitulé Lignes directrices en matière d'éthique pour une IA digne de confiance[3] (« Ethics Guidelines for Trustworthy AI » en anglais). Ce document, qui n'est pas un document règlementaire ni une norme, donne néanmoins, grâce à une classification étayée, un cadre pour une IA digne de confiance comme vue par les experts mandatés par la Commission européenne, notamment sur la base de fondements issus des droits fondamentaux[5] tels que la dignité humaine, la non-discrimination ou les droits en relation avec la protection des données et le respect de la vie privée. Il discute ainsi des exigences essentielles, encore appelées « exigences clefs » (en anglais key requirements), en précise les détails ainsi que des méthodes, techniques et non techniques, pour parvenir à une IA digne de confiance ; il donne des exemples de préoccupations majeures, actuelles ou à venir, couvrant un vaste domaine d'utilisations, que soulève l'IA[Lesquels ?] et fournit une version pilote d'un questionnaire afin d'évaluer si une IA est digne de confiance.

Un deuxième rapport de ce même groupe d'experts suit en 2019, Policy and Investment Recommendations for Trustworthy AI[6], qui s'attache à décrire comment utiliser l'IA de confiance afin de créer un effet positif en Europe et quels leviers européens[Lesquels ?] mobiliser pour une IA digne de confiance.

Un troisième livrable fait suite le 17 juillet 2020 au dernier chapitre du premier ouvrage sur l'auto-évaluation. Il est le fruit de 350 parties prenantes et s'intitule The Assessment List For Trustworthy Artificial Intelligence (ALTAI) for self assessment[4] (« Liste d'évaluation pour une intelligence artificielle digne de confiance pour auto-évaluation »). Ce document consultatif, non exhaustif et amené à être nourri des expériences de chacun, est destiné à tous les acteurs participant de près ou de loin à l'élaboration d'une l'IA, c'est-à-dire les concepteurs, les ingénieurs système, les développeurs, les data scientists, comme les spécialistes des achats, les utilisateurs, les testeurs, les bureaux de contrôle et les metteurs en service, les ingénieurs avant-vente, les formateurs, les mainteneurs, les juristes, les commerciaux ou les managers, entre autres. Il traite des moyens de prendre conscience des risques et opportunités d'une intelligence artificielle, pour la totalité du cycle de vie d'une IA (conception, développement, prototypage, test, mise en service, exploitation, maintenance et retrait de service), et de les évaluer afin qu'elle respecte les conditions d'une IA digne de confiance telles qu'édictées dans les lignes directrices du premier livrable. Une version web interactive permet en version pilote de répondre aux questions de cette auto-évaluation directement en ligne[7].

Un quatrième et dernier livrable, Sectoral Considerations on the Policy and Investment Recommendations[8], publié le 23 juillet 2023 par le GEHN IA, explore les possibles implémentations d'une IA digne de confiance dans le secteur public, la santé ou l'industrie et l'internet des objets (IoT), qui ne seront pas développées ici.

Caractéristiques

modifier

Une IA digne de confiance, sous le prisme des experts en IA de la Commission européenne, repose sur trois caractéristiques. L'IA doit être licite (aspect législatif ou règlementaire), éthique (respect des principes éthiques) et robuste (sur le plan technique mais aussi social ou sociétal). L'aspect légal n'est pas traité dans les quatre livrables de la commission européenne car ces ouvrages collectifs se veulent rester un recueil d'orientations des deux dernières caractéristiques[3]. L'aspect législatif sera traité dans l'AI Act.

Principes éthiques

modifier

Concernant les deux autres caractéristiques, l'éthique et la robustesse, il est supposé qu'elles respectent quatre principes éthiques basés sur les droits fondamentaux : respect de l'autonomie humaine, prévention de toute atteinte, équité, explicabilité.

Exigences clefs

modifier

Ces quatre grands principes éthiques sont à leur tour déclinés en sept exigences clefs comme suit :

  • action humaine et contrôle humain ;
  • robustesse technique et sécurité ;
  • respect de la vie privée et gouvernance des données ;
  • transparence ;
  • diversité, non-discrimination et équité ;
  • bien-être sociétal et environnemental ;
  • responsabilité.

Ces exigences clefs d'une l'IA digne de confiance, très générales, recoupent tout ou partie de la douzaine de notions clefs que l'on retrouve dans nombre d'ouvrages de référence en France et dans le monde (livre blanc, feuille de route, etc.) traitant de l'éthique pour l'IA (OCDE[9], AFNOR[10], IEEE[11], etc.).

Détail des exigences clefs

modifier

Ces exigences clefs sont encore affinées en 23 exigences de niveau inférieur, qui visent à en préciser le sens et mieux détourer leur périmètre :

  1. Action humaine et contrôle humain
    • droits fondamentaux
    • autonomie humaine
  2. Robustesse technique et sécurité
    • résilience aux attaques et sécurité
    • plans de secours et sécurité générale
    • précision
    • fiabilité
    • reproductibilité
  3. Respect de la vie privée et gouvernance des données
    • qualité et intégrité des données
    • accès aux données
  4. Transparence
    • traçabilité
    • explicabilité
    • communication
  5. Non-discrimination, équité et diversité
    • absence de biais injustes
    • accessibilité et conception universelle
    • participation des parties prenantes
  6. Bien-être sociétal et environnemental
    • durabilité(*) et respect de l’environnement
    • frugalité
    • impact social
    • société
    • démocratie
  7. Responsabilité (sociale et sociétale)
    • auditabilité
    • réduction au minimum des incidences négatives et la communication à leur sujet
    • arbitrages et recours

(*) traduction française de sustainability, qui peut aussi se traduire par « développement durable » ou « soutenabilité ».

Chacune de ces sous-exigences se décline en autant d'items augmentant encore leur précision, par exemple, en définissant et concrétisant ce que l'on appelle les « biais injuste », en précisant ce que l'on entend par « explicabilité » d'une IA, en évaluant les risques et opportunités de systèmes intelligents et d'IA pour l'être humain, pour les démocraties, ou encore dans le cadre du transhumanisme ou de systèmes intelligents armés et autonomes.

Tous ces items sont donc traités de manière plus ou moins avancée dans le but de promouvoir une IA digne de confiance, même s'il est difficile d'en mesurer l'exhaustivité, dans le guide des experts de la Commission européenne cité plus haut[3], et évalués dans un autre de leurs document de référence dans l'optique de les vérifier tout au long du cycle de vie de l'IA[4].

Si des tensions apparaissent entre certaines des caractéristiques, principes, exigences clefs ou méthodes d'une IA digne de confiance, elles doivent être nommées, évaluées et arbitrées de façon raisonnée par les parties prenantes chargées de cette IA[12].

Voir aussi

modifier

Articles connexes

modifier

Bibliographie

modifier

Document utilisé pour la rédaction de l’article : document utilisé comme source pour la rédaction de cet article.

  • (en) Independant High Level Group on Artificial Intelligence (AI HLEG), The Assessment List For Trustworthy Artificial Intelligence (ALTAI) for self assessment, Bruxelles, Commission européenne, , 34 p. (lire en ligne). Ouvrage utilisé pour la rédaction de l'article
  • Groupe d'Experts de haut niveau en intelligence artificielle (GEHN IA) (trad. de l'anglais), Lignes directrices en matière d'éthique pour une IA digne de confiance [« Ethics guidelines for trustworthy AI »], Bruxelles, Commission européenne, (1re éd. 2018), 56 p. (lire en ligne), p. 8 (24). Ouvrage utilisé pour la rédaction de l'article
    Autres traductions en ligne.

Liens externes

modifier

Notes et références

modifier
  1. (en) « Commission appoints expert group on AI and launches the European AI Alliance », Commission européenne, (consulté le ).
  2. (en) « High-level expert group on artificial intelligence », sur digital-strategy.ec.europa.eu (consulté le ).
  3. a b c et d GEHNIA 2018.
  4. a b et c AIHLEG 2020.
  5. Charte des droits fondamentaux de l'Union Européenne, Commission européenne, , 17 p. (lire en ligne), sur EUR-Lex.
  6. (en) European commission, Policy and Investment Recommendations for Trustworthy AI, Bruxelles, commission européenne, , 52 p. (lire en ligne).
  7. (en) Commission européenne, « Prototype web-tool of ALTAI, to support AI developers and deployers in developing Trustworthy AI. »(Archive.orgWikiwixArchive.isGoogleQue faire ?) Inscription nécessaire, sur Futurium, Commission européenne (consulté le ).
  8. (en) Independant High level Expert Group on Artificial Intelligence (AI HLEG), Sectoral Considerations on the Policy and Investment Recommendations, Bruxelles, Commission européenne, , 16 p. (lire en ligne [PDF]).
  9. (en) OCDE (ill. kras99/Shutterstock.com), OECD, Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449, ECD Legal Instruments,, , 11 p. (lire en ligne), p. 7-8
  10. AFNOR, Feuille de route stratégique pour la normalisation de l’Intelligence Artificielle, La Plaine Saint-Denis, AFNOR, , 40 p. (lire en ligne), p.14
  11. (en) IEEE, Ethically Aligned Design (EADV2) : A Vision for Prioritizing Human Well-beingwith Autonomous and Intelligent Systems, IEEE, , 266 p. (lire en ligne), p. 9
  12. GEHNIA 2018, p. 6, §2.3 « Tensions entre ces principes », p. 25 (90) « Arbitrages ».