9 avril 2019
Mise à jour le 21 avril 2021: La Commission européenne vient de publier ses propositions de règlement (la Artificial Intelligence Act) sur la base des travaux du AI HLEG. Je suis heureux de le voir susciter de vives réactions dans le monde entier.
Il y a un peu plus de neuf mois, j’ai eu l’honneur d’être choisi comme le seul expert non européen invité à fournir des commentaires au groupe d’experts de haut niveau sur l’IA de la Commission européenne (AI HLEG), à la fois du point de vue canadien et de celui du secteur d’activité et à présider le groupe de travail. Cette semaine, nous avons publié la version finale de nos lignes directrices en matière d’éthique pour une intelligence artificielle de confiance (Ethics Guidelines for Trustworthy Artificial Intelligence).
L’humain est au coeur de l’approche adoptée dans ces lignes directrices. Les droits de la personne et les droits fondamentaux y sont donc centraux: droit à la dignité, à la liberté, à l’égalité et à la justice. Comme l’IA n’a pas de frontières, la valeur intrinsèque de tous les êtres humains doit être au coeur des exigences et principes éthiques établis.
Suite à leur première ébauche des lignes directrices publiée en décembre, les 52 experts du AI HLEG – issus de milieux variés: universités, société civile, recherche, etc. – ont reçu plus de 500 commentaires et suggestions de membres engagés de la société et de laboratoires internationaux d’IA. Nous en avons tenu compte dans la rédaction de nos lignes directrices finales. J’espère que ces lignes directrices seront préservées lors de leur mise en application et qu’elles serviront de point de référence pour la mise en place de politiques en matière d’IA ailleurs dans le monde.
Une IA digne de confiance
Les lignes directrices en matière d’éthique pour une IA digne de confiance publiées cette semaine tombent à point.
La plupart des produits que nous utilisons aujourd’hui sont accompagnés de certaines garanties et responsabilités liées à leur utilisation. Cependant, l’activité de l’IA dans la chaîne de valeur est très dynamique, ce qui rend la responsabilité à cet égard complexe. Le contrôle du comportement du système n’est pas toujours clairement attribuable, et les attentes relatives aux différentes parties prenantes – le chercheur, le fournisseur de données, le concepteur, l’utilisateur et l’environnement dans son ensemble – doivent être définies plus clairement.
Le risque d’un manque de confiance envers la technologie, les développeurs, le cadre gouvernemental ou même entre les parties prenantes elles-mêmes est de rejeter une technologie qui pourrait nous amener de grands bénéfices. En tant que propriétaire d’entreprise, l’une de mes responsabilités consiste à fournir un maximum d’explications à toutes les parties concernées pour ajuster leurs attentes.
Cela dit, il ne faudrait pas négliger l’importance d’établir des règles de base qui font consensus. Le processus d’explication et de négociation des responsabilités représente un énorme coût dans le cadre des transactions. De plus, l’autoréglementation actuelle du secteur est en fin de compte limitée par les intérêts de chaque partie. Des règles du jeu claires sont donc essentielles pour créer un climat de confiance à l’égard de la technologie et s’assurer que son utilisation vise à entraîner le meilleur effet possible.
Les lignes directrices
Je suis fier d’affirmer que nos lignes directrices sont bien plus qu’une liste de valeurs et de principes abstraits pour aborder l’IA. Elles reposent plutôt sur les droits de la personne et les droits fondamentaux définis dans la Charte des droits fondamentaux de l’Union européenne, qui précisent les valeurs et principes essentiels requis pour créer une IA digne de confiance. Cette contextualisation est importante : nous devons faire passer de la théorie à la pratique une IA digne de confiance et reposant sur des principes éthiques.
Nous avons compris qu’il n’est pas nécessaire de traiter l’IA de façon bien différente des autres technologies ni de réinventer la roue. Pour nous, le processus initial consistait à intégrer des systèmes d’IA adaptatifs visant la chaîne de valeur complexe des parties prenantes dans ce qui avait déjà été établi : les droits de la personne.
À partir de là, nous avons abordé la question sur laquelle portent et se terminent la plupart des débats actuels : comment les valeurs et principes fondamentaux peuvent-ils être intégrés à l’IA? Nous avions un point de départ avec un cadre de gouvernance de l’IA que j’avais précédemment développé, et nous les avons synthétisés dans les quatre principes suivants pour refléter étroitement les droits de l’homme et le contexte de la technologie de l’IA :
- Respect de l’autonomie humaine
- Prévention des dommages
- Équité
- Explicabilité
Ensuite, nous avons défini sept exigences pour les parties prenantes, qui peuvent être mises en application au moyen de diverses méthodes, qu’elles soient techniques ou non (p. ex., essais et validation ou standardisation).
- Le facteur humain et contrôle humain, en premier lieu, repose sur le respect des droits fondamentaux et des droits de la personne, et sur la nécessité pour l’IA de faciliter l’intervention humaine.
- La Robustesse et sécurité techniques porte sur le développement du système d’IA et met l’accent sur la résilience de ce dernier par rapport à des attaques externes ainsi que sur les défaillances internes, (p. ex., une perturbation de la fiabilité du système).
- Respect de la vie privée et gouvernance des données : cette exigence permet d’établir un pont entre les responsabilités des développeurs du système et les responsables de son déploiement. Elle aborde des questions clés, comme la qualité et l’intégrité des données utilisées lors du développement du système d’IA, ainsi que la nécessité de garantir le respect de la vie privée tout au long du cycle de vie du système. 1
- La Transparence exige que les décisions techniques et humaines soient intelligibles et traçables.
- Diversité, non-discrimination et équité : cette exigence permet de s’assurer que le système d’IA est accessible à tous. Il s’agit, par exemple, d’éviter les partis pris et le recours à une approche unique, tout en adoptant des principes de conception universels.
- Bien-être sociétal et environnemental : cette exigence est la plus vaste et englobe nos plus grandes parties prenantes : la société à l’échelle mondiale et l’environnement. Elle vise, d’une part, la nécessité de créer une IA durable et écologique et, d’autre part, ses effets sur le processus démocratique.
- Responsabilisation : la dernière exigence vient compléter toutes les précédentes,car elle est pertinente avant, pendant et après le développement et la mise en œuvre du système d’IA.
Les sept exigences clés sont réglementées par le gouvernement, et les normes le seraient également.
La prochaine étape logique est la transformation de ces exigences en normes internationales régissant le secteur, ce qui peut prendre des années. Le cadre des droits de la personne sur lequel reposent les lignes directrices nous aidera à repérer les lois et politiques existantes qui pourraient être adaptées pour établir les règles du jeu dans le contexte de l’évolution rapide de l’IA.
Une norme internationale pour une IA axée sur le facteur humain
Les discussions mondiales ont porté fruit. Suivant les principes proposés par les participants à la Conférence d’Asilomar sur l’IA profitable, plusieurs initiatives ont vu le jour : la Déclaration de Montréal et la Global Initiative on Ethics of Autonomous and Intelligent Systems de l’Institute of Electrical and Electronics Engineers (IEEE), entre autres.
La tendance récente voit l’intégration des droits de la personne à la discussion. Nos lignes directrices en sont un bon exemple, tout comme la Déclaration de Toronto et le travail réalisé par l’Organisation de coopération et de développement économiques au sein de la société par l’entremise de son groupe d’experts en IA et de son observatoire des politiques d’IA.
Par ailleurs, les États publient des stratégies de plus en plus perfectionnées en matière d’IA – le Canada a agi comme pionnier en 2017. Ceci contribue à faire naître des normes sectorielles, notamment celles de l’IEEE et de l’Organisation internationale de normalisation (cette dernière compte même un groupe de travail sur la question de la fiabilité). Par exemple, la Commission australienne des droits de la personne accomplit un travail révolutionnaire en explorant en profondeur la relation entre la technologie et les droits de la personne, ce qui renvoie aux éléments fondamentaux de nos directives. J’ai très hâte de lire ses conclusions qui seront publiées à la fin de 2019 et j’espère que d’autres gouvernements suivront son exemple. Des consultations exhaustives menées auprès de différentes parties prenantes concernant l’impact de l’IA sur les droits et libertés de la personne sont nécessaires pour que les organismes de réglementation comprennent comment appuyer les lignes directrices par des mesures de protection juridiquement contraignantes et exécutoires.
Les prochaines étapes
Il faut maintenant travailler activement à mettre en application les exigences établies dans les lignes directrices. Ces exigences sont accompagnées d’une liste de critères en vue de les mettre en œuvre et de produire un premier cadre visant la création des futures normes du secteur. L’application de cette liste fera l’objet d’un projet pilote et elle sera révisée tout au long de 2019.
De leur côté, les gouvernements doivent utiliser les lignes directrices comme un point de référence pour l’élaboration et la mise en place de nouveaux mécanismes juridiques et réglementaires garantissant la protection et la promotion des droits et libertés de la personne à l’ère numérique.
Les lignes directrices et le message de la Commission européenne visant à instaurer la confiance en une IA axée sur l’humain encouragent les parties prenantes et les États membres de l’Union européenne à appliquer les exigences clés qui y figurent et à les utiliser pour atteindre un consensus à l’égard d’une IA axée sur l’humain. Ce message encourage aussi la coopération accrue avec des partenaires internationaux partageant la même vision, comme le Canada, le Japon et Singapour.
Le Canada compte déjà plusieurs engagements avec l’Union européenne en matière d’IA, tant du point de vue de la recherche – grâce à l’Institut PRAIRIE – que gouvernemental, avec la création récente du Groupe international d’experts en intelligence artificielle, un partenariat franco-canadien. Je suis particulièrement enthousiasmé par ce groupe dans le contexte de nos efforts pour faire évoluer nos lignes directrices vers des normes internationales, compte tenu de son mandat qui consiste à « promouvoir une vision de l’intelligence artificielle centrée sur l’humain ».
Nous disposons donc de lignes directrices et de plateformes internationales. À présent, les gouvernements du monde entier doivent s’en servir et les faire évoluer, les parties prenantes doivent les soutenir, les citoyens doivent exiger qu’on les utilisent et les différents organismes concernés doivent les adopter.
Nous avons des lignes directrices. Nous avons des plateformes internationales. Il est maintenant temps que nos gouvernements les utilisent et les fassent évoluer, que les parties prenantes les soutiennent, que les citoyens exigent leur utilisation et que les organisations les adoptent.
Une IA digne de confiance et basée sur des principes éthiques doit devenir la norme incontestable à l’échelle internationale.
- Chez Element AI, nous avons déjà franchi les premières étapes. En ce qui concerne l’exigence Respect de la vie privée et gouvernance des données, par exemple, nous avons collaboré avec NESTA afin de trouver des solutions adéquates. Pour commencer, nous avons mis l’accent sur des fiducies de données. Il s’agit d’un nouveau modèle de gouvernance qui pourrait accorder aux personnes plus de contrôle sur leurs données personnelles, en plus de définir le concept évolutif des droits numériques en fonction d’une approche ascendante.
Leave a comment