Pour que les gens commencent à chercher des solutions à un problème, ou même à s’en préoccuper, il faut que les choses aillent vraiment mal. À mesure que le bruit devient une source d’information, je crois que nous découvrons que des changements fondamentaux se sont produits dans le contrat social et que la société moderne commence à peine à s’y intéresser. En 2010, la société en général était à peine consciente du type de données que diverses organisations détenaient sur la population. Maintenant, avec l’avènement de l’IA dans nos vies, un nombre croissant d’événements touchant l’univers numérique (Equifax, Snowden) nous force à de profondes réflexions sur les incidences des technologies que nous utilisons quotidiennement.
Plusieurs leaders d’opinion de premier plan (parmi lesquels Elon Musk est probablement le plus influent) se méfient de l’évolution de la technologie au cours des 40 prochaines années et la décrivent tant figurativement que littéralement comme une entité autonome. L’IA est au centre de ces discussions et certaines applications connexes soulèvent de légitimes préoccupations. L’IA nous montre à quel point la pseudoscience peut s’insinuer à nouveau dans nos institutions et le pouvoir qu’une poignée d’entreprises exercent sur nos pensées.
Que pouvons-nous faire?
Pour commencer, les praticiens pourraient profiter d’un rappel des notions de base des sciences des données et, plus particulièrement, de concepts tels que « corrélation n’est pas synonyme de causalité » et de « consentement éclairé ».
(w) L’expression « corrélation n’est pas synonyme de causalité » est utilisée dans les domaines des sciences et des statistiques pour souligner le fait que l’existence d’une corrélation entre deux variables ne suggère pas que l’une est la source de l’autre.
…
(yy) Le “consentement éclairé” indique qu’une personne signifie son consentement à une autre concernant un plan d’action proposé après qu’un scientifique des données lui a communiqué des renseignements et des explications adéquats sur les risques importants soulevés par les actions proposées et sur les options de remplacement de ce plan raisonnablement disponibles.
-Extrait du Data Science Association’s Code of Conduct [Traduction]
La déformation de ces normes a suscité des interrogations de la part du secteur des technologies. Il y a du sang dans l’eau en matière de réglementation antitrust. Des chefs de file, tant au sein de l’industrie des technologies qu’à l’extérieur de ce secteur, font campagne en faveur de l’adoption de lois et de principes axés sur la sécurité des technologies, en mettant l’accent sur l’IA. Ces interventions vont de la mise à jour d’Oren Etzioni des célèbres trois lois de la robotique d’Isaac Asimov aux principes en IA d’Asilomar, éminent chercheur, jusqu’aux règles adoptées indépendamment par différents dirigeants d’entreprise. [Pour consulter une revue complète de la littérature sur les principes, l’éthique et les autres règles pertinentes applicables à l’IA dans la société, cliquez ici.]
La plupart de ces règles concernent des impératifs moraux élevés liés à l’intelligence artificielle générale (AGI). Personne n’est contre la vertu, mais ces règles introduisent-elles de véritables changements? Dans les faits, au sein de l’industrie, l’IA se trouve encore à un stade très étroit et est très fragmentée. Non seulement sommes-nous encore loin de pouvoir intégrer ces capacités pour constituer une véritable AGI, mais nous manquons aussi de normes communes, et les propositions publiées en la matière ne sont guère exploitables. Certains membres de l’industrie se regroupent autour de missions telles que le Partenariat pour l’IA, mais nous devons élargir nos efforts afin de définir des normes strictes de qualité et de sécurité, et jeter les bases qui nous permettront de respecter les impératifs moraux définis par ces philosophes et chercheurs d’avant-garde.
Nous devons définir des règles, non seulement sur la façon dont nous transposons nos valeurs humaines en résultats machine, mais aussi pour baliser la façon dont les résultats machine affectent nos valeurs. Lors du développement de la méthodologie pour notre stratégie AI-First Design à Element AI, nous avons constaté qu’en tant que concepteurs, nous ne pouvons fermer les yeux sur cette boucle de rétroaction et devons l’intégrer à notre processus général de conception. Le temps est venu de cesser de considérer l’IA comme une « boîte noire » et d’examiner franchement l’impact de la technologie dans le but d’actualiser notre contrat en toute lucidité, plutôt que de façon automatique.
Source : méthodologie « AI-First Design » (AI1D) d’Element AI
L’autoréglementation jouera un rôle aussi important que la réglementation gouvernementale. Entre autres, il faudra du temps pour mettre au point une réglementation efficace, mais des règles plus strictes pointent déjà à l’horizon avec la prise de conscience du pouvoir immense que les grandes entreprises technologiques exercent grâce aux données qu’elles détiennent.
D’aucuns exigent aussi l’adoption d’une réglementation qui leur permettrait de reprendre du terrain. Ces acteurs fondent leurs représentations sur des arguments raisonnables soulignant la nécessité de veiller à ce que les consommateurs sachent comment leurs renseignements sont utilisés et la nécessité d’assurer la clarté et à la confidentialité des technologies et des services.
Lorsque les gouvernements légiféreront, on doit espérer que ces réclamations engendreront un cadre réglementaire positif, Cependant, les membres de l’industrie doivent aussi faire preuve de leadership et contribuer à l’encadrement de ce débat. Nous devons agir pour faire en sorte que l’industrie soit transparente, responsable et agisse dans le bien de l’humanité, afin d’éviter que les gens ne se liguent pour abattre cette technologie à la faveur d’un mouvement de ressac.
4 étapes pour une bonne IA étroite
La transparence est l’objectif le plus difficile à atteindre. La portée de la réglementation et la responsabilisation des praticiens reposent sur la transparence. Ce principe est un véritable panier de crabes pour notre industrie, car il semble contredire directement plusieurs modèles d’affaires.
Le problème que nous devons résoudre ressemble à un tabouret à trois pattes. Dans le but de maximiser les avantages de l’IA, nous devons trouver le point d’équilibre entre les avantages pour l’utilisateur, la société et l’industrie. Si une patte du tabouret est trop longue ou est brisée ou endommagée (parce que l’IA n’est pas sécuritaire, par exemple), la structure au complet risque de s’effondrer. C’est pourquoi nous devons disposer de règles claires et soigneusement planifiées afin que l’IA reste équitable et contribue au bien commun.
En tant que créateurs de systèmes d’IA, nous sommes au premier rang dans la mise au point de moyens pour assurer l’équilibre du tabouret. Il est également dans notre intérêt direct d’orienter le développement positif d’un secteur d’activité qui peut être réglementé de l’extérieur ou de l’intérieur.
Afin d’amorcer la responsabilisation de notre industrie, je pense que nous devons franchir quatre étapes lors de la conception de nos systèmes :
- L’IA doit être prévisible – Quel est son but? Avez-vous énoncé vos intentions quant aux usages découlant de ce but?
- L’IA doit être explicable – Pouvez-vous expliquer clairement que vous réaliserez le but visé? L’utilisateur est-il en mesure de déterminer comment un résultat a été obtenu?
- L’IA doit être sécuritaire – Le but proposé est-il stable? Avez-vous soumis votre concept à des essais de choc pour en vérifier la corruptibilité?
- L’IA doit être transparente – Avez-vous publié vos recherches ou fait en sorte que vos données soient vérifiables?
Predictable
Dans leur publication intitulée Laying out their ethics for narrow AI (établissement des règles éthiques pour l’IA étroite), Nick Bostrom et Eliezer Yudkowsky écrivent « [Ce sont] tous des critères qui s’appliquent à l’exécution de fonctions par des humains, des critères qui doivent être pris en considération dans un algorithme destiné à remplacer le jugement humain inhérent aux fonctions sociales. » [Traduction] Quand vous rencontrez quelqu’un dans le but de faire des échanges, vous cherchez à connaître ses intentions. L’univers numérique nous a menés à abandonner ce mécanisme. Je pense que nous en sommes à un point où il est impossible de parler sérieusement de « consentement éclairé ».
Nous devons affirmer clairement que les machines ne possèdent pas d’intentions propres. À l’heure actuelle, nous disposons de nombreux algorithmes qui semblent exécuter la même fonction, telle que la reconnaissance des images, mais dont les buts sont différents. L’un peut examiner les vêtements, la posture et l’arrière-plan, tandis qu’un autre se concentrera exclusivement sur les traits permanents du visage des personnes.
Il est très important d’énoncer clairement ce que nous projetons de faire avec ces outils, c’est-à-dire nos intentions. Pourquoi désirons-nous identifier des visages? Que faisons-nous avec ces résultats (ou à qui les vendons-nous)?
Explicable
Jusqu’à tout récemment, l’interface utilisateur des logiciels révélait tout ce que contenaient ces logiciels. Il était possible de lancer des recherches et d’accéder aux bases de données. De nos jours, les logiciels tournent dans le nuage et sur de multiples dispositifs qui exécutent une multitude de services en arrière-plan dont l’utilisateur n’est jamais informé. Ces modèles sont parfois optimisés en fonction de l’utilisateur, mais ils ne sont pas tous conçus en mettant l’intérêt des utilisateurs à l’avant-plan. Cette approche est acceptable tant que les utilisateurs sont informés des motifs des concepteurs, mais je crois que bien des gens se font proposer à leur insu des expériences conçues exclusivement pour retenir leur attention et leur présenter de la publicité. Ce type de relations est opaque et, à mon avis, contrevient à l’éthique.
Avec l’IA, les logiciels prennent encore plus l’aspect de boîtes noires. Pour qu’elle soit explicable, l’IA doit préciser les données d’entrée dont elle tient compte, les objectifs visés par les logiciels, la rétroaction qu’elle recueille et l’utilisation qu’elle fait de cette rétroaction. C’est à ce prix que l’on peut rétablir un véritable consentement éclairé et, contrairement à ce que l’on croit généralement, ce but est parfaitement réalisable s’il fait partie des objectifs de base du projet.
Sécuritaire
Tout comme on met à l’essai les institutions financières pour vérifier leur résilience en cas de choc financier, nous devons soumettre nos algorithmes à des essais pour vérifier leur résistance à des agents de corruption ou à des anomalies dans les données. L’algorithme est-il suffisamment robuste pour résister à des signaux erronés ou à des tentatives de détournement? Est-il imperméable aux bots, aux trolls et autres formes de manipulation?
Après avoir déployé d’importants efforts pour clarifier les buts de la machine et montrer comment elle les atteindra, il est important que le but du système ne change pas, ce qui minerait sa conformité aux autres principes. En fait, les algorithmes peuvent jouer un rôle similaire à celui des serins dans la mine de charbon en nous signalant les situations où il est nécessaire d’intervenir pour reprendre le contrôle.
Transparente
En adoptant cette démarche en tant qu’industrie, nous profiterons d’une occasion de nous responsabiliser. Les principes proposés par plusieurs penseurs sont très subjectifs. Il est nécessaire que les outils fondés sur l’IA soient totalement transparents aux yeux de tous afin que les valeurs collectives de notre société puissent s’appliquer, et que leur respect ne dépende pas de l’interprétation d’une entreprise particulière (ou de son conseil d’administration).
Chaque intervenant qui souhaite que l’IA contribue au bien collectif doit agir. Les utilisateurs seront représentés par des regroupements de consommateurs, la société, par les législateurs et l’industrie, par ses comités d’éthique. La clé consistera à adopter une réglementation stricte et à mettre sur pied des groupes de consommateurs suffisamment forts pour paralyser ceux qui refuseront d’agir avec transparence.
Il est impératif que nous appliquions des règles de transparence quant au contenu des logiciels en raison de leur impact sur la société. Si vous exploitez une entreprise alimentaire pour qui une saine alimentation est un principe important et qui ne se contente pas d’offrir de bons aliments, vous réclamerez l’adoption d’une réglementation plus efficace de l’ensemble de l’industrie. En parallèle, vous investirez pour vous préparer non seulement à respecter les normes de saine alimentation, mais aussi à faire preuve de transparence quant aux moyens que vous déployez pour vous conformer à ces normes.
En passant à l’action (au lieu de seulement discuter de ce qu’il faut faire), nous pouvons créer de puissantes mesures d’incitation économique pour les entreprises afin qu’elles appliquent leurs propres normes de transparence. De la sorte, les entreprises pourront franchir d’un bond la barrière de la transparence sans perturber leurs activités courantes.
Je suis conscient que cette proposition peut sembler faire voler en éclats les modèles d’affaires actuels. Je crois que c’est partiellement le cas, mais nous devons affronter certaines réalités qui, à mon avis, exigent de telles mesures.
- Nous devons gagner la confiance de la société afin de poursuivre nos travaux et d’innover.
- Cette confiance s’étiole à mesure que certains facteurs apparaissent aux yeux de tous.
- Une grande partie de la réglementation reste encore à écrire et peut changer rapidement, pour le meilleur ou le pour pire.
- Cette évolution sera positive si, en tant qu’industrie, nous participons à l’application de ces normes.
Je ne propose pas que les entreprises dévoilent tous les secrets commerciaux. Par contre, compte tenu de la nature fragmentée des multiples applications d’IA étroite actuelles, nous devons tous participer à la création de bases solides pour notre industrie émergente. Si vous ne pouvez pas faire la preuve que vous respectez les règles, devriez-vous seulement avoir l’autorisation de participer? Pour que l’IA contribue au bien de la société, les personnes qui la mettent sur pied doivent rendre des comptes et faire preuve de transparence.
—
Je serai heureux de prendre connaissance de vos commentaires et de participer aux discussions sur ces étapes. Je publie également ces articles dans mes blogues sur Medium et LinkedIn, et je les envoie d’abord aux personnes inscrites à la liste des abonnés à ce site.
Vous pourrez aussi assister à ma causerie, où j’exposerai ces thèmes en plus grand détail et répondrai aux questions de l’auditoire, lors du sommet sur l’IA à San Francisco cette semaine, et du Sommet Web à Lisbonne, du 6 au 9 novembre.
Consultez le sommaire de la littérature sur les principes d’IA sécuritaire.
Leave a comment