Trustworthy AI ou l’art de créer des IA durables

L’IA est un domaine passionnant qui est en plein essor. Les évolutions récentes des différents modèles ont permis de démocratiser les IA, et ça a suscité des réactions très variées. Beaucoup de gens sont enthousiastes de cette avancée technologique et des différentes possibilités qu’elle ouvre, et d’autres sont plus méfiants. Il y a de quoi, l’IA n’a pas toujours été très bien représentée dans notre société. Même si ce n’est pas systématique, le monde de la fiction regorge d’IA malfaisantes. Skynet dans Terminator, HAL 9000 dans 2001 : L’Odyssey de l’espace, ou encore l’agent Smith dans Matrix, tous donnent une image effrayante de l’IA.

D’autres facteurs sont à prendre en compte pour comprendre cette méfiance. Le fait que nos IA actuelles soient des boites noires avec peu de manières de comprendre comment elles fonctionnent, même avec les connaissances techniques nécessaires, le faible nombre d’acteurs capables de faire des IA d’envergure, etc… Ce sont des facteurs qui font que considérer que l’IA est fabuleuse, est difficile pour certains. Pour pallier ce constat, une notion est apparue dans le domaine de l’IA, c’est celle de « Trustworthy AI » – les IA « dignes de confiance ».

Qu’est ce qu’une IA digne de confiance ?

Une « Trustworthy » AI, c’est une IA qui répondrait à un certain nombre de critères qui permettraient aux utilisateurs, voire à la société en général, d’avoir pleinement confiance en son fonctionnement. Alors en disant ça, on a tout et rien dit, mais l’idée de ce domaine est de créer un monde où les IA font part entière avec la société sans que cela ne nuise à personne. Même si je n’ai jamais croisé ce terme, j’aime les appeler des IA durables, au sens du développement durable, il faut que les IA améliorent notre qualité de vie sans jamais la dégrader. Maintenant la question va être : quels sont les critères pour créer ces IA ?

Pour répondre, je vais me servir de deux sources distinctes : le livre blanc de Mozilla sur les « Trustworthy AI » et le compte rendu du groupe de travail de l’Union Européenne sur le sujet. Ce sont des documents très complets sur le sujet, avec des visions très protectrices du droit des personnes. C’est un choix de corpus fait à dessein. Je veux présenter ici une vision presque utopiste, mais selon moi, atteignable, d’un monde où les IA et humains coexistent.

Les caractéristiques nécessaires d’une IA durable

Une IA qui respecte les lois

Le premier point à aborder quand on parle d’IA durable, c’est son respect de la législation. Ce point a deux aspects : les IA doivent respecter la loi et elles doivent amener ses utilisateurs à la respecter. Ce point est très contextuel, car la loi selon les pays et les mœurs sont amenés à changer. De plus, les lois qui encadrent les IA sont encore en construction. L’UE a approuvé récemment l’AI Act (dont on reparlera dans ce blog) et il reste encore aux pays membres à transposer ces directives. Les États-Unis sont aussi en train de légiférer sur le sujet.

Cependant, même si les lois sont encore en construction, on peut déjà dire que les IA durables vont devoir respecter un certain nombre de principes. Les directives de l’UE se basent effectivement sur un ensemble de valeurs et de droits fondamentaux communs. Parmi ces droits fondamentaux, on retrouve en vrac :

  • Le respect de la dignité humaine, de la valeur des hommes en tant qu’individu moral et non comme un « objet ».
  • Le respect des libertés individuelles, du libre arbitre.
  • Le respect des droits civiques, comme le droit de vote, le droit à des services publics de qualité, etc.
  • Le respect des institutions et principes démocratiques, de l’état de droit, de la justice, la séparation des pouvoirs, etc.
  • La promotion de l’égalité et de l’inclusivité des minorités.

Pour chacun de ces droits, l’objectif est non seulement de ne pas les dégrader, mais aussi de les améliorer et de pousser vers une consolidation de ces principes.

Une IA qui respecte la morale

Une IA qui respecte les principes d’éthique est une condition nécessaire pour établir la confiance. De la même manière que pour l’aspect licite, on attend de l’IA non seulement qu’elle ne dégrade pas les principes éthiques, mais qu’elle les consolide. Pour faire simple, non seulement l’IA ne doit pas nuire à l’homme mais elle doit l’aider à créer un monde meilleur. Parmi les principes éthiques que l’IA doit respecter, on retrouve :

  • Le respect de l’autonomie humaine, l’IA ne doit pas nous priver de nos libertés.
  • La prévention de toute nuisance, à l’instar des médecins, Primum non nocere. D’abord, il ne faut pas nuire.
  • L’équité, l’IA ne doit pas avoir de biais injustes et il faut pouvoir la contester.
  • L’explicabilité, on doit savoir pourquoi une IA a pris une décision, quelles valeurs ont influé sur la décision.

Ces principes éthiques rejoignent énormément le respect des droits fondamentaux, surtout en Europe. Cependant, même si cela semble une répétition, la fondation de ces principes est différente. On ne parle pas juste d’une IA qui est dans la limite légale, mais d’une démarche active des concepteurs d’IA. C’est en ça que le volet éthique complémente le volet légal. Il faut une proactivité des acteurs.

La dimension éthique ajoute aussi un aspect de transparence de l’intelligence artificielle. Le fait de ne pas savoir comment fonctionne l’IA, ou sur quelles données elle s’est entraînée, ne permet pas d’avoir confiance dans les IA.

Un point que je n’ai pas mentionné, mais il se peut que le respect de tous ses principes ne soit pas possible en même temps. Il faudra alors arbitrer, en interne ou non, la solution choisie et comment contourner le problème. Cet arbitrage est une décision consciente à prendre, et qui peut conclure sur le fait de ne pas réaliser l’IA dans le cas le plus extrême.

Une IA qui tient la route

Une autre caractéristique nécessaire à une IA durable est la robustesse de celle-là. Il y a deux volets à la robustesse : le volet technique et le volet social.

Le premier volet concerne tout ce qui touche au fonctionnement même de l’IA, ses données d’entraînement, l’infrastructure sous-jacente, etc. D’abord, une IA durable doit produire des résultats fiables et reproductibles. Cela ne signifie pas qu’elle doit être parfaitement déterministe : avec les mêmes inputs, on a le même résultat, mais le résultat doit avoir une signification similaire. Ces résultats doivent aussi être cohérents avec ce qui a été passé en entrée.

Ensuite, les IA ne doivent pas divulguer de données personnelles. De manière générale, les données manipulées par les IA doivent respecter la vie privée et être sécurisées de manière à ne jamais fuiter. De la même manière, l’accès à une IA ne doit pas permettre d’avoir un accès non autorisé à l’infrastructure sous-jacente. C’est des principes classiques de sécurité des logiciels, mais il est logique qu’ils s’appliquent aussi aux IA.

Pour le volet social de l’IA, il faut que l’IA ne puisse pas être utilisée de manière détournée par des malfaiteurs. C’est un autre principe classique de sécurité logicielle. Un autre critère pour la robustesse sociale de l’IA est la responsabilité de celle-ci vis-à-vis de sa conception. Une IA durable doit pouvoir être auditée par un organisme indépendant. On doit pouvoir analyser la conception de l’IA et rendre compte de sa bonne conception. Les arbitrages faits sur les principes éthiques doivent être documentés pour pouvoir être audités. La responsabilité de chaque utilisation de l’IA ne peut incomber à 100 % à ses créateurs, mais ceux-ci doivent être conscients qu’une part non-négligeable de responsabilité leur incombe.

Un écosystème favorable à la concurrence et une diversité des acteurs

Les points précédents se sont concentrés sur les qualités intrinsèques de l’IA, à ses propriétés. Celui-ci prend en compte le contexte du business de l’IA. Aujourd’hui, les acteurs capables de faire de l’IA, c’est à dire avec les infrastructures, les données et les compétences nécessaires, ne se limitent qu’à une poignée d’organisations. Si un concurrent à ses organisations veut se créer, il est souvent obligé d’être soutenu par une grande entreprise de type GAFAM pour avoir une réussite importante. Il faut donc travailler à avoir des outils facilitant la création d’IA, pour les démocratiser.

L’accès aux données est aussi restreint aux grandes entreprises de la tech qui en récupère énormément. Vu que la qualité des modèles d’IA dépend grandement de la qualité des données, ces entreprises ont un avantage compétitif. C’est pour cela qu’il faut trouver des solutions pour que le marché de l’IA puisse se diversifier. Mozilla propose ainsi que des organisations se créent dont le but serait de centraliser des données, de les anonymiser et d’y donner accès aux entreprises créatrices d’IA. C’est une solution possible parmi d’autres.

La nécessité d’un marché diversifié vient aussi du fait qu’un marché trop restreint instaurera un climat de méfiance envers celui-ci.

Conclusion

La nécessité d’IA dignes de confiance fait peu de doute si on veut que le domaine prospère et réponde aux craintes du grand public. Les critères énoncés dans cet article représentent un point de vue très européen et axé sur des valeurs humanistes. Vouloir créer des IA durables est un challenge pour l’avenir et la façon de faire reste à créer. Cependant, ces critères permettent d’entrevoir un avenir possible de l’intelligence artificielle, qui permettrait d’avoir des IA dignes de confiance.

La mise en œuvre de ces principes est encore un défi à résoudre, et c’est quelque chose que j’aimerais continuer à adresser dans ce blog.

Partager l'article:

Autres articles