Qu’est-ce que l’AI Safety ?

L’accélération des progrès faite en termes d’IA de cette année a suscité beaucoup d’intérêts. La technologie est fascinante, les possibilités sont énormes et elle peut impacter bon nombre de métiers et de processus. Mais la montée en puissance de l’IA a aussi fait grincer pas mal de dents. Les personnes plus critiques de cette accélération utilisent une notion, pas nécessairement bien connue du grand public, mais centrale dans le monde de l’IA, mais qu’en est-il de l’AI Safety ?

Ce terme d’AI Safety, il apparaît beaucoup en ce moment, se traduisant par « Sureté de l’IA » et c’est la chose que les entreprises faisant de l’IA disent garantir. Mais qu’est-ce que c’est ?

Le but de l’AI Safety

Déjà, comme je l’ai écrit, la notion d’AI Safety, elle est centrale dans le domaine de l’intelligence artificielle, dès le début de l’ère de l’informatique, à la fin des années 1940, elle était une des préoccupations des chercheurs.

Le but de l’AI Safety est de s’assurer et de garantir que les IA que nous construisons soient bonnes et bienveillantes, d’éviter tous abus ou nuisances liés à l’arrivée d’une intelligence qui apprendrait des données qu’on lui donne.

La question a déjà été beaucoup traité dans le monde de la fiction. On peut penser à Kubrick, avec 2001: l’Odyssée de l’espace, où HAL9000 se sentant en danger après avoir commis une erreur, tente de tuer les protagonistes. Ou encore à Isaac Asimov, avec ses 3 lois de la robotique, où les robots intelligents sont soumis à 3 lois censées les empêcher de nuire à l’humanité, mais où les robots se retrouvent à mal fonctionner les empêchant de remplir leur fonction à cause de ces lois. Et je passe sur les autres exemples, plus ou moins récents, montrant des IA échouant à protéger l’humanité.

Dans la réalité, les chercheurs en IA essaient de trouver plusieurs méthodes pour faire en sorte que les programmes ne puissent pas nuire, que les développeurs d’IA puissent intégrer. Mais comment savoir qu’une méthode est efficace ?

Axes de l’AI Safety

Pour savoir, si une méthode permet d’améliorer la sécurité, les chercheurs essaient de voir son impact selon plusieurs axes qui sont au centre de la recherche. Des concepts qui ont été théorisés, et sur lesquels on continue de faire des recherches. Mesurer cet impact pour chacun de ses axes est un sujet en soit, mais voici quelques axes qui permettent de cadrer la discipline de l’AI Safety

Sûreté et sécurité

Il peut sembler redondant que dans l’AI Safety, on parle de sûreté et de sécurité. « C’est dans le titre » comme dirait l’autre, mais dans le monde de l’IA, on différencie très clairement les notions de sûreté de l’IA et de sécurité de l’IA. Les deux parties visent à parer toutes menaces que le modèle pourrait représenter.

La sûreté vise à minimiser l’impact des menaces externes, les attaques visées contre l’IA et son fonctionnement dans le but de la faire dévier de son comportement normal et attendu. Un des focus principal, de ce domaine est l’assainissement des entrées utilisateurs, et la mise en place de règles en amont, qui permettent de mitiger ces attaques.

La sécurité de l’IA consiste elle à minimiser les impacts des menaces internes, liées à la manière dont l’IA peut apprendre, les biais que le modèle peut avoir. Ici, on s’intéressent bien plus à la qualité des données que nous allons donner à notre modèle, leur diversité, les biais des algorithmes que nous utilisons, etc…

Transparence

Un autre vecteur important pour l’AI Safety est la transparence des modèles, comment faire en sorte de savoir comment le modèle se comporte. C’est un enjeu qui est double.

La première facette est pour les ingénieurs qui développent des IA de savoir, comment marche leur modèle. Comment, à partir des données qu’on lui met en entrée, elle décide de la sortie. C’est un aspect important, car il permet de mieux comprendre comment le modèle marche, et cela permet d’améliorer nos algorithmes de sélections.

La deuxième facette de la transparence concerne le grand public et rejoint directement le 4ème axe que je souhaite développer la confiance.

La transparence est un aspect qui semble compliqué à satisfaire, car les modèles d’IA utilisent des modèles mathématiques souvent complexes. Cependant, je pense que beaucoup d’acteurs se cachent derrière cette complexité pour ne pas avoir à expliquer leur technologie. Sans aller jusqu’aux détails des calculs qui sont impliqués, il y a toujours la possibilité de vulgariser et de communiquer sur la technologie et de rendre l’IA moins magique.

Confiance

Le dernier aspect de l’AI Safety que je souhaite aborder est celui de la confiance. On peut avoir une IA bonne et bienveillante, mais si personne ne lui fait confiance, l’IA est inutile, car personne ne l’utilisera.

Cet axe est intéressant, car il en regroupe d’autres, comment peut on faire confiance à une IA si elle est vulnérable ? Si on ne sait pas comment elle fonctionne ? etc… La confiance dans l’IA est autant un enjeu technique qu’organisationnel. Il faut que le modèle techniquement soit suffisamment performant et sécurisé pour être fiable, mais aussi que son fonctionnement soit suffisamment connu pour être utilisé par le grand public.

C’est aussi un moyen pour les chercheurs et ingénieurs de se rappeler qu’il faut que leur domaine soit compréhensible, au risque de ne plus avoir d’impact sur la société.

Et ensuite ?

Les champs d’application de l’AI Safety sont vastes et cet article ne fait qu’effleurer la surface de ce domaine. Il est important de noter que cet enjeu, bien que central, divise aussi la communauté de l’IA, entre ceux qui veulent accélérer le développement de l’IA, parfois au détriment de l’AI Safety et ceux qui veulent s’assurer qu’on développe des IA dignes de confiance, le terme « Trustworthy AI » est une notion qui est beaucoup revenue lors de mes recherches, et qui est corrélé à l’AI Safety

Aussi je ne me suis concentré que sur quelques principes importants de l’AI Safety, il sera intéressant de voir comment ces principes sont respectés, et quelles méthodes ont été déployées. Mais ce sera pour une prochaine fois…

Partager l'article:

Autres articles