La récente montée en puissance des IA génératives tels que ChatGPT, Bard, Midjourney, ou pleins d’autres a donné un coup de boost incroyable au domaine de l’Intelligence Artificielle. Que ce soit auprès des professionnels de l’informatique ou au niveau du grand public, le sujet de l’IA est revenu au centre de nos préoccupations.
Cependant, quand on regarde un peu l’histoire des IA, on peut trouver surprenant qu’une IA apprenne seulement à répondre correctement à une question, ou à analyser une photo pour la modifier, surtout quand on sait que des IA battent régulièrement des champions du monde de jeux tel que les échecs, le backgammon, ou encore les dames depuis presque 30 ans maintenant.
Après tout, pour nous autres, êtres humains, entretenir une conversation, analyser des images, c’est bien plus facile à faire que de battre le champion du monde d’échecs ou de backgammon. Et bien, c’est ça le paradoxe de Moravec, c’est cette observation que, pour une IA, cela demande bien moins de puissance de calcul de faire des raisonnements logiques, que de percevoir et analyser des sensations.
Origine de ce paradoxe
Ce paradoxe a été formulé pour la première fois, par Hans Moravec en 1988, alors qu’il est chercheur à l’institut de robotique de l’université de Carnegie Mellon, à Pittsburgh. Il énonce qu’il est plus facile de créer une IA qui est capable d’avoir des résultats similaires à des adultes, en lui faisant passer un test d’intelligence, que de créer une IA capable d’avoir le niveau de sensibilité et de perception sensorielle d’un enfant de 1 an.
Moravec donne plusieurs explications à cela. La première est que, pour un humain, il est très difficile de reverse engineer des capacités humaines, surtout celles qui ne sont pas conscientes. Pour prendre un exemple, il est très difficile d’expliquer comment on arrive à différencier un crayon de papier, d’un stylo, ou plus compliqué comment on arrive à déterminer que une télévision à tubes cathodiques est une télévision, au même titre qu’une télévision à écran plat.
La deuxième explication qu’il donne est plus fondamentale. Les capacités sensorielles que l’être humain a acquises viennent de millions d’années d’évolution. Ces capacités sont essentielles pour la survie de l’Homme, et donc les individus qui avaient de meilleurs capacités étaient avantagés lors de la sélection naturelle. Ce processus nous permet de ne plus avoir conscience de ces mécanismes, on les fait, c’est tout. Au contraire, la capacité de faire des raisonnements logiques est une capacité plus récente car à priori, pas nécessaire pour la survie, et donc elle est moins intuitive pour l’Homme.
Des limitations fermes pour l’IA ?
Une fois, ce paradoxe énoncé, on comprend mieux pourquoi les IA génératives sont arrivées bien plus tard que les IA qui battent les humains sur certains jeux. Mais est ce que ça signifie que certains domaines restent inaccessibles pour l’IA ? Si on regarde aujourd’hui les intelligences artificielles se perfectionnent et réalisent des tâches que l’on pensait impossible, on peut discuter avec, elles peuvent générer des IA, Boston Dynamics arrive à faire des robots qui gardent l’équilibre, etc…
Même si les IA restent spécialisées, elles ne couvrent généralement qu’un domaine spécifique, elles s’améliorent et s’il y a des limites fermes, on ne semble pas les avoir rencontrées.