Crédits : INA.
INA - Comment définissez-vous l’intelligence artificielle ?
François Pachet - La question est assez complexe et la réponse fluctuante. Selon moi, la meilleure définition est celle de Jean-Louis Laurière (chercheur français, pionnier en intelligence artificielle) : ce sont les tentatives de résoudre les problèmes pour lesquels nous n’avons pas de solution algorithmique. C’est l’idée que lorsqu’un être humain sait résoudre un problème, mais pas la machine, on ait des difficultés à trouver un algorithme qui résolve ce problème. Cela implique la notion de connaissance, qui est très importante en intelligence artificielle.
Il faut bien comprendre que des problèmes entrent dans le domaine de l’IA et que d’autres en sortent. C’est fluctuant. Par exemple, aujourd’hui, on sait reconnaître un visage automatiquement, ce qui n’était pas le cas auparavant. Donc ce n’est plus un problème d’IA ! En 2023, pour le grand public, l’IA, ce sont les applications de deep learning (apprentissage profond) qui utilisent un réseau de neurones pour résoudre des tâches complexes. Mais dans quelques années, Chat GPT sera standardisé et ne sera plus un problème d’IA. La définition de l’intelligence artificielle est donc mouvante, car dès que le problème est résolu, il sort du champ de l’IA et devient par la suite un problème d’ingénierie ou d’informatique.
INA - Quand est né ce domaine de recherche ?
François Pachet - La naissance officielle l’IA date de 1956, lors de la conférence de Dartmouth, aux États-Unis. C’est là que le terme a été évoqué pour la première fois. Ce moment a aussi été important car il a déclenché des opportunités de financements. La mécanisation de la pensée n’est donc pas un phénomène nouveau. Dans l’Antiquité, les Grecs se posaient déjà cette question !
INA – Vous distinguez plusieurs périodes dans l’histoire de l’intelligence artificielle. Pouvez-vous nous les décrire ?
François Pachet - En effet, il y a d’abord la période symbolique. C’est une période faste, dans les années 1970-80, avec la découverte des langages de programmation logique. À cette époque, les chercheurs insistent sur le fait qu’un programme doit manipuler des symboles et des concepts pour pouvoir réaliser une action dite « intelligente ». Par exemple, lorsque l’on dit : « Tous les hommes sont mortels, Socrate est un homme, donc Socrate est mortel », on parle de concepts en ce sens que ce ne sont pas des nombres. On s’est donc aperçu que l’on pouvait faire du raisonnement avec les machines, et pas simplement du calcul.
Aujourd’hui, nous sommes dans l’époque que je qualifierais de numérique, parce que l’on revient à une logique de réseaux de neurones. Et, là encore, l’idée n’est pas nouvelle : cela existait déjà dans les années 1950, mais pour des raisons scientifiques et techniques, cela marchait très mal. Dans ce modèle, il n’y a plus de connaissances exprimées sous forme de symboles : on donne des exemples à la machine, qui les transforme en vecteurs de nombres et propose des résultats. Si l’on donne à une machine des photos de chats et de chiens, elle va numériquement transposer ces images en matrice de nombres, et va les classer automatiquement pour reconnaitre un chat d’un chien. Mais on ne lui a jamais appris ce qu’était un chat ou un chien !
INA - Par conséquent, peut-on dire que la machine est « intelligente » ?
François Pachet - Selon moi, il faut retourner la question. Il faut se demander si l’intelligence humaine est autre chose que des calculs. À mon sens, il n’y a pas d’argument fort aujourd’hui qui iraient à l’encontre de la création d’un cerveau humain à partir d’un ordinateur. Il n’y a aucune raison de ne pas y arriver. Bien sûr, il y a des choses que l’on ne comprend pas, comme les émotions, qui jouent un rôle important. Mais l’idée n’est pas de reproduire à l’identique un cerveau humain, il s’agit de faire un programme informatique qui résolve des tâches aussi bien ou mieux qu’un cerveau humain. Pour cela, on n’a pas besoin de répliquer toutes les composantes du cerveau humain. Si l’on prend l’exemple de l’avion. L’avion s’est inspiré des oiseaux, mais les avions ne battent pas des ailes... On n’est pas obligé d’imiter le modèle jusqu’au bout. Il est vrai que l’on ne comprend pas grand-chose aux émotions. Doit-on comprendre les émotions pour faire des programmes très intelligents ? La question reste ouverte.
INA - Beaucoup s’interrogent sur les dérives qu’entrainent tous ces nouveaux outils. Qu’en pensez-vous ?
François Pachet - Le grand public souhaiterait un système qui ne dirait que des choses vraies, ce qui n’est pas le cas aujourd’hui. Mais je pense qu’il faut relativiser la notion de vérité. Il y a beaucoup de domaines où le vrai est très subjectif ! Tout cela n’est pas nouveau. L’Histoire est remplie de faux et de falsificateurs, et le révisionnisme historique n’a pas attendu l’intelligence artificielle pour exister. Selon moi, la facilité à créer le faux, va surtout engendrer un sentiment de suspicion plus accru. Il faudra alors mettre en place des systèmes de vérification, qui existent d’ailleurs déjà en partie, puisque c’est ce que permettent de faire les NFT, par exemple.
Cela dit, le but de l’intelligence artificielle n’est pas vraiment qu’un système dise plus de choses vraies, mais qu’il ait plus de sens commun, plus de capacité de raisonnement. Aujourd’hui, Chat GPT a très peu de capacité de résolution de problème. La société va s'adapter, développer des moyens de maîtriser ces nouveaux outils qui seront sans doute enseignés à l'école : il faut faire confiance à l'être humain !
INA - Quelle est la prochaine étape ?
François Pachet - Ce qui nous semble incroyable aujourd’hui sera totalement banal dans quelques années. Attention : ce n’est pas parce que l’IA réalise mieux une tâche que cela éradique l’activité. Regardez les échecs. Aujourd’hui la machine bat largement l’humain aux échecs. Pour autant, il n’y a jamais eu autant de joueurs d’échecs ! Mais arrivera-t-on à faire des intelligences comme HAL dans 2001, l’Odyssée de l’espace de Stanley Kubrick ? Je ne sais pas. Seul l’avenir le dira.