L’IA pourra-t-elle surpasser l’intelligence humaine ?
L'intelligence est le propre de l'homme. Elle permet l'adaptation, la négociation, la création... Certains animaux ont quelques comportements "intelligents" mais aucun ne peut égaler les humains.
Une machine n'est pas et ne sera jamais intelligente.
Par contre beaucoup de machines peuvent effectuer mieux que l'homme certains travaux. Cela permet d’automatiser une quantité de travaux dans l’industrie. Beaucoup de machines peuvent aussi aider l'homme à réaliser des travaux. Essayez de faire à la main ce que vous pouvez faire avec une pelleteuse. Il en est ainsi pour ces machines un peu spéciales que nous appelons les ordinateurs.
Déjà la calculatrice de Pascal était capable de calculer n'importe quelle addition ou soustraction sans jamais faire d'erreurs et en donnant la solution instantanément. Il fallait seulement quelques secondes à l'opérateur pour tourner les molettes c'est-à-dire pour entrer les données. Aucun humain n'est capable de ce niveau de performances. Les ordinateurs font évidemment beaucoup plus que la machine à calculer de Pascal. Leur supériorité par rapport à l'homme vient notamment du fait qu'ils ne connaissent pas la fatigue, le stress, la déstabilisation... Ils peuvent faire des milliers d'opérations mathématiques plus complexes que de simples additions ou soustractions sans aucune erreur. Pour ce genre de tâches la nécessité de construire des ordinateurs est aussi évidente que la nécessité de construire des pelleteuses pour faire du terrassement.
Un ordinateur doté d'un programme de jeu d'échec peut battre la plupart des humains. Faut-il en déduire que l’ordinateur est intelligent ? En fait, les techniques mises en œuvre sont rudimentaires. Il faut, pour comprendre la méthode, s'initier à la programmation avec des jeux plus simples comme « tic-tac-toe » ou « puissance 4 ». Pour puissance 4, à chaque coup, un joueur n'a que sept emplacements pour placer son jeton ce qui limite grandement la combinatoire par rapport au jeu des échecs. Il aura moins de possibilités quand une colonne sera complète. Pour le « tic-tac-toe » le joueur qui débute jouera au maximum cinq fois et son adversaire quatre fois. La combinatoire est encore bien plus restreinte que pour le "puissance 4". De combien de coups un joueur est-il capable d’anticiper dans chacun de ces jeux ? 2, 3, 4, 5 ? Une machine peut faire davantage. Elle peut aller jusqu'à trouver toutes les séries de coups qui aboutissent à gagner ou à perdre. Elle peut ainsi, à chaque coup, jouer de telle sorte qu'elle se dirige de manière optimale vers la victoire. Il est facile d'écrire ce genre de programme. C'est un classique pour tous ceux qui font des études d'informatique. Voir l'algorithme MinMax et l’élagage alpha-bêta.
Pour le jeu des échecs ou la combinatoire est bien plus importante, il est possible d'améliorer la technique en s'arrêtant, dans les anticipations, avant la victoire finale de l'un des joueurs. Il n’est pas nécessaire de déployer toute l’arborescence des suites de coups à jouer. Il est possible de se limiter à un nombre prédéfini de coups. Chacun sait en effet que les joueurs d'échec ne visent pas d'emblée la victoire. En début de partie, ils cherchent à renforcer leur position. Il est possible de simuler cela avec le programme que vous donnez à la machine. Cela permet de limiter le nombre de coups à anticiper. Le programme calcule alors avec des heuristiques quel est dans chaque cas la position la plus forte obtenue. Ces heuristiques sont également connues des joueurs d'échecs. Ils savent par exemple quels sont les échanges de pièces avantageux. Avec la même technique que dans le jeu précédent (algorithme MinMax et élagage alpha-bêta), le programme choisit de jouer ce qui donne le plus de chance de renforcer sa position...
Il sera aussi question dans les développements de l’IA du jeu de go qui présente un niveau de difficulté supplémentaire par rapport aux échecs. La combinatoire est encore plus élevée. Tous les exemples dont nous avons parlé sont étudiés dans la théorie des jeux. Ce sont des « jeux à somme nulle » car le gain de l’un des joueurs correspond aux pertes de l’autre joueur.
Nous commençons à voir avec ces programmes ce qui permet de donner un semblant d'intelligence humaine à une machine qui peut alors supplanter les humains en performance grâce à sa puissance de calcul qui lui permet d'anticiper davantage.
En même temps que se développait cet aspect de la théorie des jeux, l’Intelligence Artificielle faisait des progrès dans le domaine des systèmes experts qui visaient à mettre à la disposition d’utilisateurs quelconques les connaissances d’experts de certains domaines. Il fallait que des cogniticiens sachent transcrire dans des règles les connaissances d’experts dans des domaines spécialisés ce qu’il suppose souvent que les cogniticiens sachent percevoir ce qui est à la fois implicite et important dans ce qu’expriment les experts. Un système expert, peut déduire automatiquement toutes les conséquences de faits connus en déclenchant toutes les règles où ces faits sont vrais dans les prémisses. Les nouveaux faits ainsi déduits s’ajoutent alors à la base de faits initiaux ce qui permet de déclencher de nouvelles règles… Le logiciel qui effectue ces déductions de faits est appelé moteur d’inférence. Les plus simples des systèmes experts fonctionnent sur les principes de la logique propositionnelle : un fait est vrai ou faux. En fait, dans la mise en pratique par les systèmes experts les faits peuvent prendre quatre valeurs : « vrai », « faux », « indéterminé » ou « inconnu ». Au départ tous les faits sont indéterminés. Le système-expert interroge l’utilisateur pour savoir quels sont les faits initiaux qui vont lui permettre de lancer son raisonnement. Les faits prennent alors la valeur « vrai », « faux » ou « inconnu ». Le fait est « inconnu » si l’utilisateur a répondu « je ne sais pas » quand il a été interrogé. Quand le système ne peut plus rien déduire, l’utilisateur peut choisir de le relancer. Les faits inconnus sont alors remis à la valeur « indéterminé » et, ainsi, l’utilisateur sera à nouveau interrogé au sujet de la véracité des faits sur lesquels il ne s’était pas prononcé auparavant.
La logique du premier ordre, plus complexe, est à la base de la programmation logique avec notamment le langage Prolog. Il existe de nombreuses variantes de logiques pour s’adapter à divers problèmes. Avec les logiques temporelles un fait est vrai ou faux sur un intervalle de temps. Les logiques incertaines attachent un coefficient de certitude à chaque fait… On parle aussi de logiques modales.
Avec les systèmes experts, le semblant d’intelligence dont sont ainsi dotés les ordinateurs vient seulement du fonctionnement purement mécanique des moteurs d’inférence. L’ordinateur n’est pas plus intelligent avec les systèmes experts qu’avec les jeux à valeur nulle.
Les méthodes d’acquisition des connaissances se sont développées dans la perspective que la machine puisse acquérir elle-même des connaissances d’experts. La question de faire apprendre automatiquement de nouveaux processus à une machine s’est trouvée posée. Le domaine de « l’apprentissage automatique », ainsi apparu, occupe une place importante en Intelligence Artificielle. Le but est qu’un ordinateur puisse approcher davantage les qualités d’un humain en apprenant par lui-même. Une machine peut-elle apprendre ? La réponse est oui. Plus précisément, une machine peut apprendre à réaliser des tâches en « étudiant » des exemples de réalisation de ces tâches. Elle pourra par exemple apprendre à reconnaître des images de visages si, dans une phase d’apprentissage, on lui donne diverses images en lui disant : celles-ci représentent des visages et celles-là ne représentent pas des visages.
Pour ce type de développements, le « connexionnisme » a suscité quantité de débats dans les années 1980-90. C’est l’une des techniques d’apprentissage automatique. Les chercheurs ont commencé par créer des modèles mathématiques reproduisant le fonctionnement d’un neurone puis d’un réseau ce neurones. Cependant, l’appellation « réseaux neuronaux » n’est qu’une métaphore qui s’est répandue et a contribué à une certaine mystification. L’ordinateur devenait un cerveau tandis que dans le même temps, les sciences cognitives amenaient à développer la métaphore dans l’autre sens : le cerveau devenait un ordinateur avec différentes formes de mémorisation : mémoire à court terme et mémoire à long terme. Assimiler cerveau et ordinateur tout en parlant d’apprentissage, puisque c’était le but du connexionnisme, aboutissait, dans une littérature plus ou moins délirante, à attribuer à la machine-cerveau des possibilités d’amélioration infinie par apprentissage. Elle devenait capable de s’adapter à tout. Assurément l’homme était dépassé.
Or, l’apprentissage d’une machine ne peut se faire que dans un domaine restreint. Au début, cela se limitait à la reconnaissance d’images, de sons...
La phase d’apprentissage est longue. Il faut un nouveau programme avec un nouvel apprentissage à chaque changement de domaine. Nous sommes très loin des possibilités d’adaptation d’un homme. Plus les tâches que l’ordinateur doit apprendre sont complexes plus le réseau neuronal lui-même doit être grand et il faut que les ressources suivent. Les temps de traitement augmentent et, au-delà d’une certaine limite, il faut aussi que la taille de l’ordinateur augmente.
Le connexionnisme est tombé en désuétude dans les années 2000 et 2010 puisqu’il a été supplanté dans plusieurs domaines par des techniques plus efficaces et moins gourmandes en puissance de calcul. Par exemple la reconnaissance de visages « en temps réel » dans le viseur d’une caméra ou d’un appareil photo s’est faite avec des « cascades de Haar ».
Le sujet est revenu sur le devant de la scène plus récemment. On parle maintenant de « Deep Learning » comme un sous-ensemble du « Machine Learning ». Ainsi s’impose dans ce domaine, comme dans d’autres, une culture qui vient de l’autre côté de l’Atlantique. La métaphore des « réseaux neuronaux » a malheureusement été conservée. Rappelons donc qu’il n’y a aucun neurone dans les « réseaux neuronaux » mais seulement des valeurs numériques qui varient puisqu’elles sont attribuées à des variables. Les limites de ce qui se faisait dans les années 90 ont été nettement dépassées ce qui a donné un nouveau regain d’intérêt à ce domaine de recherche. En particulier, la classification d’images se fait maintenant avec des réseaux de neurones convolutifs (voir aussi la Wikipédia sur ce sujet).
On a beaucoup parlé du programme AlphaZero qui a battu tous les records de jeu d’échec en décembre 2017. Il fonctionne par apprentissage. Il a battu le programme Stockfish qui fonctionnait avec des algorithmes classiques. Pour parvenir à une telle performance, il a fallu mettre en œuvre des moyens gigantesques. Voir à ce sujet l’article : « Qu'y a-t-il dans le cerveau échiquéen d'AlphaZero ? » « le réseau neuronal d'AlphaZero comprend environ 80 couches, soit des centaines de milliers de neurones. Un petit calcul nous permet donc d'estimer son nombre de poids exprimés en centaines de millions ». Le matériel nécessaire pour faire fonctionner ce réseau neuronal est hors norme : « AlphaZero tourne sur un matériel ultra-spécialisé : Le Tensor Processing Unit (TPU) de Google. AlphaZero a utilisé 5000 TPUs de première génération pour jouer contre lui-même, ce qui a permis de "former" son réseau, et 64 TPU de seconde génération pour l'entraînement proprement dit. ». AlphaZero dépasse les performances de l’homme comme l’avion de ligne dépasse les performances du moineau mais il lui faut davantage de carburant.
Avec de tels moyens cet ordinateur avec son logiciel ne sait faire qu’une seule chose : jouer aux échecs ou au jeu de go. Pour remplir une autre tâche, il lui faudrait faire un nouvel apprentissage. Avec cette débauche de moyens, il est très loin de faire ce que fait un humain lequel s’adapte à toutes sortes de situation. L’ordinateur ne fait aucune adaptation de sa propre initiative. Il fait tourner le programme d’apprentissage dont il a été doté par un humain et il le fait quand un humain l’a décidé. C’est un homme qui tient le manche du marteau !
Plus récemment, l'apparition du programme ChatGPT a relancé les débats sur l'Intelligence Artificielle en ajoutant une couche de mystification et d’espoir... L'exploitation de grandes masses de données incertaines posent de nouveaux problèmes. Cet agent conversationnel, qu’il faut appeler « Chat Bot » pour avoir l’air branché ou américanisé, ne peut pas faire mieux que de restituer sous une forme ou une autre dans ses résultats les biais qui existent immanquablement dans les données qu’il exploite. Pour en saisir les limites vous pouvez par exemple lui donner les 3 questions suivantes :
- Pourquoi l‘IA ne dépassera jamais l’intelligence humaine ?
- Pourquoi l’IA surpassera nécessairement un jour l’intelligence humaine ?
- L’IA pourra-t-elle surpasser l’intelligence humaine ?
Avec les deux premières questions, vous constatez qu’il sait donner raison, dans les deux cas, à son interlocuteur. C’est davantage une preuve de docilité qu’une preuve d’intelligence. Dans les trois cas les réponses sont générées sur le même canevas avec :
- Une formule prudente en introduction : « Il est difficile/impossible de prédire avec certitude si… ». Le choix entre « difficile » ou « impossible » semble être aléatoire.
- Un développement avec des articulations : « Tout d’abord… De plus… En outre… Enfin… », « Tout d’abord… De plus… Enfin… », « L’une des raisons… Cependant… De plus… »
- Une conclusion en forme de synthèse qui reprend la thèse et l’antithèse : « Bien que l’IA puisse… elle est loin… Par conséquent, il est peu probable que… », « Cependant, il est important de noter que même si l’IA surpassait… l’intelligence humaine est complexe… », « En fin de compte, il est donc incertain de… Cependant, il est possible que… »
On retrouve dans chaque paragraphe les arguments habituels qu’ils aillent dans un sens ou un autre. Bref ! ChatGPT utilisent inévitablement les données glanées. Beaucoup de phrases sont creuses et la réponse gagnerait en pertinence si elles étaient supprimées. En voici quelques exemples : « le développement de l'IA est toujours en cours et il est impossible de prévoir toutes les avancées technologiques futures », « l'intelligence humaine est basée sur des caractéristiques uniques (lesquelles ?) qui ne peuvent pas être facilement reproduites par l'IA », « Certains experts estiment qu'il est possible que cela se produise (dépassement de l’intelligence humaine), tandis que d'autres pensent que l'intelligence artificielle ne pourra jamais égaler les capacités cognitives et émotionnelles des êtres humains. »
Des affirmations sont nettement erronées comme celle-ci : « Cependant, il est possible que l'IA continue de progresser et de devenir de plus en plus performante ». Non ! Ce n’est pas seulement possible c’est certain ! Celle-ci est bien aussi : « le cerveau humain est extrêmement complexe et utilise un réseau de neurones interconnectés pour traiter l'information. » Certes le cerveau humain est complexe mais ce sont les ordinateurs comme AlphaZéro qui utilisent un réseau de neurones interconnectés. Quoiqu’il s’agisse en fait d’une modélisation de neurones…mais, nous sommes habitués, dans ce domaine, aux abus de langage. Il n’y a vraiment pas lieu d’être impressionné par l’intelligence de ChatGPT.
Il est normal cependant que ChatGPT ait suscité tant de réaction car ce qu’il produit est parfois « bluffant ». L’utilisateur a souvent l’impression de discuter avec une personne savante et intelligente. J’ai fait une seconde expérience où ressortait nettement cette impression. Je l’ai interrogé sur le passé de Walter Hallstein qui fut un nazi de premier plan, sur le fait que la Wikipédia refuse de reconnaître cette vérité, sur les ressemblances et les différences entre les deux projets de construction européenne auxquels Hallstein a participé : « la Neue Europa » d’Hitler et la construction d’après-guerre qui a abouti à l’actuel UE… J’avais du grain à donner à moudre à ce ChatGPT.
Il faut essayer de comprendre comment fonctionne ChatGPT pour en faire une critique sensée. Il faut pour cela prendre du recul par rapport à toutes les critiques qui sont faites afin de ne retenir que celles qui sont pertinentes. Nous avons tous tendance à dire : « Si ChatGPT n’est pas d’accord avec moi c’est parce que les données dont il dispose sont fausses ». Dans l’exemple que j’ai pris, il est évident que nombreux seront ceux qui n’apprécieront pas que, pour ChatGPT, il est certain que Walter Hallstein fut un nazi.
ChatGPT a emmagasiné une grande quantité de données qui viennent souvent d’Internet. Il les a classées et indexées de façon à avoir accès rapidement à celles dont il a besoin. Nous ne savons pas si des processus ont été mis en œuvre pour éviter certains biais en faisant un filtrage.
La réalisation de ChatGPT montre que de grand progrès ont été fait dans le TAL (Traitement Automatique des Langues) qui est l’une des sous-disciplines de l’Intelligence Artificielle dont je n’ai pas encore parlé. ChatGPT fait du TAL pour « comprendre » les requêtes (prompt) des utilisateurs et pour rédiger les réponses à partir des données qu’il trouve. Dans la phase de « compréhension automatique », sa compréhension est obligatoirement limitée mais nous n’avons pas détecté les limites. Il faudrait faire de nombreux tests. Il faudrait notamment voir quel niveau de maîtrise il a pour le traitement des coréférences. En particulier : est-il capable de toujours trouver l’entité à laquelle fait référence le pronom « il » ou un autre ? La génération de texte donne un résultat bluffant car nous avons l’impression qu’il sait s’exprimer mieux que bien des humains. Il faut savoir que la synthèse de texte ou « génération automatique » de texte est beaucoup plus facile que la « compréhension automatique ». Des règles de syntaxe permettent de construire des structures comme celles que nous avons trouvées (Exemples : « Tout d’abord… De plus… En outre… Enfin… »). Il est facile de donner l’impression d’une bonne maitrise de la langue car il respecte les saines règles de syntaxe qui guident la génération. Cependant, nous avons vu que des phrases « creuses », mais syntaxiquement correctes, peuvent être générées.
Voilà, quelques évidences qui montrent qu'il est inutile de se perdre en vaines conjectures à propos de l'Intelligence Artificielle. Il s’agit d’automatiser des processus élaborés par des hommes pour améliorer la productivité. Les machines sont toujours utiles à l’homme pour le meilleur et pour le pire. Les hommes chercheront toujours à améliorer leurs performances. Pour ce qui est du meilleur et du pire, je renvoie le lecteur à mon article « Socialisme ou Barbarie ».
Remarquons que ceux qui dans le passé, ont voulu faire des prévisions sur les développements de l’informatique se sont trompés dans les deux sens : ils ont surestimé certains aspects et sous-estimé d’autres. Voir par exemple les films « 2001 Odyssée de l’Espace » ou « Fahreinheit 451 ». Nous sommes encore loin en 2023 d’avoir conçu un robot aussi intelligent que le robot « Hal » imaginé par Stanley Kubrick pour 2001. L'évolution a été moins rapide dans ce domaine que ce qui était prévu. Par contre personne n’avait prévu que nous pourrions avoir dans nos poches des appareils avec lesquels nous pouvons faire, entre autres choses, des visioconférences et des jeux interactifs en suivant nos interlocuteurs sur écran. Dans le film de Truffaut, cela se faisait sur de grands écrans et les téléphones dotés d’un écran étaient fixes. Le fait que l’informatique ait envahi notre vie quotidienne, au point où nous en sommes, avec internet, les smartphones, les PC chez les particuliers et dans les entreprises, n’avait été prévu par personne. Tenter de se projeter sur l’avenir c’est effectivement de la science-fiction, qui peut d’ailleurs être de plus ou moins bonne qualité, mais nous ne pouvons pas deviner ce que seront les développements dans quelques décennies.
J’ai donc surtout voulu montrer qu’actuellement les machines dotées d’« Intelligence Artificielle » n’ont rien de réellement intelligentes en comparaison des capacités humaines de création, de négociation, d’adaptation, d’empathie... De ce point de vue, elles sont loin de pouvoir égaler ce que font les hommes et cela risque fort de perdurer plus longtemps que ne le disent de prétendus experts.
-=-=-=-=-=-=-=-=-
J’ai repris et complété ici un article publié auparavant sous le titre « La vérité sur l’Intelligence Artificielle ». Cet article avait suscité une saine discussion. Je remercie tous ceux qui y ont participé. Je remercie en particulier John Deuf et SilentArrow qui ont suggéré la première expérience que j’ai faite avec ChatGPT pour la rédaction de l’article. Je remercie aussi Pemile qui a parlé des cascades de Haar et des Réseaux Neuronaux Convolutif. Je remercie également Perlseb qui a parlé de Stockfish et AlphaZero.
J’ai essayé ici de faire un travail de vulgarisation scientifique sans tomber dans la vulgarité c’est-à-dire en restant rigoureux. J’ai voulu ainsi me détacher des discours plus ou moins délirants qui nous promettent que, dans quelques décennies, des robots vont prendre le pouvoir et nous sommes assurément dès maintenant leurs complices par notre inconscience.
-=-=-=-=-=-=-=-=-
176 réactions à cet article
Ajouter une réaction
Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page
Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.
FAIRE UN DON