• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Actualités > Technologies > L’intelligence artificielle récompensée par les Nobel 2024 de (...)

L’intelligence artificielle récompensée par les Nobel 2024 de Physique et de Chimie

« Philosophiquement, intellectuellement, à tout point de vue, la société humaine n'est pas préparée à l'essor de l'intelligence artificielle. (…) Sommes-nous en train de basculer dans une nouvelle phase de l'histoire humaine ? » (Henry Kissinger, en juin 2018).

Je sais que les sciences, c'est-à-dire, les sciences dures n'ont pas beaucoup de couverture médiatique en France, d'autant plus qu'on vit des moments très troublés d'ordre politique et international. Néanmoins, l'actualité scientifique est un élément important qui préfigure, voire configure notre avenir. Cette semaine est la semaine des attributions des Prix Nobel de 2024. Plutôt que d'insister sur les noms des lauréats, insistons sur les découvertes récompensées.

Lundi 7 octobre 2024 ont été récompensés du Prix Nobel de Médecine les généticiens américains Victor Ambros et Gary Ruvkun pour leurs travaux sur les micro-ARN et leur rôle dans la régulation génétique. Mercredi 9 octobre 2024 ont été récompensés du Prix Nobel de Chimie les biochimistes américains David Baker, Demis Hassabis et John M. Jumper (anglo-américain) pour leurs travaux sur les protéines, le premier (la moitié du Prix) pour leur conception numérique et les deux autres (chacun un quart du Prix) pour les prédictions de leur structure qui font appel à l'intelligence artificielle.

J'ai gardé pour la fin le Prix Nobel de Physique attribué le mardi 8 octobre 2024 au physicien américain John Hopfield et au chercheur anglo-canadien Geoffrey Hinton, spécialiste de l'intelligence artificielle, pour leurs travaux sur l'apprentissage automatique à l'aide de réseaux de neurones artificiels. Autant dire que la principale lauréate des Nobel en 2024, du reste non seulement de Physique mais aussi de Chimie, c'est l'intelligence artificielle.

Il faut déjà s'entendre sur les termes. L'expression intelligence artificielle est une pâle traduction de son équivalent anglais, pris dans le sens aussi d'intelligence économique. En fait d'intelligence, la traduction française plus précise serait plutôt veille, on parle de veille économique. C'est sûr que dire veille artificielle serait mal traduire, mais il y a de cela. Je trouve que le mot intelligence de cette expression est pourtant mal défini et induit en erreur. Intellego en latin signifie je comprends.

En français, la définition de l'intelligence, donnée par Le Robert, est : « faculté de connaître, de comprendre ; qualité de l'esprit qui comprend et s'adapte facilement ». Il y a une autre définition, dans le même sens : « l'ensemble des fonctions mentales ayant pour objet la connaissance rationnelle (opposé à sensation et intuition) ». On y trouve aussi la définition de l'intelligence artificielle : « ensemble des théories et des techniques développant des programmes informatiques complexes capables de simuler certains traits de l'intelligence humaine (raisonnement, apprentissage…) ». Il y a aussi un autre sens, qui n'est pas ici pertinent : « d'intelligence : de connivence, par complicité » (par exemple : intelligence avec l'ennemi).

Pour reprendre la définition, il faut plus prendre le verbe connaître que le verbe comprendre pour parler d'intelligence artificielle (ce qui ne reprend pas l'étymologie latine du verbe comprendre). L'intelligence artificielle ne comprend rien, elle ne fait qu'accumuler, stocker, structurer et ressortir des connaissances d'un volume et d'une vitesse incomparables avec ce dont est capable l'être humain. En revanche, ce dernier comprend.
 

Les travaux sur les réseaux de neurones artificiels, qui viennent d'être récompensés, sont fondamentaux, comme l'a expliqué, le 8 octobre 2024 à Stockholm, la professeure Ellen Moons, présidente du Comité Nobel de Physique : « L'apprentissage est une capacité fascinante du cerveau humain. Nous pouvons reconnaître des images et des paroles et les associer à des souvenirs et à des expériences du passé. Des milliards de neurones nous confèrent des capacités cognitives uniques. Les réseaux de neurones artificiels sont inspirés par ce réseau de neurones dans notre cerveau. Les lauréats du Prix Nobel de Physique de cette année, John Hopfield et Geoffrey Hinton, ont utilisé les concepts des principes fondamentaux de la physique statistique pour concevoir des réseaux de neurones artificiels qui fonctionnent comme des mémoires associatives et trouvent des modèles dans de grands ensemble de données. Ces réseaux de neurones artificiels ont été utilisés pour faire progresser la recherche sur des sujets de physique aussi divers que la physique des particules, les sciences des matériaux et l'astrophysique. Ils sont également devenus une partie de notre vie quotidienne, par exemple, dans la reconnaissance faciale et la traduction linguistique. Les découvertes et inventions des lauréats constituent des éléments constitutifs de l'apprentissage automatique qui peuvent aider les humains à prendre des décisions plus rapides et plus fiables, par exemple lors du diagnostic de problèmes médicaux. Cependant, même si l'apprentissage automatique présente d'immenses avantages, son développement rapide a aussi soulevé des inquiétudes sur notre avenir. Les humains portent collectivement la responsabilité d'utiliser cette nouvelle technologie d'une manière sûre et éthique pour le plus grand bénéfice de l'humanité. ».





L'intelligence artificielle n'est pas nouvelle, et existe depuis les années 1950, et son principe est d'imiter le cerveau humain par un système de connexions de neurones. Ce qui est nouveau depuis une dizaine voire une vingtaine d'années, c'est qu'on est capable d'avoir un volume des mémoires et une vitesse, une puissance de calcul des microprocesseurs, extraordinaires, ce qui permet aux systèmes de neurones une évolution très rapide.

Son principe est l'auto-apprentissage, et je me souviens que dans les années 1980, on parlait de système expert pour cela dans les processus de recherche d'erreurs et de solutions. La machine progresse au fur et à mesure de son évolution, de ses erreurs, de ses interactions. C'est cet aspect qui peut faire peur, qui doit faire peur, car cet apprentissage est hors contrôle d'une conscience humaine.
 

Comme pour toute innovation scientifique, la question philosophique du bien, du mal, faut-il développer, freiner, n'a pas beaucoup de sens. Qu'on le veuille ou pas, l'intelligence artificielle existe depuis longtemps et surtout, est utilisée depuis longtemps et on ne reviendra pas en arrière. Il faut faire avec. Avec enthousiasme ou avec angoisse (ou plus probablement avec les deux).

On pourra toujours imaginer une solution politique ou institutionnelle, comme pour l'énergie nucléaire. Certes, l'énergie nucléaire nous chauffe, nous apporte toute sorte d'énergie, mais en même temps, elle permet la bombe nucléaire. Il y a des traités internationaux qui réduisent les risques politiques, en limitant la prolifération de l'arme nucléaire, mais rien n'empêche des États de refuser de s'y soumettre.

Pour l'intelligence artificielle, la situation est différente car si, pour maîtriser le nucléaire, la puissance d'un État est nécessaire, le développement de l'intelligence artificielle est accessible aux entreprises, notamment les plus grandes d'entre elles, les GAFAM dont la puissance financière permet d'investir massivement dans l'intelligence artificielle. Il faudrait donc imaginer une sorte d'accord international qui contraindrait tant les États que les entreprises à... à je ne sais pas quoi car comment limiter les risques d'abus de l'intelligence artificielle ? Sur quels paramètres jouer ?

Mais revenons au sujet de fond. On ne connaît pas le fonctionnement exact du cerveau humain, et on ne connaîtra pas plus le fonctionnement réel de l'intelligence artificielle. C'est cela qui peut inquiéter à juste titre. Henry Kissinger (autre Prix Nobel, mais de la Paix), qui est mort centenaire l'an dernier, a réfléchi jusqu'au bout de sa vie aux grands enjeux du monde, et a beaucoup étudié l'intelligence artificielle dont il voyait l'essor comme aussi crucial que l'invention de l'imprimerie. En juin 2018, il se posait effectivement quelques questions : « La Toile nous a habitués à extraire et à manipuler des stocks d’informations non contextualisées, en fonction de nos besoins immédiats et pratiques. En outre, les algorithmes personnalisent les réponses en fonction de ce qu’ils savent de nous du fait de nos recherches précédentes. Du coup, la vérité est devenue relative. (…) Le monde digital valorise la vitesse au détriment de la réflexion, les positions radicales plutôt que la réflexion. L’information y supplante la sagesse. ».

Il pose ainsi un véritable problème, celui des sources : le nombre devient alors un critère de vérité (au contraire de tout ce que j'ai appris dans ma culture classique), justement parce que c'est l'information qui l'emporte sur la compréhension. C'est la dure réalité de l'influence des fake news (fausses informations) qui peut avoir des conséquences électorales graves dans les pays démocratiques (pour lesquels les élections sont à l'origine de toute légitimité de pouvoir). De même que le problème des sources, celui d'une unique source : la pluralité des intelligences artificielles est indispensable pour éviter tout risque de big-brothérisation, si je puis m'exprimer ainsi !
 

Sans doute l'ouverture de l'utilisation de l'intelligence artificielle au grand public est une nouvelle étape. Un peu dans le même genre d'importance que si l'on autorisait à chaque particulier de faire sa propre petite centrale nucléaire. Tout le monde pourra faire sa petite expérimentation. Plus ou moins réussie.

Il faut reconnaître que c'est bluffant. Bien sûr, la traduction est l'une des applications fréquentes, et elle est de plus en plus fine et sophistiquée (même si elle n'est pas encore parfaite). Le dialogue humain/machine est donc renouvelé par une sorte de forme humaine à l'expression qui est assez intrigante. L'intelligence artificielle risque donc d'engendrer de la paresse intellectuelle dans les exposés, les résumés, les comptes rendus sur des connaissances déjà acquises (certainement pas sur des connaissances à construire). Faut-il s'en inquiéter ? À la fois oui et non.

Oui, parce qu'il a été prouvé que lorsqu'on sait que la mémoire réside à l'extérieur du cerveau (dans un ordinateur, par exemple), alors, elle s'échappe du cerveau, elle ne reste plus mentalement parce qu'elle n'y est plus obligée. Bref, le cerveau ne va pas forcément évoluer en bien si on se fait de plus en plus assister par un ordinateur. La meilleure preuve est la course d'orientation, Qui, parmi les jeunes, sait même se servir d'une boussole ? Pourtant, savoir lire une carte IGN est indispensable au développement intellectuel, même si, aujourd'hui, il existe les GPS. D'une part, les GPS ne sont pas immortels (c'est un système de satellites qui ont chacun une durée de vie) ; d'autre part, cela nécessite de se reposer totalement sur la machine sans plan B. En plein désert, ou en pleine jungle, avec la batterie déchargée, que vaut un smartphone ?! C'est aussi le problème de la numérisation, des sauvegardes dans les clouds et de l'absence d'archives papiers.

Se reposer totalement sur la machine risque de faire perdre des milliards de compétences humaines au fil des générations. Rien que la calculatrice est un instrument intéressant et utile car elle permet de calculer rapidement, mais encore faut-il que son utilisateur sache calculer lui-même pour qu'il comprenne bien la nature du résultat qu'une calculatrice lui fournit. On pourrait le dire de toute assistance par ordinateur. Si on n'apprend plus à calculer, on sera contraint de n'utiliser que les machines.

Non, ce n'est pas inquiétant, parce qu'avec ce que la machine peut faire et épargner à l'humain, l'humain peut se concentrer sur d'autres tâches. Toutes les machines qui ont remplacé la force mécanique de l'homme lui ont permis de mieux penser, mieux conceptualiser. Que faire si la machine pense et conceptualise à la place ? C'est l'enjeu des prochaines décennies.

Autre source d'inquiétude, je l'ai évoqué pour les fake news, c'est la capacité, avec l'intelligence artificielle, de créer des fake news bien plus redoutables qu'auparavant. Il est possible de prendre l'image d'un homme public et de le faire parler, avec le mouvement des lèvres adapté, et lui faire dire n'importe quoi dans n'importe quelle langue. La réalité devient sujette à falsification. Ce n'est plus la photo qui est truquée, mais le film.

Le problème de la machine, c'est peut-être qu'elle ne prend pas en compte les imperfections du système, les bugs, les erreurs qui peuvent avoir des répercussions très graves. Un exemple intéressant d'intelligence artificielle, pas tout à fait encore au point et qui m'inquiéterait, c'est la conduire d'automobile par la machine. On imagine surtout le cas limite d'un risque d'accident, où l'on doit choisir entre continuer tout droit et s'écraser contre un autre véhicule ou dévier et écraser un piéton. Kissinger ne s'en moquait pas : « Dans l’avenir, nous serons de plus en plus souvent dépendants d’arbitrages opérés par des machines. L’action humaine est inspirée par des valeurs. Tel n’est pas le cas de ces machines intelligentes. Ne risque-t-on pas se laisser contaminer par leur vision instrumentale et amorale du monde ? ».

C'est là le gros problème de l'intelligence artificielle : elle n'a pas de valeur, pas de morale. On pourrait toujours imaginer les robots selon Azimov, avec leurs règles dont celle de ne pas tuer d'humain, mais aujourd'hui les drones utilisent déjà l'intelligence artificielle pour définir leur cible et tirer. C'est déjà trop tard.

Le 7 octobre 2021, le diplomate français Gérard Araud, très médiatisé ces dernières années, a écrit sur Kissinger et sur sa réflexion sur l'intelligence artificielle : « Trop d'information tue l'information mais en appelle encore toujours plus. Jamais on n'en a su autant ; jamais on n'en a compris si peu. Dans ce contexte, l'émotion et le consensus tiennent lieu d'une réflexion dont nul n'a plus le temps. Le risque est alors grand que, face à cet océan de faits, ne s'impose progressivement la tyrannie des algorithmes pour les traiter et l'expulsion progressive et volontaire de l'homme de la définition de son propre destin. Revenant à l'humanisme qui a fondé la culture de sa génération, Kissinger en appelle à des dirigeants qui, s'appuyant sur les faits, puissent les intégrer dans une vision historique et philosophique. Il n'est pas besoin de tout savoir pour tout comprendre. (…) Il ne s'agit pas des inquiétudes d'un vieil homme qui ne comprendrait plus son temps. J'ai moi-même été surpris des connaissances qu'il avait accumulées sur le sujet. C'est tout au contraire la réaction de quelqu'un qui a été confronté à la nécessité de prendre des décisions dans l'urgence et qui craint que la solution de facilité ne soit de s'en remettre à un algorithme. ».
 

Le nouveau Prix Nobel de Physique John Hopfield est lui-même très conscient des risques de l'intelligence artificielle : « En tant que physicien, je suis très troublé par quelque chose qui n'est pas contrôlé. (…) Quelque chose que je ne comprends pas assez bien pour savoir quelle sont les limites que l'on peut imposer à cette technologie. ».

Toutefois, les applications de l'intelligence artificielle sont nombreuses et opérationnelles et sauvent même des vies. Le professeur Anders Irbäck, membre du Comité Nobel de Physique, a cité deux domaines d'application importants, la modélisation dans les sciences des matériaux, et surtout la santé, l'analyse des images médicales, l'intelligence artificielle, bien plus que le médecin, est capable de déceler le début d'une tumeur cancéreuse à partir d'un cliché radiologique (IRM ou scanner), et j'ajouterai la régularité du rythme cardiaque, etc.

Ce qui est sûr et fabuleux, c'est que l'homme est en train de faire imiter par la machine son propre fonctionnement cérébral, sans forcément bien le comprendre, mais avec des avantages énormes... et sans doute des menaces qui sont aujourd'hui encore difficilement définissables. J'aurai l'occasion de continuer à évoquer ce sujet très important dans un article ultérieur.


Aussi sur le blog.

Sylvain Rakotoarison (09 octobre 2024)
http://www.rakotoarison.eu


Pour aller plus loin :
L'intelligence artificielle récompensée par les Nobel 2024 de Physique et de Chimie.
Didier Raoult interdit d'exercer !
2e rentrée scolaire contre les papillomavirus humains.
Variole du singe (mpox) : "ils" nous refont le coup ?
Covid : attention au flirt !
Papillomavirus humains, cancers et prévention.
Publications sur le papillomavirus, le cancer du col de l'utérus et l'effet de la vaccination anti-HPV (à télécharger).
Émission "Le Téléphone Sonne" sur la vaccination contre les papillomavirus, sur France Inter le 3 mars 2023 (à télécharger).
Le cancer sans tabou.
Qu'est-ce qu'un AVC ?
Lulu la Pilule.
La victoire des impressionnistes.
Science et beauté : des aurores boréales en France !
Le Tunnel sous la Manche.
Peter Higgs.
Georges Charpak.
Gustave Eiffel.
Prix Nobel de Chimie 2023 : la boîte quantique ...et encore la France !
Katalin Kariko et Drew Weissman Prix Nobel de Médecine 2023 : le vaccin à ARN messager récompensé !
Covid : la contre-offensive du variant Eris.
Hubert Reeves.
Prix Nobel de Physique 2023 : les lasers ultrarapides, la physique attoseconde... et la France récompensée !
John Wheeler.
La Science, la Recherche et le Doute.
L'espoir nouveau de guérir du sida...
Louis Pasteur.
Howard Carter.
Alain Aspect.
Svante Pääbo.
Frank Drake.
Roland Omnès.
Marie Curie.



 


Moyenne des avis sur cet article :  1.2/5   (20 votes)




Réagissez à l'article

5 réactions à cet article    


  • Francis, agnotologue Francis, agnotologue 10 octobre 18:05

    Bon article.

     

    ’’Il n’est pas besoin de tout savoir pour tout comprendre.’’

    >

    J’aurais plutôt dit : Il ne suffit pas de tout savoir pour tout comprendre.

    Nuance.


    • Francis, agnotologue Francis, agnotologue 12 octobre 10:08

      @Francis, agnotologue
       
       plus précisément : Il faut peut-être tout savoir pour tout comprendre, mais ça ne suffit pas.


    • Seth 10 octobre 20:14

      Le temps de citer feu ce vieux bout-feu sanguinaire de Kissinger (que le cul lui pèle), il eut été plus conséquent de parler de Hinton lui-même :

      En mai 2023, Hinton a démissionné de Google afin de pouvoir « s’exprimer librement sur les risques de l’IA ». Il a exprimé des préoccupations concernant l’utilisation délibérée par des acteurs malveillants, le chômage technologique et les risques existentiels liés à l’intelligence artificielle générale. (Wikipedia)



      • sophie 12 octobre 18:29

        le rouge à lèvres sur la photo est très éxagéré


        • pemile pemile 12 octobre 19:08

          @Sylvain Rakotoarison "Son principe est l’auto-apprentissage, et je me souviens que dans les années 1980, on parlait de système expert pour cela dans les processus de recherche d’erreurs et de solutions"

          Système expert et auto-apprentissage ????!!!

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON



Publicité




Palmarès



Publicité