@perlseb
"Il y a beaucoup d’études qui montrent que l’IA sait s’adapter. Si c’est
le but recherché, alors on crée des réseaux neuronaux évolutifs, non
figés, donc avec un apprentissage perpétuel (c’est juste un paramètre
que l’on choisit).«
J’aimerais avoir des précisions sur ces études. Pouvez vous me donner des références ? Des ouvrages et des travaux expliquant ce que vous appelez des »réseaux neuronaux évolutifs« .
A propos des »réseaux neuronaux« , il est acquis qu’il n’y a rien qui ressemble de près ou de loin à des neurones dans un ordinateur. L’idée de »réseau neuronal« n’est qu’une métaphore pour expliquer la possibilité de faire de la rétro-propagation. Il serait possible de parler de connexionnisme sans jamais parler de »réseau neuronal« . Il ne s’agit que de faire évoluer des valeurs numériques pour simuler une forme d’apprentissage. Des nombres représentant les poids des connexions entre les neurones (connexion des synapses) évoluent dans la période d’apprentissage...
Les discours sur le connexionnisme et les réseaux neuronaux ont été très en vogue dans les années 1980 et 90.
Sauf erreur de ma part, ces travaux sont totalement abandonnés. Ils ont pendant un temps alimenté le mythe des »gros ordinateurs" : ce qui n’était pas possible avec des petits ordinateurs deviendrait possible avec de très très gros ordinateurs. Le connexionisme demandait en effet beaucoup de puissance de calcul et l’idée était que les ordinateurs pourraient apprendre autant que nécessaire... Je pense qu’on est tombé dans de la mystification mais je veux bien qu’on me montre que j’ai tort.