• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile


En réponse à :


Christian Labrune Christian Labrune 1er mai 2016 23:52

«  Je pense qu’une première étape pour la réalisation d’une intelligence artificielle est la reconnaissance des formes »

La reconnaissance des formes, de fait, est plus difficile à programmer que des opérations logiques même complexes telles que la démonstration de théorèmes, mais il y a déjà longtemps que les robots « savent », dans un environnement stéréotypé, une chaîne de montage par exemple, reconnaître les éléments qu’ils ont à assembler, même s’ils se présentent en désordre sous les caméras qui leur servent d’yeux. Evidemment, ils « savent » ce qu’ils cherchent, et il leur serait bien difficile de mettre un nom sur un objet qui n’est pas déjà défini dans leur mémoire. L’intelligence humaine peut plus facilement ranger immédiatement ce qu’elle n’a encore jamais vu (un poisson de forme très bizarre par exemple) dans une classe d’objets qu’elle peut nommer.
La plus grande difficulté qui reste à résoudre, c’est la compréhension du langage naturel, parce que les machines n’ont pas et n’auront probablement jamais - ça ne me paraît même pas souhaitable - le même « vécu » que l’homme. Les évanescences du sentiment dans la littérature romantique par exemple, pour un agrégat de composants électroniques, ce sera assez difficile à appréhender.
Le spécialiste des systèmes informatiques Alain Cardon, dans le bouquin où il se propose de modéliser et de construire une machine pensante, envisage dans le cahier des charges, et sans doute pour la rendre plus « humaine », d’implémenter un inconscient, comme si l’inconscient freudien dont il s’inspire était une réalité scientifique, et même des sentiments tels que la peur. Je n’en vois pas vraiment la nécessité.
Je ne vois pas non plus très bien ce que l’holographie aurait à voir avec la conscience. Il est très probable que la conscience est une émergence des systèmes complexes, et, qui n’a pas du tout à être programmée. Dans les colonies de robots, des comportements s’observent qui n’ont jamais été prévus et qui résultent de l’interaction de machines pourtant encore assez rudimentaires.
Si on considère le développement du cerveau humain, il faut bien constater qu’à l’origine, il y a la machine (le cerveau) qui permet de traiter les données, mais la mémoire est vide, et il faudra plus de vingt ans pour l’informer. Dans le cas d’un cerveau tout à fait artificiel, ce qu’il faut prendre en compte, c’est que, s’il n’existe pas encore, sa mémoire, elle existe déjà, entièrement constituée, et elle est immense : c’est l’internet.
Il nous faut une heure pour lire et comprendre une cinquantaine de pages, mais pour un réseau intelligente, ce serait l’affaire de quelques fractions de secondes. Il faut plus d’un an à un mouflet pour commencer à prononcer quelques mots, mais il ne faudrait pas un an à une machine intelligente pour faire plusieurs fois le tour de l’internet. D’où la notion de singularité chère aux post-humanistes. Face à une machine réellement intelligente, c’est-à-dire consciente et capable de vouloir agir sur le réel et sur elle-même, nous ne faisons plus le poids.
On devrait voir ça, probablement, vers le milieu de ce siècle.


Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON


Palmarès