A l’argument suivant : L’avénement des ordinateurs quantiques conduit précisément à un dépassement radical de la notion d’information classique, c’est-à-dire de bit...
L’approche informatique, particulièrement en IA, a dépassé depuis plusieurs décennies le principe du tiers exclu. Les logiques, outils mathématiques, sont nombreuses et bien plus complexes. De plus il faut distinguer la notion de donnée de celle d’information et celle de connaissance.
A Sylvain Reboul : La réponse est, sans contestation rationnelle possible : la position « épistémologique » matérialiste car elle seule permet la mise place de questions théoriques précises et de processus physico-chimiques testables.
A cette remarque, même si elle est éloignée dudit sujet, l’approche me semble erronée dès lors que nous abordons la notion d’intelligence. Pouvons-nous « tester » l’intelligence ? Pour une problématique posée dans une science molle, en prenant différents êtres humains, vous n’aurez quasiment aucune solution identique. Sur quelle conclusion pourrons-nous tester une machine ? La testabilité a ses limites ; la preuve mathématique est plus sûre.
A Pierre Picard et Fabien : Ceci dit je pense que la recherche en intelligence artificielle est importante, bien que son nom soit inadéquat.
Problème d’interprétation par dichotomie terminologique. L’intelligence artificielle et l’intelligence naturelle ont certaines différences importantes.
Si intelligence artificielle il y a, qu’est-ce que de l’intelligence « non artificielle » ? Car votre article (que je trouve passionnant) semble tabler sur le fait que l’on sache universellement de quoi il s’agit...
Les différences importantes encore actuellement non surmontées, à mon sens, sont : 1 - L’homme raisonne par intention (par but) alors que La machine raisonne par extension (suit une procédure). Cette problématique est actuellement prise en compte dans la recherche des logiques intentionnelles.
2 - L’homme a un esprit inductif (L’induction permet, à partir d’une constatation, d’en déduire une autre pour un autre objet sans qu’il y est de certitude ni de rapport entre les objets. L’induction est créative mais risquée). La machine est de nature déductive (La déduction permet de constater un et un seul résultat pour un problème donné sans s’étendre afin de savoir si cela s’applique à d’autres problèmes. La déduction est rigoureuse mais non créative).
A Jerikojerk : Par exemple il oublie qu’un logiciel nait sur le papier à partir d’un algorythme. As-t-on l’algorythme de l’intelligence ?
Pardonnez-moi de la réponse un peu cru, mais c’est une vue très restrictive de l’informatique ; même si le comportement d’une machine reste à tendance algorithmique. En IA, nous n’utilisons pas d’algorithmes tels qu’ils sont définis ; les algorithmes sont utilisés pour les langages impératifs, déclaratifs et fonctionnels (les langages courants utilisés sur les ordinateurs). En aucun cas, lorsque nous abordons les principes de connaissances, nous travaillons sur des algorithmes. La machine, dans son raisonnement propre, doit tenir compte de son niveau de connaissance pour acquérir de nouvelles connaissances par son expérience. Nous utilisons des langages de représentation de connaissances (non déterministes) ; et dans ce contexte, nous ne pouvons savoir quel « chemin » prendra le raisonnement. Nous entrons dans des domaines plus subjectifs quant aux conclusions du raisonnement qui doivent appartenir au domaine du plausible.
A Nico : C’est aussi un croisement de disciplines : philosophie, mathématique, informatique, sciences sociales, économie, droit, linguistique...
Non, les disciplines auxquelles vous faites référence n’appartiennent pas toutes aux sciences cognitives (sciences sociales, économie, droit). D’autres comme l’anthropologie, la psychologie, les neurosciences, la psycholinguistique, ... en font partie.
Les philosophes dégagent des concepts clés et leur fonctionnement.
Mais dans ces concepts que nous pourrions classer comme concepts lexico-philosophiques, il faut pouvoir les décliner à différents niveaux d’interprétation (voir les travaux de Rastier).
Enfin, entre intelligence et conscience, il me semble qu’il est nécessaire de dissocier ces deux concepts.
Parvenir à donner, à une machine, une « intelligence » dans un domaine précis, dans un monde restreint est actuellement possible. Mais, comme nous le constatons, les restrictions sont fortes. Ayant travaillé durant six ans dans le domaine de l’interprétation des langues et plus largement, l’interprétation symbolique, nous ne pouvons conclure qu’à une application possible dans un univers très ciblé ... comme par exemple, les systèmes experts dans des domaines exclusifs d’expertises.
La problématique posée, pour ce qui concerne l’intelligence, est la capacité d’interprétation et la relation percept - concept (ce que nous voyons, distinguons de ce que nous comprenons, interprétons). Dans un « monde ouvert » l’interprétation d’une situation se fait sur les bases de nos propres connaissances qui nous permettent d’intégrer l’explicite mais aussi l’implicite de toute situation. Une machine a la capacité d’intégrer l’explicite mais pas l’intégralité de l’implicite qui dépend, chez chaque être humain de sa culture (dans le sens anthropologique) et du comportement intrinsèque à l’intellect naturel : l’induction. De plus, les phénomènes sensoriels sont quasiment ignorés dans les modélisations actuelles.
Quant à la conscience, elle est certes associée à la connaissance mais aussi aux phénomènes sensoriels qui généralement guident nos actes (la conscience est évolutive au fur et à mesure de la construction de l’être). Il reste donc, dans le cadre des sciences cognitives, à prendre en considération les aspects sensoriels ce qui est loin d’être gagné d’avance !
Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page
Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.
Agoravox utilise les technologies du logiciel libre : SPIP, Apache, Ubuntu, PHP, MySQL, CKEditor.
Site hébergé par la Fondation Agoravox
A propos / Contact / Mentions légales / Cookies et données personnelles / Charte de modération