• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile


Commentaire de Christian Labrune

sur L'Intelligence Artificielle incontrôlée : Une arme qui pourrait détruire l'humanité


Voir l'intégralité des commentaires de cet article

Christian Labrune Christian Labrune 23 mars 2015 22:55

@Deneb
Ravi de vous croiser ici !
Votre propos me fait penser à certaines réflexions que j’avais pu faire après la lecture du bouquin d’Alain Cardon (Concevoir une machine pensante - Approche de la conscience artificielle).
Dans le modèle qu’il propose et qui reste quand même assez difficile à appréhender parce qu’on trouve seulement dans son bouquin l’énoncé de grands principes et pas la moindre description d’une structure matérielle ou algorithmique, il envisage justement d’implémenter des émotions. Il faudrait, pense-t-il, que la machine puisse éprouver de la peur, de la douleur, etc.
Pourquoi pas ? La douleur nous avertit que quelque chose ne fonctionne pas très bien, qu’il y aurait peut-être un danger auquel il faudrait faire face.
Il va cependant plus loin, et voudrait aussi que sa machine pensante disposât d’un inconscient qu’il conçoit à peu près sur le modèle freudien. Cardon est probablement un très brillant informaticien mais il me paraît en la circonstance assez ignorant des choses de la psychologie. Les théories freudiennes n’ont rien de scientifique, elles sont désormais des curiosités du passé et relèvent de la pseudo-science. Je conçois mal qu’une machine ait besoin du refoulement, du complexe d’Oedipe et de toutes les névroses qui vont avec ça.
Je ne sais pas ce que vous en pensez, mais il me semble qu’une machine consciente pourrait et devrait pouvoir très aisément faire l’économie de toutes ces difficultés de fonctionnement qui n’existent dans l’homme que pour entraver sa liberté.


Voir ce commentaire dans son contexte





Palmarès