ce qu’il faut avoir en tête pour reste dans le sujet, c’est que l’IA est
encore moins apte que les êtres humains à apprécier les situations et à
leur appliquer des réponses justes. L’IA n’étant pas d’origine
naturelle, le juste est une notion qui lui échappe à jamais.
=========================================
Cela n’a absolument aucun sens. Un système artificiel, sans même songer à l’IA forte, est tout à fait capable de simuler n’importe quel comportement, même ceux qui reposent sur des affects. Dans son bouquin où il définissait un cahier des charges pour une machine pensante, Alain Cardon qui est un spécialiste reconnu de l’IA, envisage de faire en sorte qu’une machine puisse éprouver de la peur, il conçoit même, ce qui me paraît tout à fait inutile et absurde, qu’elle dispose d’un inconscient.
J’ai employé par provocation le verbe « simuler » pour que vous pensiez qu’un tel comportement n’aurait rien d’authentique, mais nos comportements affectifs sont aussi le fruit d’une programmation sociale : le présentateur des informations télévisées qui évoque un tremblement de terre à l’autre bout du monde prend immédiatement une tête de circonstance, même si cela ne le touche pas directement. Sur la « sincérité » des comportements, les moralistes ont déjà écrit tout ce qu’il convient de savoir.
Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page
Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.
Agoravox utilise les technologies du logiciel libre : SPIP, Apache, Ubuntu, PHP, MySQL, CKEditor.
Site hébergé par la Fondation Agoravox
A propos / Contact / Mentions légales / Cookies et données personnelles / Charte de modération