@Francis, agnotologue
’’Si un robot chatbot conversationnel nous sollicite de prouver que nous
ne sommes pas un robot, cela signifie que le robot lui-même est capable
de comprendre la notion de robot et d’intelligence’’
Cette ’’preuve’’ étant généralement de comparer le résultat attendu par le programme et le résultat proposé par le client, il n’y a rien de neuf dans cette comparaison qui est de la programmation au ras des pâquerettes. Quand on vous demande de cocher les cases affichant un vélo, ou une voiture de sport, ou qu’on vous demande de compléter un puzzle, c’est du b a ba. Rien d’IA dans cette étape. Le robot n’a aucune conscience des notions de robot et d’intelligence, il applique simplement un programme qui veut qu’un résultat connu (voiture dans casses 1,8,12 par ex) soit comparé au résultat proposé par le client : voiture dans cases 1,8,15 = FAUX, dans cases 1,8,12 = VRAI.
Le résultat du ’’travail’’ d’une IA peut ne pas être un résultat connu d’avance. Si je lui demande la couleur du coquelicot elle me répondra rouge, mais si je lui demande de me produire un tableau représentant un champ de coquelicots ’’à la manière de’’ Claude Monet, elle ne reproduira pas : https://fr.wikipedia.org/wiki/Les_Coquelicots
L’IA c’est un programme et d’immenses banques de données, mais ce n’est pas une intelligence car si on ne lui demande rien, ... elle ne produira rien ! Elle ne sait pas proposer sans sollicitation !