Pour moi, il y a intelligence artificielle à partir du moment où il y a un processus d’apprentissage comportant une part d’incertitude (processus stochastique).
Beaucoup de techniques que vous citez, et en particulier l’essentiel des nanotechnologies, ne rentreraient pas dans cette définition.
A partir du moment où vous admettez ma définition se posent trois questions fondamentales :
- Qui définit les buts (valeurs) auxquels cet apprentissage va tendre, d’où la problématique de pouvoirs qui est l’essentiel de votre article,
- Qu’est-ce qui garantit que ces buts ont été formulés correctement au système dans sa logique propre ( avec exhaustivité, sans ambiguité, sans déformation, etc. ) ?
- Qu’est-ce qui garantit que le processus d’apprentissage respectera ces buts, autrement dit qu’il n’y aura pas d’erreur de conception, de faille (involontaire ou non), etc. ? N’oublions pas qu’il s’agit quand même d’informatique et que la gestion des erreurs (de logique, d’algorithmes et surtout d’interfaces homme-machine) est l’essentiel de l’informatique, car on n’y arrive jamais totalement. Foi d’ancien informaticien !
Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page
Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.
Agoravox utilise les technologies du logiciel libre : SPIP, Apache, Ubuntu, PHP, MySQL, CKEditor.
Site hébergé par la Fondation Agoravox
A propos / Contact / Mentions légales / Cookies et données personnelles / Charte de modération