@Francis, agnotologue
Vous
avez écrit : "C’est vrai si par traitement vous vous limitez aux
opérations mathématiques. Les programmes de reconnaissance de formes par
exemple, traitent des images, des dessins, des photos, même si ces données
subissent des traitements numériques."
Cela est fort juste, mais, il
n’empêche que le premier problème d’un programmeur est TOUJOURS de donner une
représentation mathématique de l’objet sur lequel l’ordinateur doit exécuter un
traitement. Par exemple, l’ordinateur ne voit pas d’image, mais ne connaît qu’une
représentation que l’humain lui fournit, éventuellement une matrice donnant
l’intensité des couleurs RGB sur chaque pixel. DONC AU DÉPART, TOUT EST DANS LA
REPRÉSENTATION MATHÉMATIQUE QUE l’HUMAIN TRANSMET A L’ORDINATEUR POUR QUE CELUI
PUISSE EXÉCUTER UN ALGORITHME AUSSI INVENTE PAR L’HUMAIN.
Et plus l’on élève le
niveau d’abstraction, plus il est difficile de construire une représentation
que l’ordinateur peut traiter.
Prenons l’exemple de la mécanique quantique. Évidemment,
l’ordinateur ne comprend rien à ses principes, mais si on lui formule un problème
particulier comme une équation de Schrödinger, il peut appliquer des algorithmes
numériques développés aussi par l’humain pour ce type d’équations et trouver
une solution qui n’est que le résultat d’opérations arithmétiques. C’est
toujours l’humain qui définit l’algorithme, les critères de convergence, ce
n’est pas l’ordinateur. Autre exemple : ce n’est pas l’ordinateur qui a inventé
la théorie des codes, mais les programmeurs peuvent lui donner une représentation
des données et des codes pour qu’il recherche les limites de détection de
fautes dans des trames de données en fonction du temps de traitement disponible.
Ah : 1470 caractères : j’arrête.