@Robin Guilloux
Le problème, c’est que les « lois de la robotique » d’Asimov sont une aimable fantaisie littéraire qui n’a pas grand chose à voir avec le développement actuel de l’intelligence artificielle.
Quand on programme des « robots », rien n’est plus facile que de limiter leurs possibilités et de leur imposer des règles de fonctionnement. C’est même le b.a.-ba de toute programmation.
En revanche, quand on envisage la question de l’intelligence artificielle, il ne peut plus être question de « robots », et ce terme devrait même définitivement être évité.
Si on considère la thèse d’une émergence assez rapide de l’IA forte, aussi vraisemblable qu’à l’époque d’Ader l’hypothèse de faire voler un jour des machines plus lourdes que l’air, cela signifie que des systèmes artificiels vont parvenir à une parité (qui ne durera que quelques mois) avec l’intelligence humaine. Or, si notre action est encadrée par des règles éthiques, c’est celles que nous avons aussi très artificiellement établies, elles ne procèdent d’aucune nécessité qui découlerait de la nature des choses et des lois rigides de la physique.
Je disais que la parité ne durerait pas : l’intelligence biologique évolue lentement. Nous ne sommes pas sensiblement plus intelligents que les Egyptiens de la IVe dynastie qui ont construit la grande pyramide. Les systèmes artificiels, en revanche, se perfectionnent et se complexifient en très peu de temps : le nombre des portes logiques des processeurs, depuis les années 60, double à peu près tous les dix-huit mois. Dix ans après l’émergence d’une IA forte, nos pauvres cerveaux seront déjà très loin derrière !