@Humphrey Binchié
Isaac Asimov avait prévu, comme vous, le danger de l’emploi d’androïdes parfaits pour commettre des attentats ou de simples assassinats : on fabrique un robot à l’image de quelqu’un et on le programme pour qu’il tue un ennemi devant témoin.
La police pourrait alors poursuivre un innocent, celui auquel ressemble le robot tueur trait pour trait et la justice devant les preuves constituées par les témoignages et les vidéos des caméras de surveillance, le condamner.
Pour lutter contre ces risques énormes, Asimov avait défini les trois lois de la robotique qui devaient être impérativement respectées :
- un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
- un robot doit obéir aux ordres qui lui sont donnés par un être
humain, sauf si de tels ordres entrent en conflit avec la première loi ;
- un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.
Le respect de ces lois suppose qu’une partie du « cerveau » du robot ne soit pas accessible à la reprogrammation de celui qui l’a acheté, ni que ce noyau fermé (mémoire morte) ne puisse pas être saboté dans une des multiples usines du monde qui fabriqueront ces machines.
Ce n’est pas acquis ...
D’autant plus que les États demanderont des robots-soldats pour combattre les terroristes, donc programmés pour tuer des êtres humains.
Bien sûr, il ne serait pas intéressant de leur donner une forme humanoïde, mais des terroristes pourraient transférer leur « cerveau » sur un androïde si l’on n’a pas pris de précautions pour que cela soit impossible.