@Luc-Laurent Salvador
A vous lire, nous ne parlons pas de la même causalité ! En effet, je ne parle pas de la causalité dans le sens d’émettre « un jugement causal », mais dans le sens de suivre un ordre logique, propre de l’IA et non pas de l’humain qui peut ou non suivre une logique causale. C’est ce qu’on appelle le libre arbitre, qui n’existe pas pour une IA, aussi évoluée soit elle et chercher à la doter est une totale aberration humaine.
Je pense que nous sommes bien d’accord qu’une IA ne peut pas être douée de conscience, seulement d’intelligence, la différence étant que la conscience traite du sens que l’être donne à son action, tandis que l’intelligence de la capacité d’action, donc, un moyen et non pas une finalité, propre de l’être.
En aucun cas on peut dire laisser à l’IA le choix de savoir qui elle doit sauver, une IA ne décide de rien par elle même, car cela n’a aucun sens, elle ne fait qu’appliquer un programme dont seule la complexité et la multiplicité des paramètres à prendre en compte donne l’impression qu’elle prend une décision, mais ce n’est là qu’une illusion liée au fait que le programmeur ne peut pas suivre la vitesse de traitement des paramètres et des « décisions » que cela implique.
Car une IA qui prendrait une décision arbitraire, contraire au but définie par le programmeur, est une IA avec un bug qu’il faut mettre hors service immédiatement. Et je vous défie de trouver quelqu’un qui supporterait une IA qui refuserait de faire ce qu’il veut, sauf s’il le lui a expressément ordonné au préalable.
Une IA est un outil et ne pourra jamais être autre chose.
La déduction logique de l’IA obéira donc toujours à la causalité, la moralité et l’éthique n’auront jamais de sens propre pour elle en dehors du programme, donc, seul l’humain définie l’éthique et peut modifier cette dernière en changeant l’ordre de valeurs des paramètres.
Bref, l’éthique embarquée n’est que celle de l’humain et c’est de cela dont parle votre article et où pour moi l’ordinateur de bord doit d’abord être paramétré pour sauver la vie des passagers, partant du fait que l’IA est paramétrée pour avoir la conduite avec la recherche permanente d’une adéquation la plus parfaite avec son environnement et où seul l’imprévisible peut violer cette adéquation. De telle sorte que la vitesse du véhicule peut être contraire à ce que veut le passager et où toute violation, comme prendre le contrôle du volant pour aller plus vite et sortir de la zone de sécurité définie par l’IA, impliquerait que cette dernière soit programmé pour sacrifier la vie du conducteur imprudent et sauver les autres. De la même manière, une personne âgé par exemple, par libre choix, indique à l’IA de le sacrifier lui en premier, même en cas de faute de l’autre s’il identifie un enfant.
Autrement dit, la base est la responsabilité de la situation accidentelle qui est posée seulement lorsque la conduite n’est pas en adéquation avec l’environnement, toujours hors situation imprévisible.
De fait, l’éthique veut qu’on peut toujours choisir de se sacrifier malgré tout, mais qu’on ne peut pas décider de sacrifier autrui malgré sa propre irresponsabilité. Ce principe est indépendant de savoir s’il s’agit d’adultes ou d’enfants.
Bon, le sujet est évidemment plus complexe en raison de la multitude de situations et où il n’est pas toujours possible de définir la bonne action car tous les paramètres ne peuvent pas êtres connus au moment des faits.
23/08 10:33 - Eric F
’’ Néanmoins que vivent la marche à pied et le vélo, il est envisageable que les (...)
22/08 20:14 - Hervé Hum
@eresse Je ne sais pas si vous lirez ce commentaire, mais votre réponse rejoins bien la mienne (...)
22/08 19:25 - Jean Keim
@Eric F Pour le moment l’I.A. me semble un fantasme, de toute façon les moyens de (...)
22/08 17:29 - Eric F
@Jean Keim Revenons alors à la conduite entièrement automatique, est-ce qu’une automobile (...)
22/08 17:24 - Hervé Hum
@Francis, agnotologue Des exemples comme ça où il faut interpréter la loi sous peine de (...)
22/08 16:37 - Hervé Hum
@Luc-Laurent Salvador je suis allé relire le commentaire où vous parlez de « jugement causal (...)
Agoravox utilise les technologies du logiciel libre : SPIP, Apache, Ubuntu, PHP, MySQL, CKEditor.
Site hébergé par la Fondation Agoravox
A propos / Contact / Mentions légales / Cookies et données personnelles / Charte de modération