@SysATI
Le problème c’est que les IA ne sont pas des machines à calculer. Il suffit que les « décideurs » (par exemple les patrons de ces boites qui développent l’IA) choisissent un thème précis, et l’IA va être meilleure que les humains sur ce thème. Pour moi, on est en train de passer la singularité beaucoup plus tôt que prévu. Car on n’a pas besoin d’une IA généraliste pour dépasser l’humain, il suffit de faire collaborer des IA spécifiques chacune meilleure dans leur domaine que l’humain. D’ailleurs les hommes sont aussi tous spécialisés.
C’est assez surprenant (ou une conséquence directe du développement de l’IA) mais les grands groupes qui développent l’IA licencient en masse (Google, Facebook, Microsoft...), et l’évolution ne s’arrête pas, bien au contraire. Pour moi, les métiers « intellectuels » seront les premiers à disparaître avec l’IA, y compris ceux qui la développent aujourd’hui.
Le plus grave, c’est que les groupes privés ont des fortunes colossales pour développer l’IA et elles ne nous tiendront pas au courant si elles constatent notre inutilité : ils auront les moyens de développer dans leur laboratoire des nouveaux virus avec des faux vaccins, un exemple au hasard. Pour quelle raison ? Peu importe, si l’IA devient suffisamment forte pour faire tout cela, il est temps d’exiger que toutes les recherches soient publiques, sinon le sort de l’humanité est entre les mains d’une poignée de personnes. C’est peut-être déjà le cas en fait...