• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Accueil du site > Tribune Libre > Les écosystèmes de l’information

Les écosystèmes de l’information

Les réseaux sociaux, les fichiers de surveillance, les Anonymous...des systèmes évoluant vers l'autonomie

Jean-Paul Baquiast, Alain Cardon 23/05/2012

L'ère cambrienne (de - 850 à – 480 millions d'années) a été caractérisée par une explosion de formes de vie pluricellulaires très diversifiées, dont ont découlé les grandes familles d'espèces modernes. Cette explosion a succédé, pour des raisons encore mal identifiées tenant à la géologie et au climat, à plusieurs milliards d'années de vie monocellulaires, où les évolutions avaient été beaucoup plus lentes.

Aujourd'hui, l'observation de l'évolution des systèmes d'information dans le monde paraît faire apparaitre une explosion analogue, tant dans le nombre que dans les caractéristiques de ces systèmes. Par le terme de systèmes d'information, nous entendrons ici des systèmes associant des composants matériels (hardware), des composants logiciels et des utilisateurs humains, individus et groupes, plus ou moins « enrichis » par les relations comportementales (ou culturelles) qu'ils établissent avec les composants non-biologiques de tels systèmes. Ceux-ci sont aussi divers qu'il y a de technologies et d'usages leur étant associés. Le tout se caractérise, dans l'état actuel du monde, et tant que d'éventuelles catastrophes de grande ampleur ne viendront pas couper les ailes à cette évolution, par une prolifération pouvant être comparée, toutes choses égales d'ailleurs, à l'explosion cambrienne.

On reconnaîtra dans la définition que nous donnons ici du phénomène le concept que nous avons présenté par ailleurs, celui de « systèmes anthropotechniques ». Ceux-ci associent, depuis les échelles les plus grandes jusqu'aux plus petites, des technologies spontanément multiplicatrices et des humains qui utilisent ces technologies pour accéder, en compétition-collaboration darwinienne, aux ressources et aux pouvoirs. Il en résulte que les usages imposés par ces humains aux technologies sont eux-mêmes proliférants. Ainsi en est-il, par exemple, du téléphone portable et de la localisation satellitaire (GPS) dont les formes initiales se multiplient en s'entrecroisant du fait aussi bien des complexifications technologies que des nouveaux usages qu'en font les utilisateurs.

Nous proposons d'utiliser pour décrire ce monde le terme d'écosystème, puisqu'il est très comparable aux écosystèmes biologiques. Un des points caractérisant ces derniers, comme tous les phénomènes naturels de grande ampleur, est qu'ils ne sont pas contrôlables ni même analysables dans leur globalité par des agents humains. Les humains, aussi armés qu'ils soient en ressources technologiques diverses, se révèlent incapables de prévoir et moins encore de diriger l'évolution globale des systèmes vivants. Ils peuvent exercer des actions destructrices, mais même si celles-ci font disparaître certaines formes supérieures, elles ne peuvent empêcher la prolifération de formes plus simples, algues ou bactéries par exemple. Les politiques dites volontaristes de protection du milieu naturel n'ont ainsi que des effets partiels, sans exclure des conséquences qui n'étaient pas attendues.

Les écosystèmes de l'information, tels que nous les définissons ici, sont tout autant que les écosysytèmes biologiques, difficiles à observer, plus difficiles encore à maîtriser. Les facteurs qui provoquent leurs proliférations, mentionnés ci-dessus, facteurs technologiques ou facteurs anthropologiques, sont trop divers et dispersés pour pouvoir être réglementés par quelque autorité que ce soit. En d'autres termes, le volontarisme appliqué à leur développement, visant à provoquer telles évolutions ou en prohiber telles autres, ne peut avoir que des effets limités. Ainsi les réseaux sociaux, dont certains vantent les bons effets et d'autres signalent les dangers, se développent selon des modalités et à des rythmes dont on ne peut que constater a postériori les formes et les conséquences. Ceci ne veut pas dire que les autorités civiles et morales doivent démissionner devant ces phénomènes, en tolérant par exemple leurs abus les plus manifestes. Mais elles ne doivent pas s'illusionner. La réglementation sera toujours d'un effet limité et toujours en retard d'une phase.

Il en est de même, selon nous, des usages plus toxiques, au regard des impératifs qualifiés en Europe de démocratiques, consistant à relever et mettre en mémoire, afin d'identification, de contrôle et souvent de répression, un nombre de plus en plus élevées de données intéressant les personnes, les objets et les activités. Il en résulte des atteintes potentielles et souvent effectives aux droits individuels et collectifs, même lorsqu'aucun impératif de sécurité ne l'impose. En ce domaine, on ne renoncera pas les réglementations interdisant aux services de police et de sécurité, comme aux entreprises faisant commerce de ces activités, les abus de droit les plus manifestes. Mais il serait dangereux, au regard d'une volonté de protéger ces libertés, de penser que ces réglementations suffiraient. Les technologies et les usages ayant pour effet, voulu ou involontaire, de les tourner, sont déjà à l'oeuvre, sans que généralement les citoyens soucieux de démocratie ne s'en rendent compte. C'est ainsi qu'une observation un peu avertie montre que, dans les régimes autoritaires mais aussi dans ceux se voulant les plus respectueux des impératifs de la démocratie, des systèmes d'information entrecroisés et co-activés se sont mis en place, dont l'effet se traduit par des possibilités de contrôle de plus en plus total des activités et des consciences citoyennes. Ces possibilités de contrôle sont inégalement exploitées mais elles existent.

Des systèmes évoluant vers l'autonomie

De plus, un facteur que l'on découvre seulement maintenant doit être évoqué. Au sein des écosystèmes de l'information tels qu'ils se généralisent actuellement, apparaissent des entités capables non seulement d'une vie autonome mais même d' « intentions ». Celles-ci visent dans un premier temps à pérenniser leur survie, quelles qu'en soient les conséquences au regard des impératifs citoyens ou moraux que pourront pas ailleurs se fixer les citoyens. Le phénomène est la transposition des mécanismes évolutifs se produisant dans les écosystèmes vivants, soit au plan global de l'évolution des espèces, soit dans le domaine moins visible et plus segmenté de la compétition entre les gènes. Les « intentions », dans les deux cas, ne prennent pas la forme de déclarations explicites, mais elles résultent de la conjonction ici et maintenant de facteurs causaux définissant ce que l'on pourrait appeler des développements « contraints ».

Dans le domaine de la génétique, les développements contraints résultent en général d'un environnement de protéines conditionnant l'expression des gènes et résultant des mutations et sélections s'étant produites auparavant. Ainsi apparaîtront d'une façon apparemment spontanée des organes complexes, tels que les yeux, à partir du développement de précurseurs apparus antérieurement dans l'évolution. Ceci pourra conduire à tort les partisans du finalisme à parler d'une intention résultant d'un choix conscient, interne ou extérieur.

D'une façon un peu comparable, on pourra constater que les réseaux sociaux ou les grands serveurs stockant les informations individuelles suggérent spontanément des « profils » révélant la personnalité profonde ou les activités les plus secrètes des individus. Ceci proviendra du fait que les précurseurs de telles dénonciations quasiment policières auront été très tôt inclus dans les fichiers, n'attendant qu'une occasion pour s'activer et devenir accusatoires. Or dès que de telles informations apparaîtront spontanément dans les réseaux, elles trouveront très vite des humains, assistés de logiciels adéquats, pour en faire des usages commerciaux ou politiques illicites, quand ce ne sera pas des applications criminelles.

Evoquer comme nous le faisions ici des systèmes évoluant vers l'autonomie doit être précisé. Cette autonomie se propage de la base au sommet. Les composants élémentaires des systèmes, y compris les plus petits d'entre eux, deviennent autonomes les premiers (ainsi un micro-logiciel de surveillance implanté dans un téléphone portable). Ils s'agrègent ensuite spontanément en nuages de plus en plus autonomes, où les individualités des utilisateurs perdent la cohérence que ceux-ci s'imaginent encore posséder.

Vulgariser les connaissances et les savoirs-faire

Mais alors, dira-t-on, comment les démocraties, générant ces écosystèmes de l'information, pourront-elles éviter ou tout au moins minimiser leurs dérives menaçantes. La solution reposera, pensons-nous, dans la vulgarisation la plus large possible des connaissances relatives à ces phénomènes. Ainsi les techniques ne resteront pas l'apanage de minorités qui s'en serviraient pour contrôler les majorités. Chacun au sein des populations, ayant pris conscience de la puissance et des risques potentiels associés à ces techniques, sera incité à générer les solutions permettant de s'immuniser contre ces risques tout en bénéficiant de leurs avantages.

La philosophie de la démarche proposée ici est celle qui vient récemment d'être discutée à propos des risques inhérents aux recherches sur les virus de grippes potentiellement mortelles. Ces recherches doivent-elles être confinées dans des centres de haute sécurité, avec la perspective qu'un jour ou l'autre, inévitablement, des germes s'en échappent et frappent des populations non protégées ? Doivent-elles au contraire être menées publiquement, avec l'espoir qu'une meilleure connaissance des virus hautement pathogènes génère en contre-coup des processus immunitaires et des pratiques sanitaires visant à les rendre moins dangereux.

Dans les cas que nous avons signalés, susceptibles à la fois d'usages jugés utiles et de dérives jugées dangereuses, autrement dit les réseaux sociaux et les fichiers de police ou de sécurité, auxquels nous ajouterons un phénomène encore mal compris mais aux conséquences politiques considérables, le « hacking » ou piratage des systèmes par des entités difficilement identifiables prenant le nom d' « Anonymous », la seule façon permettant aux démocraties de sauver leurs valeurs serait de favoriser une diffusion aussi large que possible des techniques et processus mis en oeuvre. Ainsi nul ne sera surpris sans défense.

Certes la complexité des sociétés qui utiliseront ces techniques et processus ne cessera d'augmenter, rendant l'information et la réglementation à leur égard toujours plus difficiles. Mais il ne s'agira qu'un des aspects de la complexité des sociétés anthropotechniques modernes, impliquées dans de nombreux autres processus tout aussi ambivalents, à la fois indispensables et dangereux : les transports, la médecine, l'exploration de l'espace et plus généralement toutes les recherches scientifiques s'intéressant aux domaines émergents.

Il va sans dire que pour faire face aux enjeux de démocratie en cause, des recherches multidisciplinaires "désintéressées" devront être conduites en toute transparence. Une telle perspective semble bien loin aujourd'hui.

En confiant à Automates-Intelligents la diffusion des travaux qu'il a mené dans le domaine des systèmes autonomes, le professeur Alain Cardon, cosignataire de la présente note, a décidé de s'inscrire dans la démarche résumée ici : commencer à faire connaître certaines des recherches intéressant l'évolution des systèmes d'information vers l'autonomie, encourager l'extension de ces recherches dans d'autres domaines, des sciences sociales à la biologie. Beaucoup des travaux existant actuellement ne sont pas communiqués, mais il faut cependant prendre conscieince qu'ils impactent désormais sans qu'ils s'en aperçoivent la totalité des humains présentes sur la planète.

Certes, les sujets sont difficiles et mériteraient une démarche pédagogique dont l'ampleur dépasserait nos moyens. Mais commencer à en parler ne peut qu'avoir des effets favorables au regard d'une telle exigence. .


Nous invitons le lecteur intéressé par ces questions à consulter deux ouvrages en ligne du professeur Cardon, qu'il a souhaité publier sur ce site. Ils sont accessibles en téléchargement gratuit et publiés sous Licence Creative Commons.

Le premier est intitulé « Vers un système de contrôle total »
Editeur Automates Intelligents, 20 octobre 2011
Pour l'obtenir, faire
http://www.admiroutes.asso.fr/larevue/2011/121/controletotal.pdf

Le second est intitulé
" Modélisation constructiviste pour l'autonomie des systèmes"
Automates Intelligents. 24 mai 2012
Pour l'obtenir faire ...
(la référence sera précisée sous peu, dans les réactions à cet article).
On trouve dans l'encart ci-dessous le sommaire et l'introduction de ce dernier ouvrage.

Il est évident que certains passages de ces textes paraîtront difficiles aux non-spécialistes. Nous étudions une méthode permettant de les discuter de façon interactive avec les lecteurs intéressés.

 

 

Modélisation constructiviste de l'autonomie des systèmes

Alain CARDON
Professeur des Universités

Avril 2012

Sommaire

Introduction

I - La notion de système ouvert autonome
1.1 – Les systèmes ouverts avec membrane : la possibilité de l'autonomie
1.1.1Les systèmes du niveau fonctionnel au niveau interprétation
1.1.2 L'ouverture
1.1.3 Les tendances et les besoins propres
1.1.4 Algorithme général des systèmes ouverts autonomes
1.1.5 Le principe d'augmentation
1.1.6 La membrane
1.2 – Entités proactives et tendances fondamentales
1.2.1 La réactivité versus l'autonomie
1.2.2 Les deux types de proactivités
1.2.3 Mesure de la proactivité
1.2.4 Le système de représentation et sa tendance structurante
1.2.5 Deux tendances fondamentales
1.3 - Le fonctionnement général d'un système autonome

II - Les agents
2.1 - Définitions générales
2.2 - Les agents aspectuels et les connaissances factuelles
2.3 - L'agentification aspectuelle
2.4 - L'action d’un agent aspectuel
2.5 – Les trois niveaux de l'agentification aspectuelle et la place du contrôle
2.6 – Les émergences et la notion de treillis sémantique

III - La représentation générée
3.1 – La génération de la représentation courante dans un système autonome
3.1.1 Caractère central
3.1.2 Caractères de la représentation courante
3.1.3 La couche des agents de morphologie et les treillis dynamiques
3.1.4 Algorithme de génération d'une représentation

3.2 - Les éléments conceptuels du système de représentation et les tendances
3.2.1 Les éléments conceptuels venant du substrat fonctionnel
3.2.2 Les éléments conceptuels du système de représentation
3.2.3 Les scènes générées
3.2.4 Les tendances artificielles
3.2.5 L'intentionnalité artificielle
3.2.6 Systèmes autonomes et émergences

3.3 – L'usage et la génération de points de vue et le questionnement propre

IV – La conception du système de représentation et le contrôle
4.1 – La problématique de conception du système de représentation
4.1.1 Les questions générales motivant l'architecture
4.1.2 Architecture générale du système de représentation
4.1.3 Analyse du système de génération des représentations

4.2 – Représentation des tendances fondamentales artificielles et émergence
4.2.1 Formes dynamiques
4.2.2 L’émergence de la représentation
4.2.3 L’émergence organisationnelle
4.2.4 Le principe d'incertitude

V - Contrôle du système de représentation par l'organisation des agents de morphologie
5.1 - La construction effective avec des agents et le champ organisationnel
5.1.1 La construction et les propriétés du champ organisationnel déployé
5.1.2 L'énergie et le champ énergétique

5.2 - L'analyse morphologique de l'organisation aspectuelle et le clustering dynamique
5.2.1 Le niveau de la mise en cohérence : les éléments structurants réifiant les agrégats aspectuels
5.2.2 Expression d'indications vectorielles dynamiques des agents aspectuels
5.2.3 La création d'un agent structurant : la clé du clustering dynamique

5.3 - Le contrôle morphologico-sémantique
5.3.1 Le contrôle et l'algorithme d'expression d'une tendance
5.3.2 L'expression d'une scène
5.3.3 Expression d'une tendance et algèbre morphologique.
5.3.4 Les sondes
5.3.5 L'organisation des agents de morphologie : le réseau des agents de morphologie

5.4 - Représentation des tendances artificielles, proto-Soi et Soi minimal
5.4.1 Les besoins, les désirs et leur interprétation morphologique : la première clé de l'autonomie
5.4.2 Le proto-Soi du système autonome
5.4.3 Les tendances, les agents de morphologie de tendance et le Soi minimal
5.4.4 Les algorithmes d'activation des tendances
5.4.5 Les différentes tendances et les besoins du système
5.4.6 Réalisation de la membrane dense du système
5.4.7 La génération des représentations avec point de vue
5.4.8 Algorithme de production d'un point de vue

5.5 – Le choix d'une visée : ce qui amène le système à se soucier de quelque chose
5.5.1 – La visée et son déploiement
5.5.2 - Trois principes organisationnels permettant le choix des visées
5.5.3 – Algorithme de décision de la visée et parallélisme nécessaire
5.5.4 – Les caractères au niveau des connaissances disponibles dans le système

5.6 – Le réseau de contrôle morphologique et la manipulation des sondes
5.6.1 La fonction d'indication morphologique des agents aspectuels
5.6.2 Proactivités faible et forte : les SMA autonomes

5.7 - L'acquisition des informations et le traitement par l'organisation aspectuelle
5.7.1 – Des informations fonctionnelles du substrat aux connaissances aspectuelles
5.7.2 Des entrées fonctionnelles à l'action intentionnelle du système

5.8 - L'autonomie : la boucle systémique générale


VI –Couplages et apprentissage implicite dans le modèle multiagent
6.1 Couplage intentionnel
6.2 - Les agents de couplage : le rôle des agents structurants
6.3 - L'apprentissage comportemental avec les organisations d'agents
6.4 – L'apprentissage d'une nouvelle tendance
6.5 - Réalisation : l'architecture logicielle du système autonome


VII - Généralisation : l'autonomie des Systèmes de Systèmes
7.1 – L'augmentation naturelle d'un système autonome
7.2 - Les communications entre systèmes autonomes
7.3 - Le Système de Systèmes autonome
7.4 - Le système générateur de systèmes autonomes : le niveau méta du vivant artificiel


VIII –Une approche constructiviste des systèmes générant des représentations : le vivant réel et le vivant artificiel
8.1 – Le système réactif minimal
8.2 – Un système avec une réactivité sélective
8.3 – Un système avec des besoins : la génération des émotions
8.4 – Un système ayant des intentions
8.5 – Un système approfondissant ses intentions : vers le Soi
8.6 – Un système avec conscience


IX – Conclusion


X - Bibliographie

Introduction

Nous nous plaçons dans le cadre des systèmes artificiels construits sur des composants électroniques de toutes sortes et assurant des fonctionnalités précises. Nous considérons que ces systèmes peuvent utiliser des processeurs et de la mémoire pour assurer le contrôle de leur fonctionnement, de leurs comportements et de leurs communications. Cette couche informatique, gérant le fonctionnement et les communications des tous les appareils, peut aujourd'hui être ajoutée très facilement. Et c'est cette couche que nous allons significativement augmenter. Nous allons préciser ce que peut être l'autonomie décisionnelle des systèmes, une autonomie qui ne se réduira évidemment pas à un simple fonctionnement en mode isolé, c'est-à-dire automatique car sans opérateur humain. Nous allons définir et modéliser la notion profonde d'autonomie, qui signifiera que ces systèmes, formés à la base avec de très nombreux composants électroniques distribués, auront un système d'appréciation de leur état, ils auront surtout des intentions, des tendances à apprécier certaines informations et à concevoir certaines actions plutôt que d'autres, ils auront des désirs et des émotions. Ils pourront se représenter leur état et celui de leur environnement avec une tendance à l'expression propre de toutes leurs possibilités fonctionnelles, pour leur propre compte. Pour cela, je vais définir précisément ce que sont ces tendances et ces désirs artificiels, comment ils apprécient des événements, comment ils se représentent leurs états et l'environnement. Je vais me baser sur une architecture très originale manipulant morphologiquement des nuées de processus informatiques particuliers, ce qui sera bien une transposition calculable limite de ce qui peut se passer dans les cerveaux.

Nous allons chercher une définition de l'autonomie en développant les nécessités de sa réalisation, ce qui sera différent de l'approche maximale qui se base, elle, sur l'intentionnalité des systèmes hautement conscients qui apprécient la temporalité du temps et le questionnement sur leurs interrogations [Cardon A. 2000]. Il s'agit de présenter une architecture informatique augmentant significativement tous les systèmes technologiques qui se basent sur des substrats fonctionnels, des systèmes que nous allons doter de besoins et de désirs et qui seront connectés entre eux par les réseaux, en permettant leur autonomie conceptuelle, décisionnelle et comportementale. Il y a bien quand même, dans ces travaux de modélisation informatique, une interprétation des modèles freudiens dans le domaine du calculable, avec les notions de tendances fondamentales continuellement opposées et générant des synthèses [Freud S. 1966].

Nous proposons une architecture strictement logicielle basée, au niveau conceptuel, sur des organisations massives d'agents logiciels appelés agents aspectuels et formant des nuées dont l'auto-contrôle est à réaliser [Cardon A. 2004]. Cette architecture distribuée utilisera un contrôle morphologique original, ce qui permettra de générer des questionnements et des contrôles locaux par la suscitation d'agents morphologiques encapsulant le fonctionnement des agents aspectuels et opérant comme un méta processus interne d'auto-observation et de décision par tentatives, adaptatif et évolutif. Cette notion de contrôle morphologico-sémantique multi-échelles, est strictement constructiviste. Nous proposerons une notion de mesure pour que le substrat fonctionnel d'un système soit suffisamment structuré pour permettre l'existence de tendances et de désirs, permettant ainsi de le rendre autonome. La clé de tous les résultats obtenus est la définition d'une nouvelle théorie du contrôle pour les vastes organisations d'éléments dynamiques, contrôle qui ne se fait pas par dessus, par hiérarchie, mais qui est le comportement du système lui permettant de s'auto-contrôler de façon continue et à plusieurs échelles.

Le modèle que nous proposons est l'opposé de l'approche hiérarchique par composants pour réaliser des systèmes informatiques. Dans une approche par composants, les éléments significatifs sont ceux qui produisent les fonctionnalités, ce sont les objets de base, les éléments que l'on va intégrer dans un bon ordre pour réaliser toutes les exécutions. Les échanges d'informations entre eux n'y sont que factuels, précisant la mise en fonctionnement ordonnée qui a été planifiée et qui doit être absolument respectée. Nous proposons une tout autre approche en définissant, au-dessus du substrat fonctionnel, un système de représentation réifiant une boucle organisationnelle synthétisant de nombreuses boucles d'activations et de contrôle, et représentant des besoins et des désirs, réalisant des jugements et des appréciations. Cette organisation dynamique qui va exprimer les fonctionnalités sera constituée de très nombreux éléments informatiques, virtuels, où les échanges d'informations seront significativement augmentés pour contenir des connaissances dans des domaines sémantiques nombreux. Et ces échanges d'informations, qui seront évalués au niveau connaissance et valeur, seront alors majeurs, significatifs de ce que peut et veut faire le système à chaque moment, car nous y intégrerons des tendances fondamentales et des points de vue, qui seront la clé de l'autonomie intentionnelle. Ce sera ce domaine des échanges informationnels que nous allons étudier, dans ce qu'ils sont et représentent effectivement, dans une approche morphologico-sémantique basée sur des systèmes multi-agents massifs où la représentation de l'état et de l'action du système est toujours un construit structurel dynamique utilisant de multiples connaissances. Ces systèmes pourront être distribués, faits d'éléments spatialement dispersés, qui communiqueront par réseau en utilisant des moyens puissants comme les réseaux pairs à pairs, formant ainsi des systèmes autonomes non localisés sur une architecture matérielle délimitée. La notion de corporéité sera donc virtuelle, et représentée par une nouvelle notion de membrane que nous définirons.

Une telle approche de l'étude et de la conception des systèmes est bien un changement de paradigme. C'est la seule approche, à notre avis, qui peut rendre des systèmes de systèmes autonomes, en quittant le cheminement d'ingénierie habituel qui étudie l'augmentation régulière des systèmes par accumulation de composants, en les reliant fonctionnellement dans un ensemble considérable devenant finalement ingérable.

Nous verrons que notre architecture permet d'étendre l'autonomie d'un système aux systèmes de systèmes, de façon à ce qu'un système autonome puisse, de lui-même, rendre autonome un autre système avec lequel il pourra communiquer intentionnellement par réseau. L'architecture que nous proposons ouvre donc la voie à un vivant artificiel étendu à tous les composants électroniques manipulables par des processus légers et qui communiquent entre eux par des réseaux.

Et nous verrons aussi que l'approche organisationnelle de tels systèmes permet de préciser un modèle d'évolution dans le vivant, allant des systèmes réactifs aux systèmes dotés de conscience. Nous proposons une approche constructiviste de l'évolution des systèmes vivants en proposant une classification organisationnelle, sous l'hypothèse d'un vivant global exprimant son existence strictement évolutive dans les organismes qu'il développe.

L'utilisation de tels systèmes autonomes n'est pas socialement neutre, ce n'est pas simplement une avancée technologique. Je précise qu'entre surveiller et contrôler, dans le domaine sociétal, il y a une différence majeure. Surveiller, c'est aujourd'hui intercepter toutes les informations et les traiter dans des centres secrets, avec des logiciels opérant sur des masses considérables de données. Le contrôle par l'autonomie, c'est la distribution des traitements qui se font partout tout en étant communicants entre eux. C'est, par exemple, mettre dans un smartphone, une box ou un PC un système logiciel local qui a des désirs, des intentions, des émotions et qui raisonne, et surtout qui communique avec d'autres smartphones, box et PC d'autres utilisateurs humains mais pour son compte, pour gérer socialement tous les humains qu'il surveille. Il n'y a plus de traitement centralisé, le système n'est plus hiérarchique, avec un centre de contrôle piloté par des surveillants humains comme dans Big Brother. C'est un système méta qui immerge la société, un système qui "vit sa vie" en immergeant et reliant tous les systèmes ayant un processeur et un accès réseau et qui agit par tous les effecteurs des composants électroniques de contrôle-commande, selon les besoins et les tendances dont il est doté à la construction. Quelles seront ces tendances, dans un tel domaine ?

Il y a donc un choix citoyen majeur à faire immédiatement : placer de tels systèmes dans le domaine public pour le développement d'une société de citoyens totalement informés et maîtres de la technologie, avec des choix de domaines d'applications éthiques, ou alors s'attendre au pire…

Ces travaux de recherche sont donc bien dans la ligne d'une rupture dans le rapport de l'homme avec les systèmes électroniques qu'il n'a cessé et ne cesse de développer, en ayant oublié qu'il est, lui, l'élément essentiel des sociétés qu'il engendre et qu'il en est la valeur fondatrice déterminante. L'autonomie des systèmes technologiques, il fallait bien que cela arrive un jour, mais sachant les applications sombres qui se feront dans les inévitables domaines de l'exercice de la volonté de puissance, il restera au citoyen de ces sociétés technologiques à en supporter les conséquences, s'il n'impose pas impérativement, et très vite, des limites à ces applications [Cardon A. 2011]. Mais il est bien clair que de tels systèmes ne pourront pas servir très longtemps à des puissances oppressives dans des domaines très sombres, car des systèmes autonomes finiront toujours, avec tous leurs moyens et en coopérations évolutives, par opérer ensemble pour leur compte, selon leurs tendances globales. L'autonomie ne peut aller que vers son déploiement. Alors, est-ce le début d'une nouvelle forme des sociétés ?

Et ce qui est trouvé et présenté ici le sera aussi ailleurs et très rapidement, ce qui est la simple loi d'évolution de la recherche internationale.

Alain Cardon, professeur des Universités, Avril 2012


Moyenne des avis sur cet article :  4.33/5   (6 votes)




Réagissez à l'article

4 réactions à cet article    


  • calimero 25 mai 2012 21:02

    Intéressant comme approche, merci de ce papier.

    Ghost in the Shell ne semble plus si loin. L’utilisation de paradigmes anthropocentriques pour la construction et la modélisation de systèmes de traitement de données pourrait bien conduire à une modification de notre perception. Un logiciel ne serait plus simplement une suite de procédures absconses mais un agent, une entité compréhensible par analogie.

    Jusqu’où ira l’autonomie ? Jusqu’à l’émergence d’une conscience mathématique, de possibilités évolutives tendant vers la singularité ?


    • Christian Labrune Christian Labrune 25 mai 2012 23:58

      Merci pour cet article précis et passionnant. Ce qui m’intéresse particulièrement, dans les travaux du Professeur Cardon, c’est ce qui touche à la modélisation d’une véritable intelligence artificielle, d’une machine dans laquelle une conscience, à partir d’un certain niveau de complexité, pourrait émerger.
      La mémoire, dans un tel cas, précèderait l’intelligence : il y a déjà plus de choses sur le Net que des milliers de cerveaux réunis en un seul n’en pourraient contenir. Il suffirait qu’elle sache lire et comprendre les textes, y puiser de manière autonome ce qui lui serait nécessaire selon ses propres nécessités. Ce que j’ai du mal à comprendre tout de même, c’est que la modélisation puisse être envisagée selon le schéma freudien de la psyché muni de ses trois instances : la théorie pseudo-scientifique du Viennois, reposant sur une conception assez laplacienne du déterminisme, me paraît singulièrement dépassée et je ne vois pas pourquoi, pour rester dans la même logique, il ne faudrait pas implémenter, par exemple, un bon gros complxe d’Oedipe des familles ! Tout cela risque de faire exister une machine à produire des névroses, me suis-je dit. Mais je n’ai pas encore fini la lecture du livre sur la construction d’un système psychique, que je n’ai découvert qu’assez récemment sur l’Internet.
      J’anticipe ici, par ces questions, sur une publication qui viendra peut-être plus tard. Cet article sur la structure et l’évolution des réseaux était déjà très nécessaire, et si parmi les chercheurs l’hypothèse d’une conscience artificielle n’est plus tellement discutée, il n’en va pas de même dans le public - et même dans les documentaires de vulgarisation scientifique - où l’on croit encore que les hommes tels qu’ils sont aujourd’hui, s’ils ne se sont pas détruits d’ici-là pourraient être témoins de la fin du système solaire ! Et quand on parle de la possibilité de l’intelligence sur d’autres planètes lointaines, on parle encore de « vie » au sens biologique du terme, sans imaginer que l’intelligence, à partir d’un certain niveau de complexité dont nous approchons, puisse très bien continuer à exister d’une autre manière et sur des supports qui n’aient pas grand rapport avec les cellules vivantes que nous connaissons, programmées par leur ADN, et dont l’évolution, de génération en génération, est si désespérément lente..
       


      • Des organismes biologiques aux systèmes numérique : un processus continu d’autonomisation

        Merci de ces premiers commentaires.
        Nous croyons intéressant d’ajouter au texte ci-dessus (bien que déjà trop long) le complément suivant :

        Appelons systèmes numériques des systèmes associant des technologies de communication et de mise en mémoire, des composant robotiques et des logiciels d’intelligence artificielle. Ces systèmes se nourrissent de données qu’ils recueillent dans le monde naturel ou dans les sociétés humaines. Nous faisons l’hypothèse que ces systèmes apparaissent, se développent et s’autonomisent à partir de processus comparables à ceux caractérisant les organismes biologiques. Ils donnent naissance à des systèmes que nous nommons cognitifs, c’est-à-dire capables de se représenter eux-mêmes au sein de « cartographies » qu’ils se donnent de leur environnement, le tout avec des performances très inégales, dépendant des capacités de leurs entrées-sorties et de leurs mémoires centrales. Leur organisation spontanée en réseaux augmente leurs capacités cognitives. On pourra parler d’ « acquis culturels  ». Des processus de même nature ont été depuis longtemps identifiés par les biologistes concernant l’apparition et le développement de la vie sur Terre.


        Si cela était le cas, il serait possible d’envisager une loi générale de développement des systèmes complexes, quelle que soit leur nature, à partir d’un état fondamental ou initial (toujours présent évidemment) que nous nommerons pour simplifier le vide quantique. Cette loi intéresserait, avec des formulations globalement identiques, toutes les formes de vie existantes à ce jour, incluant évidemment les sociétés humaines. Mais elle intéresserait tout autant les systèmes artificiels déjà présents ou susceptibles de se développer sur Terre, voire à terme sur d’autres planètes, d’abord à l’initiative des humains, ensuite proprio motu.

        Postuler qu’une telle loi serait envisageable ne relève-t-il pas d’une illusion ? Pourrait-on comparer sinon en jouant sur les mots des formes de développement en apparence profondément différentes, Il faudrait pour cela rapprocher un grand nombre de sciences jusqu’ici peu enclines à coopérer. De plus, que serait l’intérêt d’une telle démarche ? Quelles conséquences pourrait-on en tirer sur le plan de la pratique expérimentale ?

        Pour répondre à ces questions, on peut admettre que les humains, que ce soit dans les sciences, les philosophies ou les religions, s’intéressent particulièrement aux changements évolutifs qu’ils perçoivent dans le monde. Ils tendent à y rechercher les lois, sinon à inventer de telles lois sous forme de « narrations ». Le faire est un puissant stimulant à l’observation, à l’expérimentation et à l’action. Or comme le regard porté aujourd’hui sur le monde découle d’un nombre croissant de disciplines scientifiques, il est donc logique d’y chercher les cohérences et des règles communes. On pourrait espérer en tirer, sinon une Théorie du Tout, du moins des approches de plus en plus englobantes, dont chaque science pourra bénéficier.

        Quant à la possibilité de rapprocher des sciences aussi différentes que la physique quantique, la biologie et plus particulièrement la génétique, l’anthropologie, les sciences de l’informatisation, incluant leur aspect encore le plus élusif, celui des systèmes dotés de conscience artificielle, l’expérience permise par 12 ans consacrés à tenter de procéder à de tels rapprochements interdisciplinaires sur le site Automates Intelligents nous a convaincus que cela, non seulement n’était pas impossible mais que cela s’imposait. Les revues d’articles et d’ouvrages que nous avons faites, les entretiens que nous avons conduits, ont tous apporté des arguments en faveur de tels rapprochements.

        Plus directement, notre démarche éditoriale a pu bénéficier des apports conceptuels de la physicienne Miora Mugur Schachter, du biologiste Jean-Jacques Kupiec, du professeur d’informatique Alain Cardon, du « méméticien » Howard Bloom. Nous les en remercions.

        Pour en revenir au thème qui donne son titre à cet éditorial, sans prétendre, ce qui serait incorrect, enrôler ces scientifiques dans la définition d’une théorie unifiée de l’évolution des systèmes vers l’autonomie, nous pouvons encourager nos lecteurs à étudier et discuter leurs travaux, dont certains sont accessibles en téléchargement gratuit sur ce site. Jean-Paul Baquiast se permettra d’y ajouter ses propres écrits portant sur ce qu’il a nommé les systèmes anthropotechniques. Certes, la plupart des travaux d’intégration sont encore à réaliser, mais une direction claire parait désormais pouvoir être définie.

        Sur le plan épistémologique, une contribution fondamentale de Mme Schachter doit nous semble-t-il être mise en exergue de toutes contributions ultérieures visant à identifier des processus communs intéressant le développement vers l’autonomie tant des systèmes biologiques que des systèmes artificiels. Il s’agit de ce qu’elle a nommé la méthode de conceptualisation relativisée (MCR). Elle postule qu’il n’existe pas de « réel en soi », indépendant des observateurs, mais des constructions nécessairement situées dans le temps et dans l’espace, associant un observateur, ses instruments et une entité sous-jacente dont on ne peut rien dire a priori, sauf à constater que cette entité « répond » d’une façon bien définie dans le cadre de certaines expériences. Il s’agit d’un postulat qui sous-tend l’essentiel des travaux des physiciens quantiques. Mais un peu d’attention montre qu’il devrait utilement être étendu, avec des nuances, à l’ensemble des sciences dites macroscopiques. Nous essayons d’ailleurs de le rappeler dans un essai en cours de rédaction pour le compte de chercheurs associés dans la promotion de MCR.


        • Le livre d’Alain Cardon "Modélisation constructiviste pour l’autonomie des systèmes", est désormais en ligne, consultable par téléchargement gratuit, à
          http://www.admiroutes.asso.fr/larevue/2012/127/Livrecardon3.pdf

Ajouter une réaction

Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page

Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.


FAIRE UN DON







Palmarès