« Linternux » : Linux 2.0 avec le Web 2.0 comme plate-forme ?
Le terme Linternux est une invention de mon cru (Google ne trouve aucune citation sur ce terme à ce moment).
Je veux synthétiser par ce nom la fusion entre les concepts de système d’exploitation Open Source (avec Linux comme emblème), mashups & web 2.0.
C’est à David Berlind de ZDNet qu’il faut attribuer la paternité de cette fusion.
Je parle abondamment de ces concepts depuis plusieurs mois en étant conscient (voir fin du billet) de ne pas arriver à les lier de manière cohérente.
En 2 schémas comparatifs, D. Berlind (plus efficace que moi !) crée "le chaînon manquant" en faisant le bon parallèle sur 3 couches entre le présent et le futur.
le système d’exploitation classique
- les applications restent les mêmes (plus ou moins...). Elles sont justes logées dans le navigateur et utilisent la puissance d’AJAX et de DHTML (HTML dynamique) au lieu d’utiliser le système GUI
de l’ordinateur. Linternux n’est donc pas qu’une plate-forme technique
mais un vrai système qui rend(ra) les services fonctionnels attendus.
- Ces applications utilisent l’ensemble des API du web 2.0 (déjà abondantes !) pour rendre leurs services sous forme de mashups basiques ou de "vraies" applications structurées comme Zimbra.
Linternux est donc aussi doté d’un ensemble de services libres d’accès
à des développeurs tiers pour y créer un écosystème (prospère ?).
- elles
vont chercher la puissance de calcul, les données stockées ou des
services plus complexes à travers l’Internet avec des protocoles /
architectures comme REST ou SOAP. Internet devient le bus interne de Linternux
En outre, D. Berlind met en avant l’avantage spécifique de Linternux : un système 100% ouvert à l’innovation qui lui rappelle le papier séminal de E. Raymond, la Cathédrale et le Bazar (à lire impérativement !).
J’ai
extrait en fin de ce billet 2 passages de ce papier qui me semblent
(surtout le premier) bien refléter l’ouverture complète de Linternux :
personne n’a besoin de sélectionner (comme la communauté Linux doit le
faire pour ses distributions) les API et services inclus dans
Linternux.
Les API et les services sont tous égaux au départ, i.e.
accessibles par un appel interactif au-dessus du Web. La sélection
darwinienne du Web 2.0 fera le reste pour déterminer ceux qui doivent
survivre !
Dion Hinchliffe a construit sur cette première vision de D. Berlind pour fournir un schéma plus complexe qui met en place les interactions entre les couches internes de Linternux.
Elles mettent en lumière la complexité naissante de Linternux : quand on voit les interdépendances, on peut s’inquiéter de la fiabilité !
Mais, finalement, ce sont quand même les immenses progrès dans ce domaine de ces dernières années qui permettent d’oser envisager puis publier de telles visions. Tout n’est pas à 100% parfait aujourd’hui, il faut juste laisser encore un peu de temps au temps !
PS : extraits de la Cathédrale & Le Bazar
extrait 1
"Le
style de développement de Linus Torvalds - distribuez vite et souvent,
déléguez tout ce que vous pouvez déléguer, soyez ouvert jusqu’à la
promiscuité - est venu comme une surprise. À l’opposé de la
construction de cathédrales, silencieuse et pleine de vénération, la
communauté Linux paraissait plutôt ressembler à un bazar, grouillant de
rituels et d’approches différentes (très justement symbolisé par les
sites d’archives de Linux, qui acceptaient des contributions de n’importe qui) à partir duquel un système stable et cohérent ne pourrait apparemment émerger que par une succession de miracles."
extrait 2
"Linus cherchait directement à maximiser le nombre de personnes-heures jetées dans la bataille du débogage et du développement, au prix éventuel d’une certaine instabilité dans le code et de l’extinction de sa base d’utilisateurs si un quelconque bogue sérieux se révélait insurmontable. Linus se comportait comme s’il croyait en quelque chose comme :
8. Étant donné un ensemble de bêta-testeurs et de co-développeurs suffisamment grand, chaque problème sera rapidement isolé, et sa solution semblera évidente à quelqu’un."
48 réactions à cet article
-
Sprintfile et Linus T. Le Finn:Le Metre & son apprenti L.T.
-
Donc, si j’ai bien compris, je n’ai rien compris...
Pourriez-vous vulgariser svp ? j’espère que je ne suis pas seul à m’interesser à ces questions et à ne rien entendre au vocabulaire technique informatique.
-
Bonjour Brisefer,
Désolé si j’ai tapé à côté de la plaque en publiant un billet très spécialisé sur une plate-forme plus généraliste.
J’ai essayé de faire mon maximum en faisant beaucoup de liens sur Wikipedia et autre (cachés sous les termes techniques par hyperliens) mais peut-être que cela ne suffit finalement pas.
Je crois que j’aurais du mal à expliquer le concept autrement qu’avec quand même pas mal de termes de jargon technique.
Mea culpa !
didier
-
Bonjour Demian,
Je dois m’avouer inculte sur l’histoire de la construction des cathédrales. J’avais (bêtement)fait confiance à l’analogie de E. Raymond dans son article. Ce texte garde quand même moi toute sa valeur pour la partie informatique
Merci donc de votre précision
didier
-
merci pour les fleurs (appréciées) ! cordialement didier
-
Votre concept est très intéressant en théorie, mais en pratique, il promet d’être une usine à gaz vouée à faire les délices des informaticiens, mais pas du grand public. Malgré ses indéniables avantages, Linux à lui seul reste réservé aux spécialistes ou aux accros de la chasse aux lézards. Alors, un tel bouzin interactif, ça risque d’être coton à maîtriser. Ceci vu à court terme.
Sur le long terme, et après stabilisation, peut-être êtes-vous visionnaire. Peut-être que, comme vous le suggérez, le darwinisme informatique sélectionnera cet organisme de bits et d’octets comme étant le plus performant. Mais j’ai des doutes sur sa capacité à devenir un vrai organisme, et non une simple tumeur offerte à tous les parasitismes.
Déjà, quand vous voyez la quantité de trucs qu’un bête PC fait dans votre dos sans vous demander votre avis, vous pouvez avoir des doutes sur l’utilité d’accentuer le phénomène. Mais peut-être qu’à l’avenir, tout un chacun zigzaguera dans les méandres de l’informatique avec la même aisance qu’un livreur de pizza dans la circulation parisienne. Donc, je ne dénigre pas, mais je demande à être convaincu.
-
Bonjour Thucyde,
Comme écrit, il faudra laisser du temps au temps pour vous convaincre.
Merci en tout cas de m’accorder le bénéfice du doute quant au potentiel (futur) de l’idée...
cordialement
didier
-
Bon, je reconnais qu’il y a une grosse odeur de Troll, mais estimer que Linux est réservé aux spécialistes ou aux accros de la chasse aux lézards, me semble aussi démodé et dépassé comme concept que de considérer le téléphone portable réservé aux chefs d’entreprise. Le monde évolue, Linux aussi... et je m’occupe de personnes du troisième âge qui découvre l’informatique avec Linux (avec ou sans première expérience sous Windows) et qui sont ravies de la simplicité de l’ensemble....
Courage... et évoluez...
-
je ne suis qu’une menagere de moins de 50 ans et je n’ai rien compris a votre article !Domage que vous ne situez pas vos propos dans un contexte plus global où vous presenterez les enjeux d’une maniere simple avant d’entrer dans le jargon ’informaticien’... corine
-
Bonjour Corinne,
Comme écrit à Brisefer dans mes autres réactions sur votre commentaire, je pense ne pas avoir choisi la bonne plate-forme pour publier cette article finalement trop spécialisé
J’aurais dû finalement seulement le laisser sur mon blog.
Je pensais qu’il y avait quand même une place sur Agoravox pour un article spécialisé...
désolé
didier
-
Microsoft a déjà intégré le navigateur au sein d’un OS, Internet Explorer... Et remplacer l’OS par internet ?! Je ne suis pas sur d’avoir compris... Vous voulez remplacer l’OS par un serveur web bourré de modules ?
-
Bonjour Fab,
Oui, c’est grosso modo l’idée qui se dégage actuellement : le Web devient l’OS et le navigateur = le GUI.
Comme écrit, il faut cependant encore laisser un peu de temps au temps mais (à mon avis) on va dans cette direction
cordialement
didier
-
ca ne serait pas une reprise de l’idée de Sun (The Network is the machine) ?
Ceci dit, on se bat encore avec quelques millions de ligne de COBOL pour le remplacement desquelles on n’a ni le temps ni l’argent, sans parler des utilisateurs à qui il va falloir apprendre de nouvelles interfaces..... (et je ne parle pas des problèmes de sécurité)
Ceci le concept est bien, tres Open Source et Free (as in free speech, not free beer.....)
-
Bonjour jb33,
merci pour le qualificatif sur le concept !
PS : je termine actuellement un projet de conversion automatique vers l’Open Source de 4 millions de lignes de Cobol. Si vous voulez, on en parle...
cordialement
didier
-
Sur que professionnellement c’est quelque chose qui m’interesse, si l’on arrive à lever certaines rigidités et lourdeurs.......
-
En cas de besoin, mon email est sur mon blog
-
Rien compris non plus.
A qui s’adresse cet article ?
Avec les niveaux de complexité atteints par les logiciels d’aujourd’hui, je pensais naïvement que les informaticiens devaient être capables d’esprit de synthèse. Des dieux de la structuration de la pensée.
En lisant cet article, j’ai l’impression d’une grande confusion.
-
Désolé GS,
Comme écrit plus haut à Brisefer et Corinne, je n’ai pas choisi la bonne plate-forme pour cet article.
Tout une partie de l’audience d’Agoravox ne semble effectivment pas intéressées par ce genre de « divagations ». Mea Culpa !
Mais, 2 points : - les idées émergentes ne sont pas toujours faciles à synthétiser : c’est quand elles ne le sont plus (émergentes) qu’elles paraissent lumineuses... - je vous assure que cet article veut dire quelque chose pour les gens du domaine )
Je ne connais pas votre profession, mais je ferai une analogie avec les médecins : les trouvez-vous toujours lumineux quand ils vous expliquent ce dont vous souffrez ? moi pas...
cordialement
didier
-
Aux personnes qui n’ont pas compris le Web 2.0.
Le Web 2.0 est une reflexion sur ce que deviendra le web. L’idée est que votre browser (celui-qui vous permet de lire ces lignes) serait le client ultime, dans une approche client/serveur. Concrêtement, au lieu de vous connecter sur de ’bêtes’ site web, vous vous connecterez sur des sites applicatifs. Exemple le site ’http://calcul.openoffice.org’ vous permettra d’acceder à un tableur. Et tout est intégré dans votre browser. Je vous laisse réfléchir aux implications qui en découlent.
Cordialement
J2C
-
Bonjour J2C,
Merci de votre aide par un exemple concret !
Selon les autres commentaires, je suis visiblement resté trop abstrait et théorique
didier
-
Je ne crois pas du tout à l’évolution que vous décrivez, sauf peut-être pour certains publics professionnels spécifiques.
D’abord, vous ressortez une chimère qui a déjà existé il y a environ 8 ans quand le navigateur Netscape rêvait de devenir un système d’exploitation utilisable sur toutes les machines. Ca a fait un grand plouf. Il y a 4 ou 5 ans, Oracle a aussi été dans le sens d’un système d’exploitation déporté, ça s’appelait le NetPC ou quelque chose comme ça. Encore un grand plouf.
Ensuite, je crois que « philosophiquement », si je puis dire, vous avez tort. Je pense qu’il y a entre l’homme et « son » ordinateur une relation spéciale qui fait que l’homme a un désir de « contrôlabilité » de sa machine. C’est « son » disque dur, « son » bureau, « sa » puissance. Ce sont surtout « ses » données qu’il tient à maitriser seul. Il ne voudra donc pas déporter la gestion de « ses » informations sur des machines qu’il ne contrôle pas.
L’indépendance numérique est un acquis auquel nous ne sommes pas prêts de renoncer.
Am.
-
Bonjour,
2 points de ma part sur votre commentaire :
- la chimère : peut-être qu’effectivement, cela en est une nouvelle (Netscape bis) mais il y beaucoup d’inventions / progrès passés qui ont dû vivre plusieurs itérations avant de percer... Aujourd’hui, l’infrastructure Internet et la puissance des machines n’a aucun rapport avec celle de l’époque Netscape( « j’y étais » aussi). C’est peut-être ce tour-là qui sera gagnant ou peut-être le suivant !
- l’indépendance numérique : argument très juste ! merci de l’avoir apporté. Cela retardera (voire empêchera) surement l’universalité de la solution mais il y aura quand même à mon avis des morceaux de notre univers numérique personnel qui vont quitter notre PC préféré pour se trouver exporter par cette architecture à mon avis.
cordialement
didier
-
Bonjour Je trouve que c’est un bon concept, vous n’auriez plus besoin de windows (ou de MacOs ou linux) mais seulement d’un ordinateur qui trouverait sur internet tout ce dont il a besoin pour fonctionner. Exit les monopoles des éditeurs... Mais mais mais il me semble évident que les grands éditeurs, si le vent devait tourner en ce sens, seraient les premiers à vouloir placer leurs propres logiciels dans ce principe. De plus certaines applications nécéssitent une grande quantité de calcul et je doute encore que les réseaux soient assez solides pour permettre un travail sur une image en 3D ou sur une affiche de 4mx3m en 300 dpi... On en reste au traitement de texte en quelque sorte.
ps : l’inénarrable désastre DW a encore réussi à nous asséner le suplice de sa prose.
-
-
je ne m’adresse qu’à ceux qui ont choisi de me lire
Non, Demian West, quand on écrit sur Agoravox, on s’adresse à tous les lecteurs, comme lorsqu’on parle à la radio (auditeurs) ou à la télévision (téléspectateurs). Les lecteurs, auditeurs, téléspectateurs sont certes volontaires mais par rapport à la page ou ou l’émission, pas par rapport aux intervenants.
Vous n’avez pas moyen ici de ne vous adresser qu’à quelques personnes triées, nous sommes tous obligés de vous lire, même si, pour certains habitués, cela peut-être très partiel à cause de redondances reconnues dans votre manière de vous exprimer. Auquel cas, il y a tout de même une certaine lecture et une certaine prise en compte de vos propos.
Contrairement à ce que vous venez d’écrire, votre lecture est donc bien contrainte.
Am.
-
Bonjour Steph,
D’accord avec vous sur 2 points :
a) ce n’est pas la panacée : le 3D par ex restera effictement local pendant longtemps
b) les grands éditeurs vont effectivement se placer dans ce nouveau jeu : - Microsoft a publié sa stratégie sur le sujet : voir mon blog http://media-tech.blogspot.com/2005/11/nouvelle-stratgie-microsoft-la-vision.html - Yahoo est actif http://media-tech.blogspot.com/2006/03/yahoo-ouvre-les-vannes-web-20-avec-4.html - Google aussi http://media-tech.blogspot.com/2006/03/writely-o-sur-le-product-framework.html
Donc, une vraie tendance qui ne sera sûrement jamais universelle et idéale mais qui va quand même exploser !
cordialement
didier
-
Tout ça ne tient pas debout.
1) Les serveurs ne sont pas assez puissants pour faire tous les calculs en cours afin de satisfaire aux clients 2) Les réseaux ne suivent pas en débit et fiabilité 3) Vulnérabilité du procédé : centralisation : réseau en étoile. 4) Problèmes de confidentialité des données 5) Intérets financiers contradictoires : si le serveur paie la license du tableur, l’entretien etc (par exemple) il faudra bien repporter les coûts sur les utilisateurs ... Et il vaut mieux vendre, pour l’éditeur, 12 millions de license que 1... On préfère payer, pour l’utilisateur, notre license une fois que la louer x fois et finalement payer plusieurs fois la même license ... 6) Problème de décision : qui va décider sur quel serveur et où va être implanté le tableur ? Quand on voit déjà les discordances sur la gouvernance de l’internet et les actualités chinoises ... 7) Problème de paiement : comment payer sans se faire arnaquer ? Avec toutes les fraudes ... 8) Que rapporterait un tel réseau par rapport à la structure lente mais fiable d’Internet actuel ?
Enfin si les informaticiens (ou plutot ceux là) projetent de construire ce ’’Web2’’ comme expliqué dans l’article alors pas de soucis à se faire... Personne n’y comprendra rien, ni les banquiers, ni eux !
-
PS : Tout le monde n’a pas Internet et si l’on dit que 50 % l’ont cela signifie que 50 % ne l’ont pas ...
-
Je rajoute mes petites remarques :
>1) humpf, pour une question de puissance brute, tu n’as qu’a attendre. Celle-ci monte de 50%/an et donc c’est un faux problème. Rien n’empeche de detacher une partie de la charge CPU, sur le client. >2) Je dirai plutot que c’est le problème de latence qui est important. La fiabilité du réseau a largement été eprouvée en cas de catastrophe, .. . Le probleme de fiabilité que tu vois, et + lié à celui de l’hébergé qui n’a toujours les moyens pour redonder son service. >3) Comment ça ?, le web a une architecture centralisée >4) Il existe des solutions, (cryptage...). Le probleme est plutot de l’utilisation que peut en faire le site. Mais ce problème, existe avec toutes données nomminatives, (celles de ton banquier, ...). >5) Je suis d’accord le modele économique de l’éditeur de logiciel est en porte-a-faux avec celui de Web 2.0. Mais il est déjà entrain de se faire tailler des croupieres avec l’opensources. >6) ??? faudrait que google demande a la gouvernance d’internet ou il a installe ses serveurs. >7) Pour moi, deux sources de paiement.
- publicité
- aquisition >8) Une plus grande maitrise des flux de données, sinon une interface plus réactive.Cordialement
J2C
-
Cela fait x années (>10) que l’on dit que la puissance des cpu augmente de x % mais comme les logiciels sont autants et même plus gourmands alors il n’y a pas de changements. Par exemple , pour éditer un texte ou pour une simple feuille de calcul on ne va pas plus vite aujourd’hui qu’avec un tableur Lotus en mode clavier sous DOS (ancêtre de Windows, vers année 90 pour les non initiés), quand il n’y avait pas de souris (Si ça existait !) Comparez les ressources utilisées ...
Confidentialité : le cryptage consommera encore plus de puissance machine. Plus la vitesse cpu augmente et plus il sera facile de décoder les chiffres donc il faudra encore augmenter le cryptage etc, le serpent se mort la queue !
Avec les nouveaux Windows, la seule différence : plus de 25 tâches de fond (mini) en permanence avalent la puissance de la machine et encore j’ai enlevé toutes celles en trop qui ne servent à rien ou juste ouvrent des trous béants dans la sécurité du pc... Mais il est vrai qu’il n’y aura plus rien à protéger puisque tout sera lisible sur le serveur et le réseau ...
Pour détacher un peu de puissance sur le Client cela signifie rester en l’atat actuel ! Donc Web 2 -> mort né
Si le Web a une architecture centralisé c’est une découverte pour moi !, révise donc l’histoire d’Arpanet et tu verras qu’il est capable de se débrouiller sans les serveurs centraux 8-))
Si la publicité suffisait a tout financer cela se saurait -> voir l’histoire de la bulle Internet et se demander pourquoi on paye des license 8-)) De plus le plupart des utilisateurs ne veulent pas passer leurs temps à voir la pub - d’où l’invention des proxys - ils veulent travailler et pas regarder la télévision.
L’Opensource, comme Linux, est une usine à gaz. Je le sais par expérience. Pour installer le moindre programme il faut faire également des mises à jours (pour les dépendances) comme pour Windows. L’explication du fonctionnement est nébuleuse. Pour celle accessible en ligne des pages Web qui en appelent d’autres etc ... Les livres sortis sont désuets (évolution trop rapide) ou hors sujets : O’Reilly vous parle encore de emacs et de Mutt ; tout le tin-touin alors que la plupart des gens utilisent le serveur graphique X et se fichent complettement du moteur, de la compilation du noyau, d’aptitude etc ...
Comme si les tous les conducteurs d’autos étaient des spécialistes en mécanique La plupart se savent même pas changer une ampoule (pas toujours facile) : regardez la nuit le nombre de voitures avec un oeil, mais là on est hors sujet !
Pour connaître le rôle de chaque dépendance il faudrait plusieurs vies et lire toute la bibliothèque d’Alexandrie (si celle-ci est à jour Ces dépendances sont comme des dll de Microsoft ! Et je ne parle pas de BeOS, FreeBSD et autres systèmes plus ou moins exotiques etc mais que je ne connais pas vraiment, il est vrai. Le résultat est le multiplication des versions Linux. Imaginez que pour utilisez votre feuille de calcul tableur vous soyez contraint de convertir son format à chaque fois ! (et rarement sans risque). Il faudrait donc choisir son tableur préféré.
Ensuite on ne peut pas parler de ’croupières’ puisqu’on a pas de données financières (Linux est gratuit) et à ce que je sache personne n’a pratiqué l’inventaire des OS sur toutes les machines du monde. Il est facile d’être juge et partie. Même Microsoft ne connait pas exactement le nombre de machines équipées avec son OS (entre les vieilles versions, les nouvelles, les bétas, les pirates etc ...)
De plus Linux est trop orienté serveur et web et trop peu bureautique et ce même s’il a fait des progrès il est vrai ces derniers temps : Mandriva (payant !), Linspire, etc ...
Finalement avoir une interface plus réactive avec des ’temps de latence’ plus long ? je ne comprends pas bien. L’utilisation sera plus lente et donc plus réactive ? Je sais qu’il faut prendre son temps pour les bonnes choses ) mais il y a un moment où on aime que cela accélère non ? 8-))
Ce concept de Web 2 rejoint les anciennes architectures ou les clients ne sont que des terminaux plus ou moins avolués (les écrans verts ne vous rapellent rien ?, AS400 ?)
-
On peut rajouter quelques remarques sur l’emergence du Web2.0. Celle-ci est facilité par l’utilisation de protocole ouvert, uniformisé (XML, ...), ainis que l’augmentation de la bandes passantes pour le particulier (ADSL). Pourquoi maintenant et pas avant ? parce que les technologies infrastructures étaient inexistantes (fallait etre soit riche, soit vivre dans une université ). Alors en paraphrasant ’Am’, a t’on besoin de son disque dur, son cpu, sa machine, je dirais non, si ce matériel peut être virtualisable. Cela commence avec le stockage (voir gSpace and Co.). Mais cela devrait être flagrant dans 5/10ans, il reste encore quelques problematiques a résoudre.
- sécurisation des données (si le site est hs, pas de données)
- vie privée (cryptage des données au vol)
- Debit (qqc Mo/s pour 60-80 pour des DD)
- Latence (qqc s pour des ms pour les DD).Cordialement
J2C
-
La transition se fera en douceur a mon avis, car petit a petit les internautes deleguent a internet de plus en plus de chose entre les web mails les serveurs de stockages et autres blogs.
Dans les entreprises le systeme client serveur est majoritaire et les employers l’utilisent chaque jour. les grands acteurs sont deja en train de prepare leur armes et l’augmentation tres rapide des capacite de connection permet deja d’imagine ce que sera demain.
De plus la guerre aux pirates lancé par les ayants droits ce fera beaucoup plus facilement grace a ce type de systeme. les correction de bug et autres virus informatique ne pouront plus utilise la meconaissance des internautes pour trouver des machines ou des failles persistent.
Comme tout systeme il ses avantages et ses limites. un plus grand control sur le reseau implique des instances pour le controler.
-
bonjour NO,
D’accord avec vous sur la transition progressive : l’offre et la demande doivent encore les 2 mûrir.
didier
-
Une instance de contrôle instaurée par RDDV et nos députés, ce serait bien !
Am.
-
Bonjour Am,
C’est de l’humnour ou une erreur dans la procédure de commentaire d’un autre article ?
Bon, je vais quand même y réfléchir
-
C’est de l’humour sur le thème « Moins il y aura d’instances de contrôle, mieux ce sera ». N’oublions pas que la Loi commune s’applique aussi à Internet, je ne crois pas qu’il y ait besoin d’instances spécifiques, le risque d’aller vers des solutions RDDV est trop grand.
Am.
-
un dernier commentaire : que se passera-t-il pour les 5 à 8% de la population qui, comme moi, habitent à plus de 4 km d’un répartiteur et qui ne verrront jamais l’ADSL, et qui en plus, grace a la géographie (forêt landaise, collines ardéchoises etc) ne croient pas trop au WiMAX.
-
Bonjour BJ33,
Pas d’inquiétude : cette solution si elle émerge finalement ne sera jamais universelle pour diverses raisons (voir d’autres commentaires plus haut).
Ce sera un complément aux systèmes actuels : elle en remplacera peut-être certains dans des situations bien précises à 100% mais il restera pendant très longtemps encore les « bons vieux PCs »
cordialement
didier
-
Finalement je comprends mieux les enjeux du Web2.0, les inconvenients et les avantages.On pouurait envisager des mini-ordinateurs inferieur a quelques centaines d’euros, qui auraient des caracteristiques techniques tres faible, deleguant la logique applicative au WEB.Quelles perspectives pour les pays du tiers-monde ou autres !... Tous le monde n’a pas envie de faire des jeux 3d. Les services les plus courants pourraient tout a fait etre realisable via cette architecture client tres leger, serveurs puissants : appliquer un filtre sur une photo sera fait par le serveur (plus besoin de photoshop ..), etc .. Je serais interrese si quelqu’un faisait la synthese de nos remarques et fasse de cet article une reference.
-
Bonjour Corine,
Effectivement, c’est le but : plus de travail sur le réseau dans des endroits spécialisés et moins sur le pc qui se simplifie et peut donc coûter moins cher.
PS : pourquoi ne vous lanceriez-vous pas dans la synthèse que vous suggérez ? Elle alimenterait ainsi la discussion par un 2ème point de vue.
didier
-
Merci, Didier, de ne pas avoir mal pris mes réflexions. Je m’aperçois à la lecture de la réaction de DecIRC que j’ai employé un langage trop vert, qui risque d’être mal perçu.
Pour en revenir au fond du problème, je pense qu’il est dans l’éternel débat client lourd contre client léger. Pour les non informaticiens, je précise qu’il s’agit de choisir entre avoir un maximum de choses présentes sur le PC et un minimum à distance, ou l’inverse, un PC complètement allégé, mais vous téléchargez à la volée tout ce qui s’y exécute. Le principe d’internet et du navigateur est, à l’origine, conçu comme un client léger. L’avantage, c’est que vous êtes en permanence à jour dans ce que vous utilisez, l’inconvénient, c’est que vous subissez des mises à jour parfois indésirables et que vous êtes tributaire de l’état du réseau et de sa disponibilité.
Par expérience, je préfère le client lourd, avec mise à jour interactive ou manuelle, au choix de l’utilisateur. Tout simplement parce que la puissance croissante des ordinateurs et leurs capacités de stockage sont plus disponibles que le réseau, et que vous pouvez choisir, en fonction de vos besoins.
Et pour répondre à DecIRC, non, ce n’était pas un troll. Je ne dénigre absolument pas Linux, mais vos personnes âgées, elles n’ont pas à le configurer et le dépanner elles-mêmes, j’imagine. Linux, c’est comme acheter une voiture en kit. Si vous aimez la mécanique et avez le temps et les connaissances, vous vous ferez certainement plaisir pour un coût nul et pas mal d’autres avantages. Autrement, vous devrez vous contenter d’utiliser celle que d’autres auront montée à votre place. Certes, maintenant, avec les kits de base, vous avez déjà un linux en ordre de marche. Mais difficile à configurer tout de même, car vous vous retrouvez dans un monde encore cloisonné peuplé surtout d’informaticiens.
-
Bonjour Thucydide,
Je partage votre vision des avantages et inconvénients respectifs de client lourd vs client léger.
Mais, il me semble que l’on va un peut au-delà de cette idée avec le concept Web2.0 : la spécialisation des sites distribuées offre des services de meilleure qualité par rapport aux points spécifiques qu’il traite mais au prix d’une complexité et d’une fragilité architecturale plus importante.
A contrario, le client lourd est une sorte de dénominateur commum plus simple donc plus disponible.
Mais je pense que cette différence va se gommer dans les 2 sens au fil du temps et que le technologies vont se mixer : il semble que MS-Office 12 s’annonce comme un mix intense des 2 architectures.
cordialement
didier
-
Une petite citation d’Einstein : « Si vous ne pouvez expliquer un concept à un enfant de six ans, c’est que vous ne le comprenez pas complètement ».
Comprenez-vous vraiment tout ce que vous avez écrit Mr Durand ?
-
Bonjour Romain,
Je suis aussi un grand fan d’Einstein.
Mais, on ne se connait pas : accroder-moi donc le dénéfice du doute sur le fait que je comprends (un petit peu... ce que j’écris
Venez donc sur mon blog Media & Tech pour vous en convaincre un peu plus...
didier
-
Bonjour Romain,
(un premier "Envoyer un peu rapide)
Je suis aussi un grand fan d’Einstein.
Mais, on ne se connait pas : accordez-moi donc le bénéfice du doute sur le fait que je comprends (un petit peu... ce que j’écris re-
Venez donc sur mon blog Media & Tech pour vous en convaincre un peu plus...
didier
-
L’eternel debat client lourd/ leger ? Prenons les « Virtual earth ».
- CAS DU CLIENT LOURD : Pour le programme de Google earth, il faut telecharger un logiciel sur le client. Resultat ! Je ne peux pas m’en servir car il faut au moins un version de Windows XP ou 2000 alors que je suis sur Window millenium. Il n’existe pas d’arguments valides et sérieux qui expliquerait le pourquoi de cette limitation technique (plusieurs informaticiens me l’on affirmer sans conteste), alors que mon PC de 900 Mhz est suffisamment puissant pour gerer cette 3D. De plus je ne peux pas facillement miger sur XP parce que je n’ai que 128 Mo de Ram et Window Xp ne fonctionne pas avec si peu de memoire...
- CAS DU CLIENT LOURD Numero 2 : le programme NASA WORLD WIND. Excellent programme. La, on n’a pas de probleme de compatibilité avec de vielles versions de window, mais c’est un client vraiment tres lourd : plusieurs centaines Mo installé, et autant mis en cache sur le disque dur lors de la consutation des cartes ! Or le principe n’est-il pas de laisser les cartes sur le serveurs ? Avec les connexion ADSL, le telechargement est rapide et on est sur d’avoir les dernieres cartes mis-a jour.
- CAS DU CLIENT LEGER : Et oui helas, pour ceux que cela attristent, c’est Microsoft qui a tout compris avec http://local.live.com/ : Rien a telecharger ! Rien-Rien-Rien. Resultats : Acessible avec un pentium 75 Mhz et 128 Mo. Disponibilite immediate des dernieres mis a jours. Securite maximale car pas de logiciel a telecharger (pas de virus)....
J’arrete les arguments .. car seule la paresse intellectuelle conduit à donner mauvaise presse au client leger : Les sites d’e-cartographie vont etre le socle d’un nombre considerable d’applications demain. Qui nie la haute technologie qu’elles incorporent ? Qui voudrait nous faire croire qu’elles necessiteraient des PC dual core ou bientot tetra-core ? Je pense ne pas etre la seule dans ce cas la : Mon PC a l’age de Window 98, et dans 2 ans je ne changerait toujours pas de PC car la puissance se trouvera chez les serveurs...
Bien cordialement Corine
-
C’est un problème de coût à mon avis.
Qui va payer pour la « charge » processeur ? Qui va payer pour la bande passante / l’espace disque ?
Avec un client léger, la bande passante à fournir est plus importante.
Avec un client lourd, le client participe plus au « coût » de la consultation en stockant sur son disque dur des données qui aurait dû transiter sur le réseau. Il calcule ce qui aurait pu être calculé par le serveur. C’est un peu comme sous-traiter gratuitement une partie de l’éxécution du programme.
Fab
-
Chère Corinne, je constate que pour une « ménagère de moins de 50 ans » (pour un peu, on vous imaginerait avec un baril de lessive Bonux à la main), vous avez l’air d’avoir les idées plutôt bien en place, et vous m’en voyez ravi -à part pour la « paresse intellectuelle », où vous êtes bien catégorique...
En l’occurrence, pour chacun des exemples que vous avez donnés, vous pouvez citer un contre-exemple, un avantage, un inconvénient, un « contre-avantage » ou un « contre-inconvénient »... Par exemple, en théorie, même pour un client lourd, le principe est effectivement de laisser les données sur le serveur, par exemple dans le cas de Nasa World Wind. Mais pour moi, il n’y a pas de règle absolue, tout dépend de l’usage que vous faites et de sa fréquence, aussi bien des données que des outils en eux-mêmes. Pour ces derniers, on imagine que s’ils servent régulièrement, rien ne sert de les télécharger à tout bout de champ. Sans compter que pour le moment, la bande passante est quasi gratuite -enfin, il y a des moments où ça rame quand même, sans compter que le serveur n’est pas toujours disponible. Vous pouvez me dire que le jour où elle commencera à saturer (notamment avec la téléphonie et la vidéoconférence), on avisera, mais ce jour pourrait arriver bien vite.
Pour prendre un exemple pratique, je comparerais votre PC à votre chez-vous. Si vous ne faites jamais ou presque vos travaux de plomberie, il est en effet inutile que vous stockiez des outils lourds et encombrants, des joints, des robinets, et tutti quanti, le plombier apportera tout ça avec lui. Par contre, si vous accrochez régulièrement des tableaux, déplacez des meubles, etc., vous avez une caisse à outil avec le minimum qui sert régulièrement ou qui n’est guère encombrant pour ne servir qu’à l’occasion : mètre, tournevis, cutter, marteau, clouterie...
Si vous passez à la cuisine, là, le nombre d’outils et d’ustensiles croît singulièrement. A moins d’avoir beaucoup de domestiques dont un cuisinier, vous n’allez pas en faire venir un à tout bout de champ. Et même si vous avez les moyens, à moins qu’il ne soit à demeure à votre service -avec les ustensiles susdits-, vous ne savez pas s’il viendra au pied levé faire votre repas au moment où vous le désirez.
Autre exemple plus proche de l’informatique : le client léger, c’est de ne recevoir ses films que par la télévision (mis à part le problème de l’heure de disponibilité). Le client lourd, c’est de les acheter sur support physique. En général, quand vous ne regardez un film qu’une fois, vous le regardez sur une chaîne câblée ou vous le louez, autrement, vous préférez l’acheter.
Comparaison n’est pas raison, mais je me permets celles-ci quand même. Ainsi, chacun choisit en fonction de ses besoins, de ses préférences et de ses moyens -qui évoluent, comme la capacité à avoir des personnes à son service, ou la disponibilité en bande passante. Et pour revenir à la solution proposée par l’article, je trouve que confier tout au réseau, jusqu’au système d’exploitation, ça me paraît aller bien trop loin dans le sens de l’allègement.
-
mouais, chacun a sa définition du web2.0 ...qui est surtout un concept marketing fumeux avant d’être l’innovation technologique tant clamée...
Par ailleurs, et cela a déja été dit, les applications gérées par des servers et distribuées aux clients (avec un navigateur web ou une autre interface, peu importe) existent depuis les tous débuts d’internet (voire même d’arpanet.. à vérfier... ). Après on peut refaire l’emballage tant qu’on veut, refaire l’étiquette et tout ce que l’on veut : l’idée n’en sera pas plus neuve.
Prise avec raison, cette idée de confier à des serveurs distants des applications qui se gèrent très bien sur les clients (comme la bureautique) n’a de vrai avantage que pour des google et consorts qui accroiterons la dépendance de leurs clients. Enfin, cela se justifie pour un nombre très limité et des types très particuliers d’applications mais pour la bureautique... c’est de la bétise à l’état brut. En effet, coté client, c’est surtout la promesse de soucis en cas de coupure du reseau : pas de connexion au server = pas de service = plus de traitement de texte ! bravo la belle idée moderne !
Sans parler de la confidentialité des données... et vous pourrez brandir tous les cryptages du monde... un bon man-in-the-middle et le cryptage est parfaitement inopérant...
Et pour finir : linux 2.0 ?? c’est à dire, un nouveau noyaux de système d’exploitation ? Parce que, vu comme l’auteur semble "technique" il ne doit pas lui échapper que linux n’est pas un système d’exploitation, mais un noyau. Il ne doit pas non plus lui échapper que le concept d’application intégrée à des navigateurs n’a que faire du système d’exploitation ... ?
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
Ajouter une réaction
Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page
Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.
FAIRE UN DON