C et l’assembleur ne sont pas mort, bien heureusement, si j’aurais vraiment beaucoup de mal à compiler mon manchot gentoo !!
Reste qu’effectivement, ils ne sont guère plus utilisés par les codeurs, chez MS on préfère le .net, le flash (si), et toutes autres IHM bien lourdes. Ça existe aussi sous nunux, avec mono, mais la plupart des programmes (libres) se compilent avec gcc, icc pour certains, et certains utilisent les framework Qt (kde ...) ou GTK (gnome, gimp..)
Le C et l’assembleur sont très présent sur linux, unix, et OSX, qui à la base est un BSD darwin, auquel apple à rajouter une nouvelle interface graphique.
La puissance de nos pc est aussi assez mal utilisée, voir quasiment pas. Quand je visionne mes graphs cacti ou nagios sur les parcs que j’administre, la plupart du temps, sur 1 mois la charge proc n’atteint pas 1% en moyenne.
Je propose souvent à mes clients d’installer BOINC sur leur poste, sur les projets WCG et GPUGRID, histoire de ne pas « gaspiller » bêtement toute cette énergie.
Car s’il y a bien un autre élément souvent inexploité dans les PC, c’est le GPU. Par exemple aujourd’hui une Nvidia GTX480, c’est quand même 1,3 Teraflops, ce qui laisse les procs loin loin loin derrière. Et la science et la recherche ont besoin de Teraflops...
Sous Nux, et même OSX, la puissance de la carte graphique peut être utilisée pour améliorer l’expérience utilisateur, notamment compiz fusion, anciennement beryl, et toutes ses fonctions d’amélioration de l’interactivité et de l’affichage, mais aussi dans des logiciels tel cinelerra, se servant de la puissance de l’opengl pour faire de l’édition/montage video en temps réel, Gimp itoo, dont certains modules peuvent tirer parti de cette puissance, via cuda, opencl, ou encore blender...
Reste que souvent ce n’est pas exploité, et il m’arrive bien souvent chez mes clients de rencontrer des cas « hallucinants » : le pc de la secrétaire équipé d’une carte graphique dernier cri, avec 8Go de mémoire, alors que le pc de la DAO est une vieille croute sous XP, équipé de 1Go de mémoire et d’une carte graphique préhistorique... Mais ça c’est un autre débat.