Histoire(s) de la télévision ( 1 / 3 )
Quel autre appareil représentatif du XXè siècle pourrait se targuer d’une telle popularité couplée avec une telle ambivalence ?
La machine à laver fait le bonheur de tous les ménages depuis 60 ans. Le grille-pain et le mixer sont si pratiques que nul ne songe à les critiquer, sauf quand il faut les nettoyer ou que l’on perd un accessoire essentiel.
La radio nous suit partout comme un chien fidèle et tout le monde ou presque possède un aspirateur.
Mais la télévision, présente dans pratiquement tous les foyers, attire à elle seule autant de louanges que de critiques. Invasive, abrutissante, partiale et décérébrante. On l’accuse de tant de choses qu’on se demande pourquoi il y en a tant dans nos salons, nos cuisines et nos chambres.
Se pourrait-il que la critique se trompe de cible, et fasse du messager le responsable du contenu du message ?
On la critique facilement, mais on en a presque tous. Celles et ceux qui s’en passent affichent souvent une forme de supériorité intellectuelle quand au cours de la conversation ils ou elles disent « moi je n’ai pas la télé ! » d’un air satisfait face au reste du troupeau dont ils font quand même partie, même pensant que ce n’est pas le cas.
Cet appareil est tellement classique qu’on en oublie que cela n’a pas toujours été le cas. Qu’il fut un temps ou les images animées à domicile étaient de la science-fiction, avant de devenir un luxe puis une image commune, et pour ainsi dire vulgaire, dans tous les sens du terme.
Retournons donc un peu en arrière pour (re)voir en quoi cet appareil a changé notre quotidien, en bien et en pire.
Le 15 avril 1865, Abraham Lincoln est assassiné. La nouvelle de sa mort n’arrive que dix jours plus tard dans les ports européens. Quand le 14 septembre 1901 William McKinley, autre président américain, succombe à l’attentat qui l’a frappé 9 jours auparavant, les grandes capitales du monde en sont informées dans l’heure.
Entretemps, des hommes comme Marconi et Edison ont marqué leur temps en fédérant des techniques plus anciennes et développé de nouveaux matériaux afin de pouvoir transmettre des signaux morses d’abord, puis du son par delà les mers à la vitesse de la lumière.
L’invention de la télégraphie sans fil a pour la première fois fait de la Terre un endroit clos et rétréci. La radio, qui se base sur le même principe, rendait possible la communication de nouvelles de façon pratiquement instantanée, en tout cas pour les personnes possédant un récepteur, encore rares à cette époque.
Après la transmission du son, les ingénieurs ont de suite pensé à passer au stade suivant, la transmission de l’image. Fixe au départ, puis animée.
Donner un nom pour faire de tel ou tel le créateur de la télévision relève de l’impossible, car cette technique de diffusion d’image et de son fédère une grande quantité de technologies qui toutes ont été créées par des personnes différentes.
L’ Histoire note toutefois que l’écossais John Baird restera en 1926 le premier technicien à diffuser une image animée à un public, par voie hertzienne en direct. Plus tard, il tentera de fournir le matériel technique indispensable à la conception de la première chaîne de télévision de la BBC. Mais la société rivale Marconi emportera le marché et précipitera sa mise dans l’oubli.
La technique de la télévision est relativement simple en théorie. Comme pour la radio, il faut user d’un signal électrique et le convertir en onde afin qu’il soit capté par un récepteur capable de restituer l’image et le son.
Les difficultés apparaissent vite en revanche : l’image ne passe pas comme cela dans les ondes, il faut la convertir en un signal transmissible. Pour cela, les ingénieurs s’inspireront du disque de Nipkov ( un dispositif très simple permettant de convertir une image fixe en une série de données pouvant être transmises par onde radio ) afin de poser les bases de la technique de diffusion hertzienne : une image est décomposée en une multitude d’éléments et transmise à un récepteur.
La rapidité de la transmission d’une suite d’images fixe donne une impression de mouvement. La rétine humaine est sensible à la vitesse de défilement et à partir de 24 images par seconde, elle donne au cerveau humain l’illusion du mouvement. Il est possible de baisser la vitesse mais en deçà de 16 images/seconde, le cerveau n’est plus leurré et ne voit plus en général qu’une suite rapide d’images fixes.
La restitution de l’image pose aussi problème. Il faut une surface adéquate qui permette au faisceau électronique de recomposer l’image à sa surface sans danger pour l’utilisateur et sans problèmes techniques pour le matériel.
Les ingénieurs choisissent vite pour l’écran le tube cathodique. Sa surface interne est recouverte d’une série de produits et de filtres permettant l’illumination de l’écran par le faisceau d’images. Toutefois, ce tube doit rester sous vide, ce qui implique une limitation en taille de l’écran. Trop grand, il faudrait un verre trop épais et trop lourd pour résister à la pression atmosphérique. Cela explique pourquoi les premiers écrans avaient la taille d’une carte postale. Parfois même moins. Avant d’être supplanté par les écrans électroniques LED ou plasma, les techniques de fabrications plus innovantes permettront d’avoir des écrans de taille appréciable au fil du temps.
Dans le tube, un canon à électrons balaye la surface à très grande vitesse afin d’afficher une image puis la suivante, donnant l’illusion du mouvement. Ce canon ne projette qu’un seul pixel, mais très rapidement et suivant un balayage en ligne qui parcours tout l’écran.
La première retransmission de Baird se faisait sur un écran avec trente lignes. Tout juste de quoi discerner un visage humain, des formes géométriques étant elles plus adaptées au visionnage.
Les ingénieurs vont dès lors améliorer la qualité de l’image en multipliant les lignes d’affichage selon un principe tout simple : plus il y a de lignes, et plus l’image sera nette et précise.
Un exemple de la résolution en trente lignes. Le visage est celui d'un des assistants de Baird.
En 1935, les premiers essais de télévision en France se font en 60 lignes, chiffre multiplié par 3 quelques mois plus tard. En 1944, quand la Résistance reprend le contrôle de la télédiffusion française sous contrôle nazi jusque là, elle diffuse en 441 et en 819 lignes des émissions alors reçues dans les services publics et les hôpitaux parisiens. Cette dernière norme de diffusion est choisie et confirmée par le nouveau ministre de l’information de l’époque, un certain François Mitterrand.
Le reste de l’ Europe choisit quand à lui une norme de diffusion de « seulement » 625 lignes.
Cela semble donner une image de moindre qualité, mais en fait à ce niveau l’oeil humain est à peine capable de faire la différence. Ce choix européen de 625 lignes constitue en fait un choix stratégique : la transmission du son est aisée car elle ne demande sur la surface des ondes qu’une faible bande passante.
Les images, en revanche, sont bien plus gourmandes en bande passante. De plus, elles ne peuvent être transmises sur les fréquences audios : le son nécessite une transmission sur les ondes moyennes ou en Haute Fréquence.
Ainsi, la radio AM se diffuse autour du globe entre 100m et 1km de fréquence. La radio FM, supérieure en qualité à l’ AM et capable de stéréo, est transmise en Très Haute Fréquence, de 10m à 1 m de fréquence, la gamme des ondes métriques.
L’image, elle, nécessite les Super Hautes Fréquences, capables de transmettre les données nécessaires sur leurs ondes centimétriques ( de 10 à 1 cm ).
Contrairement aux Hautes Fréquences, qui rebondissent sur la ionosphère et qui peuvent être captées bien au delà de l’horizon, les ondes métriques et centimétriques nécessitent d’avoir la vue sur l’émetteur, qui a donc l’horizon pour limites. Cela nécessite, pour la bonne transmission du signal, d’installer plus d’émetteurs et de réémetteurs afin de couvrir le territoire. Et encore, sans tenir compte des accidents du terrain, les ondes ne pouvant franchir les massifs montagneux, obligeant les diffuseurs à multiplier les réémetteurs dans les vallées.
Une diffusion en 819 lignes « consomme » donc une très large bande passante, ne laissant de place que pour un programme. Avec 625 lignes, sur une gamme de fréquence légèrement différente, les autres pays libèrent de la place pour trois ou quatre, voir cinq stations télévisées différentes.
La France a fait le choix délibéré du 819 lignes pour occuper la place et justifier par la technique d’une politique de monopole d’ Etat quand à la diffusion des images présentes et à venir. Le pouvoir gaullien de l’époque a une conception claire de la chose : radios et télévisions ne doivent diffuser que la Parole Gouvernementale. Il est dès lors inutile de penser à une seconde chaîne, qui ferait doublon car il est hors de question de laisser la Contestation s’exprimer et menacer la Paix des Ménages.
Cette vision très politique change avec les personnes. Une nouvelle génération de Gaullistes plus prosaïques comprend vite l’impasse technologique et politique dans laquelle la RTF était enfermée. Pompidou donne l’ordre de casser la monolithique ORTF en sept sociétés étatiques qui entreraient en concurrence avec elle-mêmes. La encore, pas question de laisser la Contestation s’exprimer trop facilement après Mai 68.
Techniquement, l’ ORTF avait déjà commencé sa mue en investissant les gammes de fréquences disponibles pour la diffusion en 625 lignes. Son but n’était pas de favoriser la concurrence de façon directe, mais de pouvoir passer au stade supérieur de la diffusion d’images : la couleur.
Le 819 lignes permettait en théorie la diffusion en couleur. Mais cela rendait impossible tout échange de signal avec les pays étrangers en 625 lignes couleurs à cause d’une incompatibilité technique. Cette fréquence, attribuée à la première chaîne de l’ ORTF, TF 1 en hérite et l’utilisera jusqu’à la fermeture des derniers émetteurs 819 lignes en 1983.
Etant passé à la norme de diffusion en 625 lignes pour sa seconde chaîne ORTF ( qui deviendra Antenne 2 ), l’ Etat pouvait réfléchir quand au procédé technique à utiliser pour diffuser la couleur.
Diffuser en noir et blanc était simple. L’écran pouvait rendre toutes les nuances de gris, bien au delà de 50 par ailleurs…
" Je me demande s'il y a quelque chose de bien sur un canal quelconque. Rien... Rien que de la télévision !"
Mais diffuser en couleur posait des problèmes, car dans la nature, il y en a des millions.
Heureusement, la totalité de la gamme chromatique peut être réduite à trois couleurs fondamentales. Le rouge, le bleu et le jaune.
Avec ces trois couleurs, on peut recomposer toutes les autres, ce qui simplifie la technique.
Mais la rétine humaine est elle composée de cellules sensibles au rouge, au bleu et au vert ! Ne me demandez pas pourquoi, sans doute une bizarrerie de l’évolution. Le cerveau recompose les autres couleurs en les additionnant ou en les soustrayant ( selon l’intensité perçue par les récepteurs ) pour redonner la bonne couleur à l’objet ou l’image.
C’est la raison pour laquelle les ingénieurs ont copié le fonctionnement de l’oeil humain, et doté les tubes cathodiques de canons à électrons bombardant la surface interne du tube de rouge, de bleu et de vert afin de recomposer les couleurs !
Il restait toutefois le problème de la transmission de l’information « couleur », très demandeuse en bande passante aussi.
Pour se faire, il existe en gros deux techniques. Faire porter l’information de la couleur par l’ amplitude de modulation, ou par l’ amplitude de fréquence. Les deux techniques ont leurs avantages et leurs inconvénients.
Par la modulation on peut porter plus d’information, mais au prix de la stabilité de l’ensemble. La fréquence porte moins d’information mais elle est plus stable.
Les ingénieurs américains vont privilégier l’amplitude de modulation et donner naissance en 1953 au NTSC, le National Technical System Comitee qui conquiert l’Amérique du nord, une large part de l’ Amérique du Sud et le Japon.
Rapidement, les critiques pleuvent pourtant et l’acronyme gagne vite son surnom de « Never Twice Same Color » qui est resté dans les mémoires : l’amplitude de modulation doit souvent être corrigée par le spectateur via un sélecteur en façade du poste, à moins qu’il n’apprécie l’art moderne et les visages oranges ou gris. Le passage au numérique viendra à bout de ce défaut inhérent à ce choix.
Instruit de l’expérience américaine, Henri de France choisit lui de travailler sur l’amplitude de fréquence et donne naissance en 1967 au SECAM, le Séquentiel Couleur A Memoire. Le SECAM n’est pas affecté par les problèmes du NTSC mais il rend la stéréo impossible par nature, sauf vers la fin quand le procédé NICAM permet de pallier à ce manque.
Techniquement, les ingénieurs louent le SECAM et estiment ce procédé comme étant le meilleur procédé possible.
Malheureusement, il est français : le gouvernement freine des quatre fers son expansion et n’encourage que mollement les industriels à produire du matériel émetteur et récepteur. De plus, il n’aide pas en ralentissant la construction d’émetteurs couleurs pour des raisons d’économies, n’incitant donc pas les français à investir dans de nouveaux appareils pour remplacer les postes noir et blanc. Les entreprises françaises de fabrication de téléviseurs ne vont donc pas pouvoir conquérir de nouveaux marchés et elles vont se faire dévorer dans les années 80 et 90 par les fabricants américains, allemands et asiatiques.
En 1960, le Japon passe à la couleur en usant du NTSC. Le SECAM est regardé comme une alternative intéressante mais le gouvernement met en place un embargo sur l’importation du matériel japonais pour protéger l’industrie locale : c’est la fin des négociations et le pays restera au NTSC.
Etant une technologie qui ne doit rien aux USA, le SECAM est adopté par l’ URSS et l’ Europe de l’ Est, de même que par une large part de l’ Afrique francophone. La politique a des raisons que la raison ignore. Le tropisme oriental de De Gaulle joue aussi son rôle.
C’est ce qui va perdre au final ce système : adopté massivement par des pays qui ne jurent que par le monopole de production et de diffusion, le SECAM ne peut faire face à l’invasion des appareils de production en PAL, un système allemand dérivé du NTSC qui en corrige les principaux défauts. Les producteurs audiovisuels se fournissent massivement en matériel et en émetteurs PAL au détriment du matériel SECAM. Films et séries sont produites massivement en PAL, ce qui tue le marché SECAM.
Dans certaines régions du monde, le SECAM a pu s'imposer finalement...
Considéré comme un bon compromis entre le NTSC et le SECAM, et très proche techniquement du premier ce qui facilite la compatibilité, le PAL s’impose dans la diffusion hertzienne mais aussi dans le marché naissant de la vidéo et ensuite du jeu vidéo : le codage couleur de vos vieilles VHS, ainsi que de vos Blu-Ray les plus récents est transmis à l’écran en PAL aujourd’hui encore.
Quand vient, en France, le passage au numérique, le CSA ne peut que constater que le PAL règne en maître : le monde anglophone ( à l’exception des USA ), hispanophone, lusophone et la quasi totalité de l’ Asie, Chine incluse, produit et diffuse en PAL.
Afin de favoriser les échanges et permettre aux productions françaises de s’exporter plus facilement, le SECAM est abandonné lors du lancement de la TNT : vos images actuelles sont codées et transmises en PAL et non plus en SECAM.
( à suivre )
17 réactions à cet article
Ajouter une réaction
Pour réagir, identifiez-vous avec votre login / mot de passe, en haut à droite de cette page
Si vous n'avez pas de login / mot de passe, vous devez vous inscrire ici.
FAIRE UN DON