mercredi 7 mars 2012

Histoire des premiers écrans aux écrans tactiles

Un écran !  Aujourd’hui, sans doute faudrait-il être Robinson Crusoé pour n’en avoir jamais vu… Mais qui connait vraiment l’histoire de cet objet présent partout et sous bien des formes différentes, de la télévision aux tablettes numériques en passant par les ordinateurs et les smartphones !  Périphériques de sortie vidéo d’un ordinateur, ou son ainé : l’écran de télévision, et maintenant tactile, obéissant au doigt et à l’œil…  remontons à leur source cathodique !

La naissance des premiers écrans

Dès 1880, ce sont plusieurs chercheurs : Constantin Senlecq en France, Adriano de Paiva à Porto George R. Carey à Boston, qui, à peu près dans le même temps, découvrent que l’on pourrait diffuser une image en la projetant sur une surface photosensible composée de points de sélénium du fait des propriétés photoélectriques de ce matériau. Ce principe sera la base de tout système de transmission d’images animées.
En 1884, Paul Nipkow, ingénieur allemand, invente « le disque de Nipkow », dispositif à base de disque en mouvement, précurseur de la télévision mécanique. De son côté, Hertz découvre en 1886 la photoélectricité : une plaque de métal soumise à une lumière émet des électrons. L’ensemble de ces découvertes concourent à la naissance des écrans devant lesquels nous passons de plus en plus de temps chaque jour !

Le tube cathodique

Entre temps, en 1892, Karl Ferdinand Braun invente le tube cathodique, ou CRT pour Cathode Ray Tube. Le premier écran à tube cathodique fonctionnait à partir d’une diode à cathode froide. La cathode, qui donne son nom au tube cathodique, est la source de production des électrons, c’est-à-dire une électrode métallique chargée négativement, d’une ou plusieurs anodes. Le premier tube utilisant une cathode chaude revient à J. B. Johnson et H. W. Weinhart. Il sera commercialisé à partir de 1922 par la société Western Electric.
Le tube cathodique se compose d’un filament chauffé, de cathodes et d’anodes soumises à une différence de tension. C’est cette différence de tension qui crée un fort champ électrique capable d’arracher les électrons de la cathode et de les projeter à très grande vitesse (comme un canon !) vers l’écran, sous la forme d’un faisceau extrêmement fin. Un vide d’air occupe l’espace entre le « canon à électrons » et l’écran pour que rien ne freine leur trajectoire. C’est un champ magnétique qui est chargé de dévier les électrons de gauche à droite et de bas en haut vers l’écran. Autrement dit, deux déflecteurs, bobines X et Y mises sous tension, dévient le flux horizontalement et verticalement. C’est ce balayage qui se fait de gauche à droite puis vers le bas une fois arrivé en bout de ligne, qui fait croire à l’œil humain que seuls certains points éclairent l’écran pour afficher l’image.
A l’origine, les moniteurs d’ordinateurs sont des tubes cathodiques. Ils le sont restés pour la plupart des ordinateurs jusqu’aux années 2000. Pour autant, il faut se souvenir que même si les tubes cathodiques existaient déjà, les  tout premiers ordinateurs n’étaient pas pourvus d’écrans ! Il faudra attendre 1976, à l’initiative de Steve Jobs la sortie de « l’Apple I », qui fut le premier ordinateur que l’on pouvait équiper d’un clavier et d’un écran… « ce qui le distinguait des machines de l’époque programmées pour fonctionner avec des interrupteurs et des lumières clignotantes pour l’affichage ».

L’écran plasma

Bien que les écrans cathodiques aient survécu jusque vers les années 2000, la technologie de l’écran plasma est apparue dès 1964. Pour fonctionner, l’écran plasma a besoin d’un courant électrique qui illumine un mélange de gaz constitué à 90% d’argon et 10% de xénon. Ces gaz sont inoffensifs. Le courant électrique les transforme en plasma. La lumière ainsi produite est ultraviolette, invisible pour l’humain. Des luminophores rouges, verts et bleus répartis sur les cellules de l’écran, la convertissent en lumière colorée visible sous forme de pixels.
Le principe du plasma permet de réaliser des écrans de grande dimension, et surtout ayant besoin de très peu de profondeur, à peine quelques centimètres, contrairement aux tubes cathodiques. De plus, il offre de très bonnes valeurs de contrastes y compris sous un angle de 160 degrés et génèrent un large spectre de couleurs.
On doit cette technologie à deux professeurs de l’université de l’Illinois, Donald L. Bitzer et H. Gene Slottow qui souhaitaient développer une formule d’enseignement assistée par ordinateur. Leur écran plasma était monochrome. Si l’écran plasma n’était pas à l’époque en mesure de rivaliser avec les tubes cathodiques bien implantés sur le marché des écrans, sa grande taille lui permet par contre de trouver place dans les grands espaces : gares, salles de Bourse et certains milieux industriels.
En 1992, Fujitsu reprend les travaux de Donald L. Bitzer et présente le premier écran plasma couleur. Il sera mis sur le marché en 1997 sous la marque Pioneer. Un effort est fait sur la qualité de l’image pour supprimer les temps de latence dans l’affichage et optimiser l’intensité des contrastes. La technologie de l’écran plasma est particulièrement minutieuse, elle s’apparente à la microélectronique, ce qui explique son prix et une implantation quelque peu élitiste.

L’écran à cristaux liquides

C’est également en 1964 que George Harry Heilmeier, ingénieur et homme d’affaires américain, en découvrant dans les cristaux liquides de nouvelles propriétés électro-optiques, invente l’affichage à cristaux liquides. Il faudra plusieurs années pour produire des écrans à cristaux liquides stables. L’écran à cristaux liquides utilise la polarisation de la lumière via des filtres polarisants et par la biréfringence* de certains cristaux liquides. L’écran LCD en tant que tel n’émet pas de lumière, il doit la recevoir.
Ces premiers affichages, LCD en anglais, ont été présentés en 1971. En 1984, Thomson développe dans son laboratoire le premier écran à cristaux liquides en couleur. Il faudra attendre de nouveau quelques années pour que cette technologie s’implante. En effet, c’est dans les années 90 que l’on commencera à voir équiper des téléphones portables, des ordinateurs, des téléviseurs, mais aussi des ordinateurs de bord dans les avions… mais avec des écrans LCD noir et blanc. Les écrans couleurs arriveront sur ces marchés dans les années 2000.

Les écrans tactiles

Contrairement à ce que l’on pourrait imaginer en utilisant aujourd’hui nos tablettes numériques, le premier écran tactile n’est pas le fruit d’une invention récente… il a 40 ans ! Il a été inventé en 1972, le CIGREF avait à peine deux ans
Le premier écran tactile a été conçu à l’origine au sein de l’Université de l’Illinois comme système d’éducation assistée par ordinateur. IBM présente donc en 1972 le « PLATO IV », ordinateur équipé d’un dispositif optique de reconnaissance du toucher de l’écran. Des leds infrarouges réparties autour de l’écran permettent de détecter la présence du doigt. Les étudiants peuvent ainsi faire des exercices en touchant l’écran du doigt pour indiquer la bonne réponse.
Ce premier écran tactile est encore loin des écrans de smartphones et tablettes numériques actuels ! Il s’agit en effet d’un écran plasma orange mono point, c’est-à-dire sensible à une seule pression à la fois. Un système multipoints sera développé douze ans plus tard, en 1984 par les laboratoires Bell. Ce sera un écran CRT recouvert d’une surface tactile capacitive, capable de suivre plusieurs doigts.
Qu’est-ce qu’un écran tactile ?
Comme tout écran informatique, l’écran tactile est un périphérique. Il se distingue en cumulant les fonctions d’affichage d’un écran traditionnel et le pointage de la souris informatique. Pour répondre à cette double mission plusieurs technologies seront développées, notamment en fonction des usages : résistive, capacitive, infrarouge.
Dans la technologie dite « résistive », la plus économique, l’écran est constitué de plusieurs couches : deux plaques, l’une en plastique, l’autre en verre, toutes deux conductrices, séparées par une couche d’isolant. Elles sont encadrées par des barres horizontales et verticales. L’ensemble est recouvert par un produit permettant d’augmenter la dureté et la résistance de la surface de l’écran. En touchant l’écran les deux films conducteurs se mettent en contact ce qui génère un champ électrique. Les barres horizontales et verticales mesurent cette tension pour distinguer le point de contact. L’information ainsi recueillie est interprétée par le logiciel afin d’exécuter la demande de l’utilisateur.
Aujourd’hui, cette technologie a tendance à céder la place à la technologie « capacitive », plus résistante dans le temps et plus agréable pour l’utilisateur, notamment sur le plan de la luminosité de l’écran. La plaque de verre du moniteur est recouverte d’une substance qui accumule les charges. La pression du doigt absorbe le courant de fuite de la dalle de verre, ce qui crée un manque mesurable. Chaque angle de la plaque est muni d’un capteur qui situe précisément le point touché. Smartphones et tablettes tactiles utilisent cette technologie. Dans les lieux publics par exemple, les bornes tactiles utilisent la technologie capacitive dite « projetée », où il n’est plus nécessaire de toucher la plaque de verre pour créer le manque de charge. Celle-ci peut être recouverte d’un écran blindé lui assurant une forte résistance.
Une troisième technologie, celle des dalles tactiles à infrarouge, très résistante, n’est pas un véritable écran. C’est un cadre équipé d’émetteurs et de récepteurs infrarouges. La dalle de verre n’a pas de fonction tactile. Le point d’impact, lorsque l’on touche la dalle, interrompt les faisceaux lumineux générés par les émetteurs-récepteurs infrarouges du cadre. Ce point est ainsi localisé et transmis avant même que le doigt n’ait physiquement touché la dalle.

Unités de mesure des écrans

Le principe de mesure d’un écran se fait à partir de sa diagonale. L’unité de mesure internationale de cette diagonale est le « pouce » soit 2,54cm.
Quelques tailles standards d’écrans, sachant que dans le commerce, elles restent approximatives :
  • 14 pouces : diagonale de 36 cm
  • 15 pouces : diagonale de 38 cm
  • 17 pouces : diagonale de 43 cm
  • 19 pouces : diagonale de 48 cm
  • 21 pouces : diagonale de 53 cm
La définition de l’écran est un autre paramètre à ne pas confondre avec la taille de l’écran. Deux écrans de même taille peuvent avoir une définition différente. En effet, la définition est une valeur qualitative. C’est le nombre de pixels que l’écran est capable d’afficher sur sa largeur et sa hauteur. Plus le nombre de pixels est élevé, meilleure est la qualité de l’image ! Les définitions généralement rencontrées : 800 x 600 ; 1024 x 768 ; 1280 x 1024 ; 1600 x 1200.
Le pas de masque
Un autre critère entre dans la qualité de définition de l’image affichée sur un écran, c’est le « pas de masque », dot pitch en anglais. Il s’exprime en millimètres pour indiquer la distance entre deux luminophores. Plus Le pas de masque est faible plus le nombre de pixels sera élevé, donc meilleure sera la qualité de l’image. Cette mesure se calcule généralement sur la diagonale de l’écran et peut varier de 0,28mm jusqu’à 0,22mm pour les écrans de meilleur qualité.
______________
* la biréfringence est la propriété physique d’un matériau dans lequel la lumière se propage de façon anisotrope. Dans un milieu biréfringent, l’indice de réfraction n’est pas unique, il dépend des directions de propagation et de polarisation du rayon lumineux (Source Wikipedia).

http://www.histoire-cigref.org/blog/histoire-des-premiers-ecrans-aux-ecrans-tactiles/

Aucun commentaire:

Enregistrer un commentaire