Définition du moniteur
Monitor est un terme qui peut venir du latin ou de l’anglais, et dans les deux cas s’écrit de la même façon qu’en espagnol. Son utilisation dans notre langue est donc très variée. D’une part, il peut s’agir de la personne qui guide l’apprentissage culturel ou sportif ; par exemple : «Il y a un enfant qui est battu : veuillez appeler l’instructeur» , «L’instructeur de l’atelier nous a enseigné des techniques très nouvelles pour créer ce genre de travail» .
D’autres utilisations du concept liées à des métiers ou des professions nous permettent de nommer l’assistant des professeurs d’éducation physique , l’esclave qui accompagnait son maître en tant qu’assistant et le subordonné qui collaborait avec le locuteur romain dans le forum.
Un moniteur est aussi un vieux navire de guerre qui naviguait presque submergé et avait un faible tirant d’eau. Ces bateaux ont été très populaires jusqu’au 19ème siècle , où leur utilisation a commencé à décliner.
Enfin, le moniteur peut être l’écran qui permet d’observer les paramètres d’un patient connecté à un dispositif médical . Les battements du cœur peuvent être reflétés graphiquement sur le moniteur pour contrôler le rythme cardiaque.
La signification la plus courante de la notion est celle qui désigne le dispositif capable de transmettre des images prises par une caméra vidéo ou une autre source . Il peut s’agir d’un périphérique de sortie qui affiche les résultats du traitement par un ordinateur .
.
L’évolution des moniteurs au cours des deux dernières décennies a été considérable, au point d’offrir une clarté d’image comparable à celle d’une feuille imprimée. Lors de la classification des moniteurs en catégories, il est important de faire la différence entre les technologies (comment elles sont fabriquées) et les normes (à quoi elles servent).
En ce qui concerne la technologie utilisée pour fabriquer les moniteurs, la plus connue est le tube cathodique CRT ( ), développé en 1987 et toujours utilisé aujourd’hui, malgré l’apparition des LCD, LED et OLED, qui offrent des économies d’énergie considérables, une clarté d’image infiniment supérieure et sont plus confortables à installer et à manipuler, car ils sont beaucoup plus fins et plus légers.
Voyons un bref aperçu de l’évolution de leurs normes, avec IBM toujours au premier plan :
* MDA (Monochrome Display Adapter) : ce sont les moniteurs monochromes. Ils sont apparus en 1981, en même temps que la carte CGA, produite par IBM. Il convient de mentionner que ces écrans ne permettaient pas la représentation d’images, mais montraient exclusivement du texte, qui pouvait être mis en italique, en gras et souligné. Fait curieux, la couleur verte caractéristique de sa police de caractères était utilisée pour produire une irritation des yeux ;
* CGA (Color Graphics Adapter) : présentés sur le marché la même année que le MDA, ils ont été les premiers moniteurs à supporter les graphiques en couleur . Leur principal objectif, contrairement aux premiers, était d’offrir une meilleure expérience de jeu. Pour un traitement supplémentaire, leurs cartes graphiques contenaient 16 Ko, soit quatre fois plus de mémoire que celles utilisées par les MDA ;
* EGA (Enhanced Graphics Adapter) : en 1984, IBM a introduit cette nouvelle norme d’affichage graphique en faisant référence à ses «améliorations» dans le nom lui-même (le terme «enhanced» signifie amélioré). Ils avaient quatre fois la mémoire du CGA et supportaient une gamme de couleurs plus large ;
* VGA (Video Graphics Array) : sa sortie en 1987 a marqué un avant et un après, et a lentement laissé ses prédécesseurs dans l’oubli. Les cartes VGA normales avaient une mémoire vidéo de 256 Ko , et ces moniteurs étaient capables d’afficher jusqu’à 256 couleurs à leur résolution minimale (320 x 200 pixels), ou une netteté plus élevée en mode texte à leur résolution maximale (720 x 400). Le point médian, avec le populaire 640 x 480, texte et graphiques combinés en 16 couleurs ;
* SVGA ou Super VGA : ont été lancés en 1989 dans différentes versions dans le but de dépasser les résolutions possibles en VGA (à partir de 800 x 600). Les premières cartes graphiques d’ATI et de NVIDIA semblent accompagner la naissance d’un standard qui connaîtra un grand succès pendant quelques années.