Définition de la carte vidéo
Une carte vidéo, également appelée carte graphique (entre autres noms), est chargée de traiter les données provenant du processeur principal (CPU ou UCP) et de les convertir en informations pouvant être représentées sur des appareils tels que des moniteurs et des téléviseurs. Il convient de mentionner que ce composant peut avoir différentes architectures, bien qu’elles soient communément appelées de la même manière, même si l’on parle d’une puce vidéo intégrée dans une carte mère ; dans ce dernier cas, il est plus correct de dire GPU (Graphics Processing Unit).
Depuis leur conception, les cartes graphiques comprennent un certain nombre de caractéristiques et de fonctions, comme la possibilité de se brancher sur la télévision ou de capturer des séquences vidéo à partir d’un appareil externe. Il est important de noter que ce composant ne se trouve pas exclusivement dans les ordinateurs d’aujourd’hui , mais qu’il existe depuis plus de quatre décennies et qu’il est maintenant un élément indispensable des consoles de jeux vidéo , tant portables que faites maison.
Sa création remonte à la fin des années 1960, lorsque l’utilisation d’une imprimante pour visualiser l’activité de l’ordinateur a été abandonnée et que les écrans ont commencé à être utilisés. Au début, les résolutions étaient très faibles par rapport à la haute définition déjà connue. C’est grâce aux travaux de recherche et développement de Motorola que les caractéristiques des puces sont devenues plus complexes et que ses produits ont donné lieu à la standardisation du nom des cartes vidéo.
Au fur et à mesure que les ordinateurs à usage personnel et les premières consoles de jeux vidéo devenaient populaires, il a été décidé d’intégrer les puces graphiques dans les cartes mères , ce qui a permis de réduire considérablement les coûts de fabrication. À première vue, cela présente un inconvénient évident : l’impossibilité de mettre à niveau les équipements ; or, il s’agissait de systèmes fermés , qui ont été construits en prenant en considération chacun de leurs composants, de sorte que le produit final était cohérent et offrait les meilleures performances possibles.
Il faut noter que c’est encore le cas aujourd’hui avec les consoles, et c’est grâce à ce type de conception inaltérable que les développeurs obtiennent après quelques années des résultats bien supérieurs aux premières expériences ; cela n’est pas possible sur un PC, aussi puissant soit-il, car une société de logiciels ne peut pas envisager toutes les combinaisons possibles des machines de ses consommateurs. En outre, l’architecture d’un ordinateur présente des points faibles précisément parce que ses parties sont interchangeables , le plus notable étant la distance entre la mémoire , la carte graphique et le processeur principal.
Au début des années 80, IBM a basé sa conception sur l’inoubliable Apple II et a rendu populaire la carte vidéo interchangeable, bien que dans son cas elle n’offrait que la possibilité d’afficher des caractères sur l’écran . C’était un adaptateur avec la modeste quantité de 4KB de mémoire (actuellement ils peuvent avoir 2GB, 512 fois plus) et était utilisé avec un moniteur monochrome. C’était le point de départ, et les améliorations ne se sont pas fait attendre.
Quelque temps plus tard, IBM a normalisé le terme VGA , qui désigne une technologie de cartes vidéo capables de fournir une résolution de 640 pixels de large par 480 pixels de haut, ainsi que les moniteurs pouvant représenter ces images et le connecteur nécessaire à leur utilisation. Après le travail de plusieurs sociétés se consacrant exclusivement au graphisme, Super VGA (également connu sous le nom de SVGA ) a vu le jour, augmentant la définition disponible (à 1024 x 768) ainsi que le nombre de couleurs pouvant être représentées simultanément (de 16 couleurs en 640 x 480, il est passé à 256 en 1024 x 768).