dvi est une interface vidéo numérique. Son nom complet en anglais est Digital Visual Interface. Il s'agit d'une norme d'interface vidéo conçue pour transmettre des vidéos numériques non compressées ; elle est largement utilisée dans les appareils d'affichage tels que les écrans LCD et les projecteurs numériques. par le « Digital Display Working Group », un forum composé de plusieurs grands fabricants de l'industrie de l'affichage ; l'interface DVI peut envoyer des données vidéo numériques non compressées au périphérique d'affichage ;
L'environnement d'exploitation de ce tutoriel : système Windows 10, ordinateur Dell G3.
Quelle est l'interface du DVI ?
Interface vidéo numérique.
Le nom anglais complet de DVI est Digital Visual Interface et le nom chinois est « Digital Video Interface ». Il s'agit d'une norme d'interface vidéo conçue pour transmettre de la vidéo numérique non compressée. Largement utilisé dans les appareils d'affichage tels que les écrans LCD et les projecteurs numériques. Cette norme a été développée par le Digital Display Working Group (DDWG), un forum composé de plusieurs fabricants leaders du secteur de l'affichage. L'interface DVI peut envoyer des données vidéo numériques non compressées au périphérique d'affichage. Cette spécification est partiellement compatible avec la norme HDMI.
Le protocole de l'interface DVI fait que les signaux de luminosité et de couleur des pixels sont envoyés de la source de signal (telle que la carte graphique) au dispositif d'affichage sous forme binaire. Lorsque le périphérique d'affichage fonctionne à sa résolution native, il lui suffit de lire les données numériques de chaque pixel du DVI et de les appliquer à la position correcte. Par rapport aux données de pixels envoyées en mode analogique, qui seront affectées par les données de pixels adjacents, le bruit électromagnétique et d'autres effets de perte analogiques, dans cette méthode, chaque pixel du registre de sortie correspond directement à chaque pixel de l'écran. Cela garantit une qualité d’image de base.
Les normes précédentes qui envoyaient des données vidéo de manière analogique, telles que VGA, étaient conçues pour les appareils d'affichage basés sur des tubes cathodiques (tubes cathodiques). Les unités envoyées étaient des lignes de balayage horizontales, donc les signaux discrets numérisés n'étaient pas utilisés. Le signal vidéo envoyé par analogique sert à modifier la tension de sortie pour contrôler la densité du faisceau d'électrons pendant le balayage, et ainsi exprimer la luminosité et la chrominance.
Cependant, lorsque les appareils d'affichage numérique tels que les écrans LCD deviennent pratiques, lorsque les signaux sont envoyés à des appareils d'affichage numérique sous forme analogique, l'appareil doit échantillonner les signaux de la ligne de balayage à une fréquence spécifique, puis les reconvertir au format numérique. S'il y a une erreur d'échantillonnage, la qualité de l'image se détériorera, mais il n'y a pas de différence évidente entre l'image DVI réelle et la qualité de l'image de sortie D-SUB inférieure à 19 pouces. Et lorsque la source du signal est un ordinateur, le processus par lequel la carte graphique convertit le signal d'image numérique en une sortie analogique, puis le reconvertit en image numérique par le moniteur LCD est évidemment redondant. Par conséquent, le DVI est également largement utilisé à mesure que les moniteurs LCD deviennent courants.
Pour plus de connaissances connexes, veuillez visiter la rubrique FAQ !
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!