Quentin
8.12.2007, 18:24:03
Cześć

Mam pewne pytanko. Czym różni się przejście typu DVI-I od przejścia D-Sub (przesyłany sygnał ma postać analogową), pomijając fakt, że DVI jest 24-pinowym złączem a D-Sub 15-pinowym ?
sztosz
9.12.2007, 16:31:10
DVI-I to sygnał cyfrowy. D-SUB to sygnał analogowy. Nie wiem czego tak na prawde chcesz sie dowiedzieć. Może zainteresuje cię fakt że mając podłączonego LCD'eka przez D-SUB sygnał najpierw karta zamienia na analogowy, a poźniej monitor spowrotem na cyfrowy (co jest rozwiazaniem do dupy mogacym sprawiac problemy w postaci przekłamań czy ma być "0" czy "1"). Po resztę odsyłam np. do wikipedii bo pytanie jest z cyklu "Czym sie różni wiedelec od łyżki?"*

____________
*Co wcale nie oznacza że głupie a jedynie nie dające wskazówek jak dokładnej odpowiedzi się spodziedziewasz po tak banalnym na pozór pytaniu.
kwiateusz
9.12.2007, 17:17:09
ale wg wiki DVI-I przesyła sygnał i analogowy i cyfrowy, wiec zapewne dużej różnicy w jakości nie ma
sztosz
9.12.2007, 21:42:06
Tak, ale monitory LCD odbierają sygnał cyfrowy i do takiego zostały zaprojektowane, ponadto z tego co pamiętam sygnał analogowy w DVI-I jest po to aby można było stosować przejściówki DVI-I -> D-SUB kiedy nie posiada się monitora z wejściem DVI-I a jedynie D-SUB. Kolejna sprawa to to, że w przeważającej części kart graficznych wyjście DVI-I jest lepszej jakości od D-SUB. I co wydaje się absurdalne, lepiej podłączać monitory z wejściem D-SUB tak DVI-I -> Przejściówka -> Kabel D-SUB, niż bezpośrednio do D-SUB na karcie. Widać to gorszą jakość przy dużych rozdzielczościach i wysokich częstotliwościach odświeżania ekranu.