HDMI oder VGA

Bolli2

Lieutenant
Registriert
Okt. 2011
Beiträge
919
Hallo
ich habe meinen Monitor zur Zeit über VGA angeschlossen,er hat aber auch einen HDMI anschuß

ich kann diesen aber nur über einen DVI Adapter betreiben,
der dann einen HDMI Anschluß besitzt
Frage liefert der DVI Anschluß dann besseres Bild als der VGA ?

Welchen DVI Adapter muss ich kaufen ? gibt es da mehrere Ausführungen
 

Anhänge

  • IMG_20210607_181328.jpg
    IMG_20210607_181328.jpg
    1,4 MB · Aufrufe: 297
  • IMG_20210424_133555.jpg
    IMG_20210424_133555.jpg
    1,7 MB · Aufrufe: 292
Alles ist besser als VGA.
 
  • Gefällt mir
Reaktionen: Bolli2, Bonanca, BigMidiTower und 16 andere
Digital ist im Zweifel Analog vorzuziehen.
Je nach dem wie gut das VGA Bild ist und wie empfindlich du auf die Unterschiede reagierst kann sich also ein DVI-HDMI Adapter/Kabel für dich lohnen oder aber auch nicht. Versuchen würde ich es.
 
  • Gefällt mir
Reaktionen: Bolli2
DVI,HDMI oder DiplayPort liefern digitale Signale und dem alten analogen VGA Signal immer vorzuziehen.

Ja, das Bild wird je nach Monitor besser, wenn du nicht den alten analogen Anschluss nutzt
 
  • Gefällt mir
Reaktionen: Bolli2
Das billigste DVI-HDMI Kabel reicht völlig. Die 19 Leitungen werden 1:1 durchgeleitet.
 
  • Gefällt mir
Reaktionen: Bolli2, madmax2010 und Maike23
Kommt auf die Auflösung und Qualität der monitorelektronik drauf an, nicht immer hat man nen sichtbaren unterschied.
 
  • Gefällt mir
Reaktionen: Bolli2
Fujiyama schrieb:
Kommt auf die Auflösung und Qualität der monitorelektronik drauf an
Der ist FullHD... da brauchts schon sehr gute Kabel und Komponenten dass das Bild halbwegs gut aussieht... ich würd da auf jeden Fall auf DVI/HDMI wechseln.
 
  • Gefällt mir
Reaktionen: Bolli2 und Physikbuddha
V(erwaschene) A(lte) G(rafikschnittstelle)

Bei anderen Vergessene .

Den Unterschied zwischen digitalen Signalen die verlustfrei sind und Analogen welche je nach Schirmung und Kabellänge sich verändern solltest doch schon kennen
 
  • Gefällt mir
Reaktionen: Bolli2
xxMuahdibxx schrieb:
Den Unterschied zwischen digitalen Signalen die verlustfrei sind und Analogen welche je nach Schirmung und Kabellänge sich verändern solltest doch schon kennen
...Auf physikalischer Ebene sind ALLES analoge Signale.
 
  • Gefällt mir
Reaktionen: Bolli2
Die Verluste bei der Wandlung von digital zu analog und anschliessend von analog zu digital sind das weit grössere Problem als das Kabel an sich.
Dazu kommt noch, dass die heutzutage verbauten Wandler qualitativ nicht an die von vor 15Jahren herankommen (braucht eben kaum noch einer).
 
  • Gefällt mir
Reaktionen: Bolli2
@T00L und was bringt uns eine physikalische Ebene wenn die digitalen Signalen... Sich stark unterscheiden...dann als 0 oder 1 interpretiert werden

Alle weiteren Eigenschaften der Datencodierung und ihrer Eigenschaften.
https://de.wikipedia.org/wiki/8b10b-Code

Das mit dem wandeln kommt noch dazu ... Die Grafikkarte berechnet alles digital
 
  • Gefällt mir
Reaktionen: Bolli2
Ich danke euch ,werde mal schauen ein Adapter denke ich macht es auch,HDMI kabel habe ich da
der Monitor ist 8 wochen alt
 
T00L schrieb:
...Auf physikalischer Ebene sind ALLES analoge Signale.
Im Falle einer digitalen Schnittstelle werden diese physikalisch analogen Signale aber auf logischer Ebene als diskrete Werte betrachtet was einen gewaltigen Unterschied für die Signalqualität macht. Bei einem analogen also kontinuierlichen Signal merkst du jede Störung, bei einem diskreten erst dann wenn die Störung große genug ist das die nächste Stufe erkannt wird (und selbst dann kann man noch Fehlerkorrektur einbauen)

VGA war sinnvoll als die Monitore noch analoge Ausgabegeräte waren (CRTs). Aber TFTs (und OLED usw.) arbeiten selbst digital (vor allem mit diskreten Pixeln, etwas das VGA nicht kennt) und müssen das VGA Signal wieder digitalisieren um es verarbeiten zu können.
 
  • Gefällt mir
Reaktionen: Bolli2 und xxMuahdibxx
Bolli2 schrieb:
Hallo
ich habe meinen Monitor zur Zeit über VGA angeschlossen,er hat aber auch einen HDMI anschuß
Welcher Monitor ist denn über VGA angeschlossen? Bitte nicht so sparsam mit den Angaben sein.
 
  • Gefällt mir
Reaktionen: Bolli2
Bolli2 schrieb:
Hi
Es ist ein

R240y
Danke!
Ergänzung ()

bisy schrieb:
Steht doch im Eingangspost, also man sieht es im Bild 😉
Genau, es steht eben nicht im Eingangspost.
Es wird erst ersichtlich, wenn der 2. Anhang geöffnet wird und Tante Google bemüht wird.

Hier wurden schon Kommentare für weit weniger Informationen gerügt.

Bleibt bitte sachlich!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bolli2
Robo32 schrieb:
Dazu kommt noch, dass die heutzutage verbauten Wandler qualitativ nicht an die von vor 15Jahren herankommen (braucht eben kaum noch einer).
An jeder physikalischen Schnittstelle hängt am Ausgang ein DAC und am Eingang ein ADC. Auch wenn der Wandler weniger diskrete Zustände, dafür aber in höherer Frequenz liefern muß. Jede Signalübertragung ist physikalisch eine analoge Übertragung, unsere Welt ist nicht digital.
Die Kunst beim Chipdesign ist es, die analogen Signale in der diskreten Darstellung unterscheidbar zu machen. Stichwort Augendiagramm.

Jesterfox schrieb:
VGA war sinnvoll als die Monitore noch analoge Ausgabegeräte waren (CRTs). Aber TFTs (und OLED usw.) arbeiten selbst digital (vor allem mit diskreten Pixeln, etwas das VGA nicht kennt) und müssen das VGA Signal wieder digitalisieren um es verarbeiten zu können.
Natürlich "kennt" VGA diskrete Pixel. Es wird ein Takt, sowie Zeilen und Spaltensynchronisation diskret übertragen. Die eigentlichen Farbinformationen (RGB) werden anhand der Signalpegel interpretiert.
 
  • Gefällt mir
Reaktionen: Bolli2
Zurück
Oben