Bildqualität "merkwürdig" mit AMD Karten im Vergleich zu Nvidia

Da keine Fehlerkorrektur durchgeführt wird kann es schon sein das ein Signal mal nicht korrekt ist ... aber dann würde das ganze System kippen und nicht nur ein paar Farben.
 
Es kippt ja auch nichts, es geht nicht um Fehler oder der gleichen, einfach nur um leichte Unterschiede in der
Bildausgabe (Farben, Sättigung u. auch Kontrast) und Input-lag übrigens auch.
 
Ich habe Informationstechnik studiert, und kann dir sagen: Einbildung!
 
Wenn interessiert das was du studiert hast (Angeber), das ändert nichts an Tatsachen.
Wie hatten das hier schon mal vor einer Weile, da kamen auch Beiträge wie deiner dazu, bis es dann mal jemand ganz gut erklärt hat und dann war Ruhe. Welche Schulen er besucht hat oder ähnliches hat er nicht erwähnt.
 
Sorry, aber das ist absoluter Bullsit, um es mal noch höflich zu formulieren.

Einer der essenziellen Vorteile digitaler Übertragung ist, dass keinerlei Informationen verloren gehen oder in irgend einer Art verfälscht werden, solange die Bitfolge lesbar ist. Das Elektromagnetische Signal kann schwach und voller Störungen und verzerrungen sein. Aber solange aus dem Signal die korrekte Bitfolge gelesen werden kann, war die Übertragung zu 100% verlustfrei und zu 100% korrekt.

Zudem sind digitale Signale in einer Bitfolge Codiert. Ein Bitfehler kann daher auch keinen Einfluss auf die allgemeine Bildqualität haben, da dies überhaupt nichts mit dem Signal zu tun hat. Das Signal ist schließlich nur ein Träger zur Übertragung logischer 0en und 1en. Erst deren Kombination ergibt nach der decodierung ein Bild, nicht jedoch das Signal. Signal und Bild haben absolut NICHTS miteinander zu tun. Dass sich sowas wie Kontrast, Farben und Schärfe ändert ist absolut ausgeschlossen. Bitfehler führen nach der Decodierung zu Artefakten, die meist deutlich identifizierbar sind.

Bei Analogen signalen wird das Bild dagegen nicht wirklich codiert, sondern eben „Analog“ übertragen. Sobald sich hier Störungen ergeben, wirken sich diese 1:1 aufs Bild aus. Das ist der große Nachteil analoger Übertragung.

Einfach gesagt: Digitale übertragung ist komplett verlustfrei, solange sie ordnungsgemäß funktioniert.
 
  • Gefällt mir
Reaktionen: Otsy
Hatten wir schon mal.
Einfach ausprobieren, fertig.
Unter anderem liegt es auch an der Fertigung der Kabel.
Es ist eben so auch wenn ihr es euch nicht erklären könnt.
 
Nickel schrieb:
Hatten wir schon mal.
Einfach ausprobieren, fertig.
Unter anderem liegt es auch an der Fertigung der Kabel.
Es ist eben so auch wenn ihr es euch nicht erklären könnt.


Dann beweise es. Wenn Digitale Übertragung dermaßen von der Signalqualität beeinflussbar wäre, würde kein heutiges Computersystem funktionieren. Du hast wie gesagt grundsätzlich nicht verstanden, was Digital bedeutet. Unfassbar, so nen Unsinn zu verbeiten zu wollen. Bitte lass es, wenn du nichtmal eine vernünftige Argumentationskette zustande kriegst...

Alleine, dass du eine Signalverfälschung mit einer Verfälschung der Bildqualität gleichsetzt ergibt nummal absolut keinen Sinn. Es werden digital keine „Bilder“ übertragen, sondern DATEN. Das ist ein gewaltiger Unterschied. Deswegen wird auch nicht das „Bild“ beeinflusst, wenn es Fehler gibt, sondern die Bitfolgen, welche die Farbinformationen EINZELNER Pixel beeinhalten. Entsprechend kommt es zu Artefakten, da einzelne Pixel mit falschen Farbwerten dargestellt werden, nicht aber zur Verfälschung der Bildqualität in Punkto schärfe oder Kontrast. Um das zu erreichen müsste die Ursprüngliche Bitfolge verändert werden.

Eine Änderung von Kontrast oder Schärfe hätte eine KOMPLETT andere Bitfolge zur Folge, da jedes Pixel dann andere Farbwerte hätte. Wie Willst du die komplette Bitfolge eines Bildes ändern, indem du das trägersignal beeinflusst? Das ist einfach nicht möglich, da Signal, Bitfolge und das decodierte Bild NICHTS gemeinsam haben.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: LyGhT
Laggy.NET schrieb:
Sorry, aber das ist absoluter Bullsit, um es mal noch höflich zu formulieren.

Einer der essenziellen Vorteile digitaler Übertragung ist, dass keinerlei Informationen verloren gehen oder in irgend einer Art verfälscht werden, solange die Bitfolge lesbar ist. Das Elektromagnetische Signal kann schwach und voller Störungen und verzerrungen sein. Aber solange aus dem Signal die korrekte Bitfolge gelesen werden kann, war die Übertragung zu 100% verlustfrei und zu 100% korrekt.

Das ist auch falsch. Auch digitale Signale werden bei Kupfer analog übertragen. Nur bei einem Lichtleiter ist das wirklich eine digitale Übertragung. Beim Kupfer wird das Signal moduliert. Einfach gesagt, alles Oberhalb von Frequenz X ist eine 1, alles Unterhalb eine 0. Und wenn die Übertragung nicht optimal ist, greift eine Fehlerkorrektur. Die aber auch nur bis zu einem gewissen Maß helfen kann.

Nickel hat mit dem DVI / HDMI Adapter schon recht. Schließt man einen Monitor so an, dann wird er eben nicht als TV / Multimedia Gerät erkannt und es wird nicht der beschnittene Farbraum benutzt. Genau das, was hier das Problem war. Aber schon richtig. Es beeinflusst garantiert nicht die Latenz. Und die Farbdarstellung auch nur, wenn ein anderes Pixelformat benutzt wird. Was eben bei HDMI oft der Fall ist. Was man dann aber im Treiber korrigieren kann.
 
Ja hab ich doch geschrieben. Das Signal bleibt natürlich analog. Aber da es nur der Träger für die Bitfolge ist, kann zwischen der Qualität des Analogen Trägersignals und dem decodiertem Bild niemals eine korrelation entstehen. Das ist der Grundlegende Vorteil digitaler Übertragung.

Solange die schwellwerte für 0en und 1en erreicht werden ist es egal, wie,schlecht das Analoge Trägersignal ist. Wenn etwas nicht gelesen werden kann, wirds entweder versucht zu korrigieren, nochmal neu angefordert, wie z.B. Bei ethernet oder falsch interpretiert und es kommt zu Artefakten.
 
Ja, und wenn die Fehlerkorrektur nicht mehr mitkommt, dann kommt am anderen Ende auch ein verfälschtes Signal raus. Was ganz unterschiedliche Auswirkungen in der Darstellung auf dem Monitor haben kann.

Es ist eben nicht digital. Und darum gibt es da nicht dieses Strenge, entweder es geht oder es geht nicht.
 
lol .. Ich war als ich dass das es erstmal festgestellt habe selbst überrascht.
Es betrifft auch HDMI-Kabel, nutze aber an meinem derzeitigen Monitor jetzt DVI.
Kabel habe ich makiert, dass ich weiß welcher Anschluss an die Grafikkarte kommt
um das für mich besser Bild zu haben.) Einfach mal ausprobieren.
Wie gesagt, es geht nicht um Fehler oder Bildstörungen.

Kabel habe ich übrigens einige, Purelink, Lindy , Standard AWM-DVI Kabel und einige aus dem
EIZO Zubehör .
 
Zuletzt bearbeitet: (ergänzt)
@Nickel

Du hast gesagt, dass unterschiedliche Kabel bei dir zu Veränderungn im Bild führen und hast auch gesagt, dass das Umdrehen des Kabels das Bild verändern kann. Das ist einfach totaler Murks. Das Kabel hat absolut keinen Einfluss darauf. Wie gesagt. Digitale Übertragung -> Kabel und Signalqualität spielen keine Rolle, solange die Übertragung funktioniert.

Im Endeffekt ist dein Fehler wohl, dass du Bildqualitätsunterschiede mit Kabeln und Hardware gleichsetzt, dabei ist es eben nur Softwaresache, wie Grafikkarte oder Monitor das Bildformat, das in den übertragenen Daten steckt interpretieren.

Du kannst auch bei Display Port ein blasses Bild haben, wenn du das falsche Pixelformat einstellst... Klar praktisch gesehen, nimmst du dann ein Display Port Kabel, anstelle eines HDMI Kabels und sagst dann, dass das Bild anders aussieht, weil du ein anderes Kabel genommen hast. Aber das ist halt im Endeffekt reine Software bzw. konfigurationssache, da die Grafikkarte bzw. Der Monitor die Pixelformate an unterschiedlichen Eingängen eben standardmäßig anders interpretiert bzw. ein entsprechend anderes Pixelformat erwartet. Und das hat mit den eigenschaften digitaler Übertragung halt nix zu tun. Es ist und bleibt Konfigurationssache. Du hast das aber in einen Topf mit den Kabeln und deren Qualität geworfen, was für mich bedeutet, dass du einen Zusammenhang zwischen Kabelqualität und Bildqualität herstellst, was eben nach wie vor Unsinn ist.
 
Zuletzt bearbeitet von einem Moderator:
Laggy.NET schrieb:
Du hast gesagt, dass unterschiedliche Kabel bei dir zu Veränderungn im Bild führen und hast auch gesagt, dass das Umdrehen des Kabels das Bild verändern kann. Das ist einfach totaler Murks.
Die wiederholst dich und ich tu dies auch noch einmal, es ist Tatsache.
Probiere es aus oder lass es, fertig.
 
Ich weiß selber, dass sich das Bild ändert, wenn ich nen anderen Port bzw. Anschluss nutze und das Pixelformat nicht entsprechend korrigiere, das „Problem“ gibts nicht erst seit gestern und sollte eigentlich bekannt sein. Das ganze wurde ja auch am anfang des Threads von dir selbst erwähnt...

Aber wenn alles richtig eingestellt ist, gibts auch keine Unterschiede mehr.

Ich frage mich aber nach wie vor, wie du eine Veränderung des Bildes mit der Qualität der Kabel bzw. Der Signalübertragung in Verbindung bringst.

So wies aussieht interpretierst du deine Beobachtungen einfach völlig falsch. Nicht die Kabel sind die Ursache für die Bildveränderungen, sondern die Art, wie Grafiktreiber und Monitor mit den Signalen am jeweiligen Port umgehen. Und das kann ganz einfach von dir angepasst werden, indem du das richtige Pixelformat einstellst. Dieses kannst du für jeden Port separat anpassen.
 
Nickel schrieb:
Es gibt auch "Bildqualitätsunterschiede" wenn digital angeschlossen, auch bei verschiedenen Kabel ist das festzustellen. Habe das schon oft genug festgestellt bei hochwertigen Monitoren (Eizo).
Ja, am besten sind die vergoldenten bei Vollmond gefertigten.;)

Ne mal ernsthaft, jedes 0815 Kabel reicht aus wenn man 1080p per HDMI anschließt. Wir reden hier ja nicht von Datenraten für 8K oder 20m Verbindungsweg.
 
BlubbsDE schrieb:
Nur bei einem Lichtleiter ist das wirklich eine digitale Übertragung.
Licht ist also digitaler als Elektronen in einem Leiter? ;)

Nickel schrieb:
Probiere es aus oder lass es, fertig.
Habe ich, keine Unterschiede zu sehen. Wie auch? Such doch mal bitte diese Posting raus, bei dem das angeblich erklärt wurde.
 
  • Gefällt mir
Reaktionen: Otsy
Digitaltechnik bezieht sich auf logische Verknüpfungen und das Binärsystem, also die Abbildung von 0 und 1.

Ob man das nun mit Licht, über Funkfrequenzen in Luft und Kabel oder über das ein und ausschalten eines Schalters macht ist völlig belanglos. Im endeffekt haben wir immer eine Umwandlung von Digital zu Analog und umgekehrt. Eine digitale übertragung gibt es in dem Sinne nicht. Elektromagnetische Signale (wo auch Licht dazu zählt) sind quasi immer Analog.

Das einzige, was man sich vielleicht als wirkliche Digitale übertragung vorstellen könnte, wäre rein von der Logik her ein perfektes Rechtecksignal. So eines ist aber nicht möglich, da dafür eine unendlich hohe Bandbreite nötig wäre. Man kann sich durch überlagerung unendlich vieler Oberwellen einem Rechtecksignal annähren (Fourier Reihe). Im Endeffekt bleibt es aber eine Kombination von zig Sinus Funktionen, die in Kombination ein Rechtecksignal abbilden, womit wir wiederum nur noch Analoge Signale haben.

Wobei man in der Realität eh gar nicht versucht, ein Rechtecksignal zu erzeugen, sondern mit komplexen Modulationsverfahren und mehrwertigen Signalen arbeitet, um die zur Verfügung stehende Bandbreite optimal auszunutzen. Aber das würde jetzt zu weit gehen...
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben