Der unterschied ist auf meinem Monitor gravierend, da muss ich sicherlich nicht beide Karten bzew Monitore direkt nebeneinander laufen lassen.
Ich hatte meine HD5870 lang genug und war begeistert von der plaszitität und der grandiosen schärfe.
Nvidia kann hier nicht im entfernsten mithalten.
LCD vs Plasma
Hier ein weiterer interessanter Bericht
Ich meine schaut euch mal das Bild genauer an , nicht die schärfe die ist sowieso klar besser aber die farbintensivität und den schwarzwert.
Wer mir jetzt sagen will das er da keine unterschiede sieht belügt sich doch selbst.
Bei mir war der Unterschied zwischen GTX570 exakt genauso wenn nicht sogar grösser in spielen wie COD WAT ( Alle Level ), Silent Hill 4, Flatout Ultimate Canage (Sonnenuntergangs Level ist besonders auffälig), Mafia 2 (2 Level) , Race Driver GRID
Schärfe und Farbbrillanz waren praktisch in allen Spielen besser, je nach titel mal mehr mal weniger. Am schlimmsten ist der Grauschleier, mit schwarz hat das nix mehr zu tun.
http://s7.directupload.net/file/d/2381/a7n6stam_png.htm
Ich hatte meine HD5870 lang genug und war begeistert von der plaszitität und der grandiosen schärfe.
Nvidia kann hier nicht im entfernsten mithalten.
LCD vs Plasma
Hier ein weiterer interessanter Bericht
Tag zusammen! Hiermit möchte ich eine Ernst gemeinte Frage in die Runde stellen, die mich schon sehr lange beschäftigt, die ich bisher aber immer wieder unter den Teppich gekehrt habe...
Schon vor über acht Jahren fiel mir beim damaligen PC mit NVIDIA-Grafik von meiner Schwester auf, dass die Farben bzw. das ganze Videobild irgendwie nicht stimmen, und unnatürlich wirken. Mehrere Versuche mit Treibern und Settings blieben wirkungslos. Das gleiche Spiel zwischenzeitlich bei den PCs diverser Freunde und Verwandte, wobei ich dann immer wieder froh war, im letzten Jahrtausend zufällig mit ATI "angefangen" zu haben, und über viele neue PCs hinweg stets dabei geblieben zu sein.
Dann sah ich mir vor gut einem halben Jahr einen ION-Barebone an, und habe erstmals ernsthaft und tagelang versucht, dem NVIDIA-Problem auf die Spur zu kommmen, ohne Erfolg. Damals kam zu den unten beschriebenen Details noch der Umstand hinzu, dass man aufgrund noch inkompatibler Win7-Treiber das Rendering total vergessen konnte - nur Treppeneffekte und Tearing überall. Wohlgemerkt, ältere ATI-Karten brachten 2009 unter den Win7-Betas schon ein hervorragendes Bild, 1080p über HDMI ausdrücklich eingeschlossen.
Vor ein paar Tagen nun bekam ich eine Eee Box EB1012 in die Finger [auf Basis des NVIDIA ION], die erst mal einen sehr guten Eindruck machte [HD mit dem richtigen Player kein Problem, Leistung insgesamt auch OK]. Doch als es an die Videoausgabe ging, war's schnell vorbei damit:
Im Detail: Das Videobild ist insgesamt sehr unnatürlich, und die Farben stimmen einfach hinten und vorne nicht, insbesondere über HDMI [aber nicht nur]. Sie wirken grell, auf den ersten Blick viel zu rot und gelb, etwa so als hätte man eine Lampe dahinter gestellt. Dabei jedoch auch durchscheinend und matt und blass, ohne jede Tiefe, mehr wie ein bedrucktes Tuch als ein Videobild. "Schwarze Balken", die Anfänge von Filmen, Aufblenden etc. sind nicht schwarz, sondern mittel- oder sogar hellgrau, was sich im Videobild dann fortsetzt. Dunkle Szenen, Nachtaufnahmen oder auch nur dunklere Ecken in der Szene sind oft nahezu unsichtbar, Konturen kaum zu erahnen, bei teils starken Artefakten und Schlieren [wo im Film keine sind].
Ob die Wiedergabe über DXVA erfolgt oder nicht, oder ob ich auf DirectX oder OpenGL zurückgreife, macht keinen Unterschied. Die naheliegende Regelung von Farben, Gamma, Sättigung etc. gegenüber den Standard-Settings, wirkt nur oberflächlich und bleibt auch nach mehrstündigen Variationen nutzlos. Die Wahl des Ausgabe-Plugins bei Verwendung von z. B. MPC-HC, wie EVR/EVR Sync/EVR Custom, VMR-7/9, System-Standard usw., kann leichte, ebenfalls oberflächliche Auswirkungen auf einzelne Filmformate oder Bildschirme haben [z. B. Video bei PC besser, bei HDMI-LCD-TV jedoch unverändert] löst das Problem aber nicht. Versuche mit diversen Playern, Treibern, Auflösungen und Aktualisierungsraten, sonstigen Einstellungen irgendwelcher Art die ich finden konnte, bringen keine Besserung. Ich rede hier übrigens nicht nur von der Videowiedergabe, sondern ferner auch vom Desktop, die gesamte Bildausgabe ist betroffen. Am OS liegt es auch nicht, bei WinXP und Vista dasselbe wie bei Win7. Hinzu kommt noch der störende Umstand, dass der PC-Schirm immer für ein paar Sekunden schwarz wird, wenn ich einen angehängten LCD-TV an- oder wieder abschalte. An Windows AERO liegt dieses Verhalten nicht, das habe ich abgeschaltet. Bei neueren ATI-Karten bleibt die Anzeige immer stabil, die Deaktivierung von "AERO" und "Desktopgestaltung" vorausgesetzt.
Immerhin, Probleme mit dem Rendering unter Win7, wie vor einem halben Jahr bei einem ganz ähnlichen ION-System, gibt es garnicht mehr - hier wurden die Treiber wohl endlich nachgebessert... doch das grundsätzliche Problem, dass man einfach keine Videos schauen kann ohne dass einem die Tränen der Verzweiflung kommen, das hat sich manifestiert.
Kurzum: Der Vergleich zwischen der Videoausgabe von NVIDIA [querbeet offenbar ALLE Modelle], und der von ATI insbesondere, oder auch eines beliebigen DVD/Blu-Ray/Mediaplayer- Standalone, fällt ins Auge wie der sprichwörtliche Unterschied zwischen Tag und Nacht! Bei ATI sieht ein HD-Film oder eine DVD einfach wunderbar knackig und "echt" aus, am PC-Schirm und am LCD-TV [ob nun HDMI oder digital oder analog], und zwar ohne dass man an den Standard-Settings irgendwas verändern muss [bzw. kann, wenn man nur den Treiber ohne GUI installiert]. Ja und NVIDIA dagegen, vollkommen unbrauchbar in jeder Hinsicht, ausser für's Büro bestenfalls. Und es scheint keine andere Ursache dafür zu geben, als NVIDIA selbst!!
Jahrelang habe ich mich von Zeit zu Zeit gefragt, ob ich irgendetwas übersehen habe. Doch mittlerweile frage ich mich: sind NVIDIA-Nutzer blind, oder einfach so anspruchslos?? Wissen Sie es nicht besser? Kein Sinn für halbwegs naturgetreue Darstellung? Oder so grottige LCD-Fernseher? Beim TV-Empfang oder dem DVD-Player würde kaum jemand eine derartige "Qualität" ohne weiteres akzeptieren. Und um es nochmal zu verdeutlichen, ich meine hier keine Fehlerchen die man mit der Lupe suchen muss, sondern eine grosse Summe schon sehr deutlicher Mängel, die sofort auffallen [sollten], besonders im Vergleich [zwei NVIDIA/ATI-PCs am LCD-TV umstecken, oder ein Video über Blu-Ray-Standalone abspielen und gleichzeitig auch am NVIDIA-PC angucken, wasauchimmer].
Besagte Bekannte mit NVIDIA-Maschinen sind durch die Bank eher Laien die auch keine Lösung wussten [ausser auf ATI umzusteigen, was einige getan haben], daher gehe ich mit dieser Frage nun an eine breitere Öffentlichkeit http://i.mygully.com/images/smilies/wink.gif - Wer mir bei der Klärung dieses Mysteriums weiterhelfen kann, bitte vortreten!! - und technische Argumente mitbringen.
Ergänzung ()
Ich meine schaut euch mal das Bild genauer an , nicht die schärfe die ist sowieso klar besser aber die farbintensivität und den schwarzwert.
Wer mir jetzt sagen will das er da keine unterschiede sieht belügt sich doch selbst.
Bei mir war der Unterschied zwischen GTX570 exakt genauso wenn nicht sogar grösser in spielen wie COD WAT ( Alle Level ), Silent Hill 4, Flatout Ultimate Canage (Sonnenuntergangs Level ist besonders auffälig), Mafia 2 (2 Level) , Race Driver GRID
Schärfe und Farbbrillanz waren praktisch in allen Spielen besser, je nach titel mal mehr mal weniger. Am schlimmsten ist der Grauschleier, mit schwarz hat das nix mehr zu tun.
http://s7.directupload.net/file/d/2381/a7n6stam_png.htm
Zuletzt bearbeitet: