Ati/Amd 6970 oder Nvidia 570Gtx

Der unterschied ist auf meinem Monitor gravierend, da muss ich sicherlich nicht beide Karten bzew Monitore direkt nebeneinander laufen lassen.
Ich hatte meine HD5870 lang genug und war begeistert von der plaszitität und der grandiosen schärfe.
Nvidia kann hier nicht im entfernsten mithalten.
LCD vs Plasma


Hier ein weiterer interessanter Bericht


Tag zusammen! Hiermit möchte ich eine Ernst gemeinte Frage in die Runde stellen, die mich schon sehr lange beschäftigt, die ich bisher aber immer wieder unter den Teppich gekehrt habe...

Schon vor über acht Jahren fiel mir beim damaligen PC mit NVIDIA-Grafik von meiner Schwester auf, dass die Farben bzw. das ganze Videobild irgendwie nicht stimmen, und unnatürlich wirken. Mehrere Versuche mit Treibern und Settings blieben wirkungslos. Das gleiche Spiel zwischenzeitlich bei den PCs diverser Freunde und Verwandte, wobei ich dann immer wieder froh war, im letzten Jahrtausend zufällig mit ATI "angefangen" zu haben, und über viele neue PCs hinweg stets dabei geblieben zu sein.
Dann sah ich mir vor gut einem halben Jahr einen ION-Barebone an, und habe erstmals ernsthaft und tagelang versucht, dem NVIDIA-Problem auf die Spur zu kommmen, ohne Erfolg. Damals kam zu den unten beschriebenen Details noch der Umstand hinzu, dass man aufgrund noch inkompatibler Win7-Treiber das Rendering total vergessen konnte - nur Treppeneffekte und Tearing überall. Wohlgemerkt, ältere ATI-Karten brachten 2009 unter den Win7-Betas schon ein hervorragendes Bild, 1080p über HDMI ausdrücklich eingeschlossen.
Vor ein paar Tagen nun bekam ich eine Eee Box EB1012 in die Finger [auf Basis des NVIDIA ION], die erst mal einen sehr guten Eindruck machte [HD mit dem richtigen Player kein Problem, Leistung insgesamt auch OK]. Doch als es an die Videoausgabe ging, war's schnell vorbei damit:

Im Detail: Das Videobild ist insgesamt sehr unnatürlich, und die Farben stimmen einfach hinten und vorne nicht, insbesondere über HDMI [aber nicht nur]. Sie wirken grell, auf den ersten Blick viel zu rot und gelb, etwa so als hätte man eine Lampe dahinter gestellt. Dabei jedoch auch durchscheinend und matt und blass, ohne jede Tiefe, mehr wie ein bedrucktes Tuch als ein Videobild. "Schwarze Balken", die Anfänge von Filmen, Aufblenden etc. sind nicht schwarz, sondern mittel- oder sogar hellgrau, was sich im Videobild dann fortsetzt. Dunkle Szenen, Nachtaufnahmen oder auch nur dunklere Ecken in der Szene sind oft nahezu unsichtbar, Konturen kaum zu erahnen, bei teils starken Artefakten und Schlieren [wo im Film keine sind].
Ob die Wiedergabe über DXVA erfolgt oder nicht, oder ob ich auf DirectX oder OpenGL zurückgreife, macht keinen Unterschied. Die naheliegende Regelung von Farben, Gamma, Sättigung etc. gegenüber den Standard-Settings, wirkt nur oberflächlich und bleibt auch nach mehrstündigen Variationen nutzlos. Die Wahl des Ausgabe-Plugins bei Verwendung von z. B. MPC-HC, wie EVR/EVR Sync/EVR Custom, VMR-7/9, System-Standard usw., kann leichte, ebenfalls oberflächliche Auswirkungen auf einzelne Filmformate oder Bildschirme haben [z. B. Video bei PC besser, bei HDMI-LCD-TV jedoch unverändert] löst das Problem aber nicht. Versuche mit diversen Playern, Treibern, Auflösungen und Aktualisierungsraten, sonstigen Einstellungen irgendwelcher Art die ich finden konnte, bringen keine Besserung. Ich rede hier übrigens nicht nur von der Videowiedergabe, sondern ferner auch vom Desktop, die gesamte Bildausgabe ist betroffen. Am OS liegt es auch nicht, bei WinXP und Vista dasselbe wie bei Win7. Hinzu kommt noch der störende Umstand, dass der PC-Schirm immer für ein paar Sekunden schwarz wird, wenn ich einen angehängten LCD-TV an- oder wieder abschalte. An Windows AERO liegt dieses Verhalten nicht, das habe ich abgeschaltet. Bei neueren ATI-Karten bleibt die Anzeige immer stabil, die Deaktivierung von "AERO" und "Desktopgestaltung" vorausgesetzt.
Immerhin, Probleme mit dem Rendering unter Win7, wie vor einem halben Jahr bei einem ganz ähnlichen ION-System, gibt es garnicht mehr - hier wurden die Treiber wohl endlich nachgebessert... doch das grundsätzliche Problem, dass man einfach keine Videos schauen kann ohne dass einem die Tränen der Verzweiflung kommen, das hat sich manifestiert.

Kurzum: Der Vergleich zwischen der Videoausgabe von NVIDIA [querbeet offenbar ALLE Modelle], und der von ATI insbesondere, oder auch eines beliebigen DVD/Blu-Ray/Mediaplayer- Standalone, fällt ins Auge wie der sprichwörtliche Unterschied zwischen Tag und Nacht! Bei ATI sieht ein HD-Film oder eine DVD einfach wunderbar knackig und "echt" aus, am PC-Schirm und am LCD-TV [ob nun HDMI oder digital oder analog], und zwar ohne dass man an den Standard-Settings irgendwas verändern muss [bzw. kann, wenn man nur den Treiber ohne GUI installiert]. Ja und NVIDIA dagegen, vollkommen unbrauchbar in jeder Hinsicht, ausser für's Büro bestenfalls. Und es scheint keine andere Ursache dafür zu geben, als NVIDIA selbst!!

Jahrelang habe ich mich von Zeit zu Zeit gefragt, ob ich irgendetwas übersehen habe. Doch mittlerweile frage ich mich: sind NVIDIA-Nutzer blind, oder einfach so anspruchslos?? Wissen Sie es nicht besser? Kein Sinn für halbwegs naturgetreue Darstellung? Oder so grottige LCD-Fernseher? Beim TV-Empfang oder dem DVD-Player würde kaum jemand eine derartige "Qualität" ohne weiteres akzeptieren. Und um es nochmal zu verdeutlichen, ich meine hier keine Fehlerchen die man mit der Lupe suchen muss, sondern eine grosse Summe schon sehr deutlicher Mängel, die sofort auffallen [sollten], besonders im Vergleich [zwei NVIDIA/ATI-PCs am LCD-TV umstecken, oder ein Video über Blu-Ray-Standalone abspielen und gleichzeitig auch am NVIDIA-PC angucken, wasauchimmer].
Besagte Bekannte mit NVIDIA-Maschinen sind durch die Bank eher Laien die auch keine Lösung wussten [ausser auf ATI umzusteigen, was einige getan haben], daher gehe ich mit dieser Frage nun an eine breitere Öffentlichkeit http://i.mygully.com/images/smilies/wink.gif - Wer mir bei der Klärung dieses Mysteriums weiterhelfen kann, bitte vortreten!! - und technische Argumente mitbringen.
Ergänzung ()

Ich meine schaut euch mal das Bild genauer an , nicht die schärfe die ist sowieso klar besser aber die farbintensivität und den schwarzwert.
Wer mir jetzt sagen will das er da keine unterschiede sieht belügt sich doch selbst.
Bei mir war der Unterschied zwischen GTX570 exakt genauso wenn nicht sogar grösser in spielen wie COD WAT ( Alle Level ), Silent Hill 4, Flatout Ultimate Canage (Sonnenuntergangs Level ist besonders auffälig), Mafia 2 (2 Level) , Race Driver GRID

Schärfe und Farbbrillanz waren praktisch in allen Spielen besser, je nach titel mal mehr mal weniger. Am schlimmsten ist der Grauschleier, mit schwarz hat das nix mehr zu tun.
:mad:



http://s7.directupload.net/file/d/2381/a7n6stam_png.htm
 
Zuletzt bearbeitet:
Der verlinkte Bildvergleich ist nicht wirklich hilfreich, da wir alle wissen, dass (TR)SSAA blurren kann. Gibt im 3DCenter einen ganzen Thread dazu mit Kompatibilitäsliste. Es ging ja um die Grundschärfe, nicht um Sonderfälle.
Außerdem ist das von Spiel zu Spiel anders. Bei manchen blurrts, bei manchen nicht. Siehe besagten Thread.
 
Zuletzt bearbeitet:
also ich sehe da kein unterschied wenn ich aa oder sonst was anmach wenn ich mich total drauf fixiere dann vllt. aber bei egoshooter bleibt da eigentlich fast nicht die zeit. xD
und mit der schärfe meiner ati 5850 bin ich ja zufrieden kann mich an der bildquali nicht beschweren aber sie hat einfach zu wenig power leider
also wenn die bild quali der 6970 oder allgemein der 6xxx reihe schlechter ist dann lass ichs
 
also die 6970 ist misst..sorry aber ist so, aber die 6950 ist ne tolle Karte für einen fairen Preis und eine Überlegung wert....mit der könnte man sich sogar ein relativ Stromsparendes Crossfire System aufbauen
 
naja die 6970 ist in der Sache misst, da alle Positiven Aspekte die sonst immer für AMD GPUs sprachen weggefallen sind....ok dann fange ich mal an:

1. Stromverbrauch...die 6970 frisst genauso viel wie eine GTX570 unter Furmark noch mehr
2. OC Potenzial...die 6970 ist schon am Limit und da wird wohl leider auch nicht mehr viel gehen
3. schlechter Bild Qualität (ja jetzt wird nakatom wieder ankommen und meinen das dies nicht stimmt und das wieder mit irgendwelche Screens belegen wollen, aber sorry....bei fast jedem Test den man findet steht das NVIDA Karten die bessere Qualität haben..und sorry ich glaube einer Fachzeitschrift wie Chip oder PCGH mehr als einem einzelnen User..Ok ich will ja nicht sagen das er lügt oder so, aber vielleicht lag das Problem an was anderem und nicht an der GTX570..wer weiß vielleicht vertrug sich der Monitor echt nicht mit der karte)
4. schlechtere Tessellation (wurde zwar deutlich verbessert, aber NVIDA ist dennoch deutlich besser)
5. Preis: die 6970 koster ca 330€ genauso wie eine GTX570 nur das man bei der GTX mehr geboten bekommt z.B PhysX und Cuda (ob man das braucht muss jeder für dich entscheiden) und halt die besser Bild Qualität usw
6.unter voll Last wird die 6970 sehr warm
7.die 6970 ist lauter

Die einzigsten Vorteile sind einmal die 2GB RAM und halt die Tatsache das man 3 Monitore anschließen kann...
daher ist für mich die 6970 ein reinfall.
Die 6950 hingegen ist eine schöne karte
+2GB RAM
+mit ca 260€ recht günstig
+nicht viel langsamer als die 6970
+deutlich weniger Stromhunger
+leiser
+bleib relativ Kühl

-kein gutes OC Potenzial
-schlechter Bild Qualität
 
@nakatom

Was der Typ schreibt ist genau das was du in jedem Multimediaforum finden wirst bei der Diskusion Plasma oder LCD.

Die einen sagen Plasma sei blass, und unschaft - LCD sei knackig scharf und leuchtende farben

Die anderen sagen Plasma hat natürliche Farben und ein schönes natürliches Bild - LCD sei überzeichnet und habe "Atom"-Farben


Der rest den du schreibst ist auch ziemlicher Schwachsinn, der Swarzwert wird sich nicht gross (wenn überhaubt) mit der Grafikkarte ändern. (vorallem sollten leute mit einem LCD nicht von Schwarzwert reden :lol:)

Ich habe an meinem 50" Plasma und daran habe ich eine WD-Livebox, meinen PC, meine PS3, meinen Sony BR-Player und ab und an meinen Laptop an geschlossen. Der Schwarzwert war bei allen gleich im Testbild (und ja ich habs eingestellt für jedes Gerät darum weiss ichs noch), aber klar ist du kannst nicht die selben Bildschrim / TV einstellungen verwenden für alle Geräte sonst wirst du nie das optimale/ beste Bild haben.

Ich glaube solche Fehler erscheinen nur bei Leuten die zu faul sind sich eine gute Anleitung + Software zur Bildeinstellung im Internet zu suchen (einfach mal googlen und man findet genug gratis Software).

Am Schluss nimmt sich beides nicht viel, man erreicht mit AMD und Nividia das Bild was einem am besten gefällt nur muss man sich fragen mit wem von den beiden erreichnt man es einfacher und dann kann man ja dann eine entsprechende Grafikkarte kaufen.
 
Airblade85 schrieb:
naja die 6970 ist in der Sache misst, da alle Positiven Aspekte die sonst immer für AMD GPUs sprachen weggefallen sind....ok dann fange ich mal an:

1. Stromverbrauch...die 6970 frisst genauso viel wie eine GTX570 unter Furmark noch mehr
2. OC Potenzial...die 6970 ist schon am Limit und da wird wohl leider auch nicht mehr viel gehen
3. schlechter Bild Qualität (ja jetzt wird nakatom wieder ankommen und meinen das dies nicht stimmt und das wieder mit irgendwelche Screens belegen wollen, aber sorry....bei fast jedem Test den man findet steht das NVIDA Karten die bessere Qualität haben..und sorry ich glaube einer Fachzeitschrift wie Chip oder PCGH mehr als einem einzelnen User..Ok ich will ja nicht sagen das er lügt oder so, aber vielleicht lag das Problem an was anderem und nicht an der GTX570..wer weiß vielleicht vertrug sich der Monitor echt nicht mit der karte)
4. schlechtere Tessellation (wurde zwar deutlich verbessert, aber NVIDA ist dennoch deutlich besser)
5. Preis: die 6970 koster ca 330€ genauso wie eine GTX570 nur das man bei der GTX mehr geboten bekommt z.B PhysX und Cuda (ob man das braucht muss jeder für dich entscheiden) und halt die besser Bild Qualität usw
6.unter voll Last wird die 6970 sehr warm
7.die 6970 ist lauter

Die einzigsten Vorteile sind einmal die 2GB RAM und halt die Tatsache das man 3 Monitore anschließen kann...
daher ist für mich die 6970 ein reinfall.
Die 6950 hingegen ist eine schöne karte
+2GB RAM
+mit ca 260€ recht günstig
+nicht viel langsamer als die 6970
+deutlich weniger Stromhunger
+leiser
+bleib relativ Kühl

-kein gutes OC Potenzial
-schlechter Bild Qualität


bei ocing geht ja ersten mal die garantie weg wo mir dann eher die ati 6970 besser gefällt weil ja schon gute leistung hatt mit den 3 bildshirmen kann ich ab und zu mla gbrauchen
was ist cuda eigentlich??
sowas wie af oder physx?
und im tets von cb ist die ati 6970 bei den games oder game richtung immer besser oder 2 fps unter der 570gtx in der auflöung wo ich spiel

edut: hab kurz gegoogelt weiß jetzt was cuda ist
 
Zuletzt bearbeitet:
bei ocing geht ja ersten mal die garantie weg wo mir dann eher die ati 6970 besser gefällt weil ja schon gute leistung hatt mit den 3 bildshirmen kann ich ab und zu mla gbrauchen
was ist cuda eigentlich??
sowas wie af oder physx?
und im tets von cb ist die ati 6970 bei den games oder game richtung immer besser oder 2 fps unter der 570gtx in der auflöung wo ich spiel

edut: hab kurz gegoogelt weiß jetzt was cuda ist

naja das mit der schnelligkeit ist so ne Sache...es ist halt abhängig vom Game...mal ist die 6970 mal die GTX570 schneller. darum gibt es auch meistens am Ende des testes immer ein Performance Überblick und da ist die GTX570 meistens besser bzw gleich schnell...NVIDA schnürrt dieses mal einfach ein besseres Gesamtpacket :-)
http://www.tweakpc.de/hardware/tests/grafikkarten/xfx_amd_radeon_hd_6970_hd_6950/s11.php

wen du eine AMD Karte holst, dann würde ich persönlich zur 6950 greifen...die ist in meinen Augen die bessere karte und ich überlege selber noch welche ich nehmen werde....bin auch noch unentschlossen obs nun die 6950 oder die 570 wird
 
Ich finde die HD6950 auch die ausgewogenere Karte, nur am Kühler würde ich mit Dremel und Säge Hand anlegen :D

15_lp2.png



http://www.xbitlabs.com/articles/video/display/radeon-hd6970-hd6950.html
HD 6950 Overclock Tests
 
Kartenlehrling schrieb:
Ich finde die HD6950 auch die ausgewogenere Karte, nur am Kühler würde ich mit Dremel und Säge Hand anlegen :D

15_lp2.png


also die ist ja nochmal bissle schwächer da kann ich die ati 5850 fast behlaten xD für des bissle mehr leistung des einzige was mich echt anregt bei nvidia ist die evga version wo man dann wen sie mir zu warm wird oder so nen anderen khler drauf machen kann und somit auch leiser wird
 
Bis einschließlich 1900 Auflösung = Nvidia
Alles darüber = AMD
 
ihr solltet das Wort "besser" genauer definieren

was mich mal interessieren würde wären Auflösungen jenseits der 2560x1600, gibt ja genug Leute die Downsampling betreiben.

Wäre AMD die Bildqualität und Tesselation mehr angegangen hätt ich mir persönlich ne AMD Karte gekauft und meine rumliegende GT240 als PhysX Karte genutzt. Bin mal gespannt wie sich meine EVGA GTX580, falls ich sie noch vor Silvester kriegen sollte, auf meinem neuen HP und nem stark übertaktem E6400 und in nem Monat mit Sandybridge so macht.
 
Zuletzt bearbeitet:
Bei 24 Zoll schenken sich beide Karten nicht viel - das ist korrekt - jedoch hat man mit der 570 einige Goodies besseres AF, Tesslation (wird in Zukunft auch bedeutender werden), Physix und leiser (Customdesign).

Den VRAM halte ich für nicht sooo wichtig (unter 24 Zoll) wie einige hier, da dieser nur bei extremen Filtersettings und den höchsten Auflösungen seine Stärke ausspielen kann. In 2-3 Jahren wird man mit keiner 6970/50 mehr diese Auflösung und Filtereinstellungen in neuen Games vernunftig spielen können weil wir da vermutlich 2-3 Graka-Generationen weiter sind und die 6970 ähnlich wie eine z.B. ATI 3700 heute zum alten Eisen gehört und bei diesen Einstellungen in den meisten vorher genannten hohen Einstellungen viel zu langsam ist.

Bei mehr als 2 Bildschirmen kommt man um AMD nicht rum
 
Zuletzt bearbeitet:
hmm ich möchte es mal gernae mit 3 monitoren ausprobieren will aber jetzt nicht erst nen adapter kaufen für kp 40 euro (displayport mini auf dvi aktiv)
weil kumepl hatt 2x22 zoller und ich einen 24 könnte schon gehen oder??

weil der nur ne geforce 260gtx hatt kann er auch keine 3 benutzen aber so für manche games bestimmt geil

aber ich werde sie eh erste nächstes jahr ab dem 15 januar kaufen kommt bis dahin ein anderer kühler drauf?

weiß gerade nicht wied es heißt irgendwas mit referenz design aber des ist ja standart des von amd

aber es wird wenn ich mich für ati entscheide ne xfx
 
Lost Planet 2 ist ja auch so ein tolles Spiel, denke der beste Shooter den ich jemals gespielt habe.
Der Singleplayer ist so genial und spannend, grossartig.
Ironie AUS.

Zum thema ausgewogene Karte :D

http://www.in4.pl/recenzje.htm?rec_id=676&rectr_str_numer=21


Für Call of Duty 4 wurde der Treiber noch nicht angepasst, steht auch so im test deswegen schneidet die Karte in dem Spiel sogar shchlechter ab als HD5870

1.,2 GB sind schon heute knapp siehe Stalker, dieses spiele verbraucht schon im Benchmark wo nichts los ist über 1300 MB an Grafikspeicher.;)
 
Zurück
Oben