Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Test: Radeon HD 6900 CF vs. GeForce GTX 500 SLI
- Ersteller Wolfgang
- Erstellt am
- Zum Artikel: Test: Radeon HD 6900 CF vs. GeForce GTX 500 SLI
- Registriert
- Nov. 2002
- Beiträge
- 8.966
Das ist richtig, betrifft aber keines der von uns getesteten Spiele.Motkachler schrieb:Die Gameprofile werden bei AMD wöchentlich aktualisiert und da gibts schon sehr oft änderungen. Ich weis allerdings nicht ob sich beim 10.11 zum 11.1 bei crossfire was getan hat hab zur zeit kein Crossfire laufen.
Wie kommen immer alle darauf, dass der Launch-Treiber dem Cat 10.11 entspricht? Wegen der Versionsnummer? Wenn ja, vergesst diese ganz schnell. AMD ändert diese meistens nur wenn das Teil Final werden soll. Der 3D-Part des Launch-Treibers ist neuer als der Cat 10.12. Neuer geht es aktuell nicht. Oder glaubt einer wirklich, dass AMD die 6900 mit einem alten Treiber ins Rennen schickt?@BustaFiles
dachte ich mir auch, wie kann man mit dem 10.11 catalyst die hd6900er testen. sagte ich vor einigen seiten schon das der test hier was die hd 6900er angeht für die füße ist!
@Ralf T
genau der hd 6900er treiber ist ein vorab treiber, der die amd karten lauffähig macht. aber optimiert ist bei dem treiber noch null! der 11.1 wird zeigen was sache ist und was nicht!
Naennon
Lieutenant
- Registriert
- Jan. 2009
- Beiträge
- 621
l33 schrieb:Das Fazit mit dem Micro Rucklern ist doch schwachsinn..
wieso testet ihr Lost Planet? das ist ein Nvidia Spiel, das testet ihr doch sonst auch nie....
deswegen nehme ich an ich wollt die 570 im gesammten damit pushen damit sie nicht ganz schlecht da steht.
ihr seit so lustig...
die 570 sieht auch ohne LP2 gut aus
aber sehe grad, du bist ein "roter", da sucht man schonmal wenn man nix findet
Raucherdackel
Banned
- Registriert
- Apr. 2008
- Beiträge
- 1.874
Wolfgang schrieb:Jaaaa, und was sagt das genau aus?
Wegen dem Fazit: Wir haben in dem Test absichtlich den Mikrorucklern eine sehr hohe Gewichtung gegeben, da diese unserer Meinung nach einfach mit Abstand das störendste an CF/SLI sind. [...] Und das sagen sogar die Framtimes aus, die nicht unbedingt dem entsprechen müssen was wirklich passiert. Denn der Treiber hat noch Einfluss auf die Framewiedergabe, nachdem Fraps diese gemessen hat. Und dort macht Nvidia auch so einiges gegen die MR, AMD dagegen nichts.
So? dann würds dir doch nichts ausmachen, wenn du zur Untermauerung deiner These auch noch ein paar Frametime-Diagramme mit Vsync zu machen, um den Inputlag mal unter die Lupe zu nehmen und nochmal wegen MR zu schauen.
Ich mein, wer kauft sich für 500€ aufwärts ein MultiGPU-System um mit möglichst bester Bildquali zu gamen, und schaltet dann Vsync aus, damit jedes Bild zerrissen ist? Das ist eine gute Steilvorlage für ein *facepalm*. Nicht falsch verstehen, ist klar dass man Benches ohne Vsync macht, um die Karten vergleichen zu können. Aber in diesem Fall wärs bitter nötig gewesen. Denn das Fazit hat so nämlich so gut wie keine Aussagekraft. Außerdem fehlt darin auch die preisliche Bewertung von solchen Systemen.
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Wertverlust ist Wertverlust. 1. spare ich mir den Aufwand/Zeit von kaufen und verkaufen + Problemchen der neuen Karten über die Jahre und 2. wer verkauft denn so geniale GPUs wie zb. 8800GTX? Richtige GPU Fans können das das nicht sein. Noch dazu hat ja meine 8800GTX schon gezeigt das die Strategie optimal ist, daher gerne wieder.Wärend Du deinen heiligen 3GB Gral irgendwann verschenken musst,
Ich dachte du kennst HisNs Thread? Was haben die Pixel mit dem Vram Verbrauch zu tun? In dem Test hier kommt kein einziger HD Textur Mod vor oder anderes Zeug das noch mehr Vram Frisst. Mit 1,3GB Vram hat ein TRI-SLI Setup faktisch keine Chance auch nur in die Nähe einer 3GB GTX 580 zu kommen. Wenn man konsequent die Bildqualität runter dreht hat man natürlich mehr FPS. Aber das ist ja wohl lächerlich bei so einem System irgend was runter drehen zu müssen bzw. auf hochwertige Texturen verzichten zu müssen. Noch dazu ist TRI-SLI ein ganz andere Sorte SLI als nur mit 2 Karten wie hier getestet. Da sind die Nachteile ja nochmal stärker ausgeprägt. Insofern kann man multi GPU gar nicht mit single GPU Karten vergleichen, genau so wie das auch PCGH macht. Guggst du hier: https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/page-47#post-9243273Wenn man jetzt noch einen anständigen Monitor mit einer geringen Pixeldichte fährt, dann sieht die Welt schon wieder ganz anders aus.
Das Argument "hätte man ja schon vor Jahren TRI-SLI mit der 8800 GTX machen können" ist also auch nix wert. Da vertrau ich voll und ganz den Erfahrungen von HisN/y33h@/CB/PCGH/allgemein Leute die sich richtig gut auskennen und das jeden Tag testen können.
Also meine Karte wird so kühl wie möglich fahren und daher die Performance per Watt einer HD 6870 erreichen. (und sogar noch weit drüber wenn der Vram Vorteil zum Tragen kommt, TRI-SLI geht das nicht oder nur schlecht per Wakü) Noch dazu funktioniert ja der Idle Mode, was bei GF8 und HD 4 ja nicht der Fall war. Dazu kommt noch das Fermi eine extrem effiziente GPGPU Karte ist und im Forschungsbereich kräftig eingesetzt wird. Also eher "Anti-Klima-Erwärmungs-Karte"als Langzeithalter einer "Anti Klima Karte".
Das ist wohl das Hauptproblem von multi-GPU Usern. Die leben in ihrer eigenen Welt und haben keinen direkten Vergleich. Würde man ständig ein besseres single GPU System daneben aufbauen und dann zeigen was möglich ist, dann würde das ganz anders ausschauen. Aber es ist wie einer schon sagte, wenn man besseren Wein nicht kennt, vermisst man ihn auch nicht. Die meisten bekommen ja nichtmal mit das ihre komplette Rohleistung gar nicht genutzt werden kann bzw. in Bildqualität umgewandelt werden kann. Da sind dann die hohen FPS und Balken wichtiger. Und genau dafür wurde SLI und CF auch entwickelt. Extrem hohe FPS und Balken. Und das ist Fakt.Hab dann so ne gleichstarke HD4850 512MB gewonnen (ja gewonnen ), eingebaut... Zwar immer noch um die gute 50FPS aber es fühlt sich doch viel viel besser an. ^^
Leider auf kosten der µRuckler, ich geh mal davon aus das man bei einer so guten Skalierung mehr µRuckler in Kauf genommen hat, extra um "besser" "länger" dastehen zu können. NV wird wahrscheinlich durch das bekämpfen der µRuckler Leistung einbüßen. Also AMD loben ist in dem Fall eher kontraproduktiv. Noch dazu sagen sie ja selber seit Jahren das µRuckler total unwichtig sind und gar nicht gefixed werden müssen. Gerade zu unglaubliche Aussage bei so teuren Systemen. Das einzige was man loben muss ist die Skalierung "mit allen nach rechts Settings" durch den 2GB Vram in der Referenz.Erstaunlich wie viel AMD in letzter Zeit an der Skalierung gearbeitet hat.
Zuletzt bearbeitet:
vitel09
Lieutenant
- Registriert
- Juli 2010
- Beiträge
- 673
Hallo, also hat AMD ziemlich aufgeholt! Bessere Energie Verbrauch bei gleicher oder bessere Leistung. Besseres Preis Leistung! Aber natürlich etwas mehr Micro ruckler!
Sagt mal computerbase?
Wer ich in meinem leben bei euch mal ein Test lesen der AMD bei CPU oder GPU einen Test gegen Intel oder NVIDIA gewinnt?
Hoffe ich erlebe dies mal hier!
Gruß
Sagt mal computerbase?
Wer ich in meinem leben bei euch mal ein Test lesen der AMD bei CPU oder GPU einen Test gegen Intel oder NVIDIA gewinnt?
Hoffe ich erlebe dies mal hier!
Gruß
Neo_Xsendra
Lieutenant
- Registriert
- Sep. 2009
- Beiträge
- 809
vitel09 schrieb:Hallo, also hat AMD ziemlich aufgeholt! Bessere Energie Verbrauch bei gleicher oder bessere Leistung. Besseres Preis Leistung! Aber natürlich etwas mehr Micro ruckler!
Sagt mal computerbase?
Wer ich in meinem leben bei euch mal ein Test lesen der AMD bei CPU oder GPU einen Test gegen Intel oder NVIDIA gewinnt?
Hoffe ich erlebe dies mal hier!
Gruß
https://www.computerbase.de/2009-09/test-ati-radeon-hd-5870/29/#abschnitt_fazit
https://www.computerbase.de/2010-04/test-nvidia-geforce-gtx-470/25/#abschnitt_fazit
lies und schweig -.^
O
OldDirtyBastard
Gast
@Wolfgang
sei mir bitte nicht böse, aber ich kann deine argumentation was denn treiber angeht nicht verstehen. den treiber, den ihr für denn test genutzt habt spiegelt nicht das wieder was die hd 6900er karten leisten werden, wenn der 11.1 kommt. es fehlen die passenden profile die man optimieren kann( gerade für cf ), sowie etliche andere optimierungen der hd 6900er und das ist leider so. ich fahre mittlerweile sehr lange mit cf und weis wovon ich rede, und ich weis auch was die profile alles verbessern.ich benutze immer die neusten treiber mit profilen, aber nie vorab treiber oder RC müll den da sind keine profile vorhanden die man nutzen kann!!!
sei mir bitte nicht böse, aber ich kann deine argumentation was denn treiber angeht nicht verstehen. den treiber, den ihr für denn test genutzt habt spiegelt nicht das wieder was die hd 6900er karten leisten werden, wenn der 11.1 kommt. es fehlen die passenden profile die man optimieren kann( gerade für cf ), sowie etliche andere optimierungen der hd 6900er und das ist leider so. ich fahre mittlerweile sehr lange mit cf und weis wovon ich rede, und ich weis auch was die profile alles verbessern.ich benutze immer die neusten treiber mit profilen, aber nie vorab treiber oder RC müll den da sind keine profile vorhanden die man nutzen kann!!!
Zuletzt bearbeitet:
Schöner Test, vor allem die Verlaufsdiagramme aus den Frametimes für Mikroruckler. Die sind imo sehr aussagekräftig für Leute, die empfindlich auf FPS (bzw. Frametime-)Schwankungen reagieren.
Auf den ersten Blick scheinen Mikroruckler nicht nur Hersteller-, sondern auch Engine-abhängig zu sein, die Kurve für Stalker verläuft ja fast schon seitwärts.
Vielleicht kann man ja auch eine Kennzahl für Mikroruckler ableiten ... Standardabweichung der Frametimes bzw. daraus abgeleiteten Frameraten - für ein Mikroruckler-Rating
Auf den ersten Blick scheinen Mikroruckler nicht nur Hersteller-, sondern auch Engine-abhängig zu sein, die Kurve für Stalker verläuft ja fast schon seitwärts.
Vielleicht kann man ja auch eine Kennzahl für Mikroruckler ableiten ... Standardabweichung der Frametimes bzw. daraus abgeleiteten Frameraten - für ein Mikroruckler-Rating
Jesterfox
Legende
- Registriert
- März 2009
- Beiträge
- 44.484
@OldDirtyBastard: nur wie soll man mit einem Treiber benchen den es noch gar nicht gibt? Oder hätte CB noch länger warten sollen mit dem Test und wenn ja, wie lange? ich mein 11.2 ist sicherlich nochmal besser als 11.1, von daher wäre es unfair mit 11.1 zu benchen...
Ich hab jedenfalls schon auf so einen Test gewartet, um zu sehen, was ein CF leistet... auch wenn ich mir nicht sicher bin ob ich mich nochmal (nach meinen 2 3870ern) auf sowas einlassen will... damals war auch nicht alles so wie es sein sollte... wobei mein größtes Problem vermutlich der fehlende VRAM der Karten war, das hätte ich bei den 69x0 zum Glück ja nicht.
Ich hab jedenfalls schon auf so einen Test gewartet, um zu sehen, was ein CF leistet... auch wenn ich mir nicht sicher bin ob ich mich nochmal (nach meinen 2 3870ern) auf sowas einlassen will... damals war auch nicht alles so wie es sein sollte... wobei mein größtes Problem vermutlich der fehlende VRAM der Karten war, das hätte ich bei den 69x0 zum Glück ja nicht.
CD
Rear Admiral
- Registriert
- Mai 2010
- Beiträge
- 5.733
terraconz schrieb:(...)
Ich verstehe nicht warum immer noch so sehr an AFR festgehalten wird obwohl bessere Methoden bekannt sind die auch das Mikroruckler Problem beseitigen könnten.
AFR ist halt die einfachste Methode und dementsprechend wahrscheinlich sehr leicht zu implenentieren. Grafikkarte 1 macht alle ungeraden Bilder und Grafikkarte 2 alle geraden, anschließend wird abwechselnd jeweils ein Bild jeder Grafikkarte am Ausgang dargestellt. Hört sich zumindest in der Theorie ziemlich einfach an.
Wenn man dagegen ein einzelnes Bild von beiden Karten berechnen lassen will, muss man es erstmal geschickt aufteilen, so dass beide Karten etwa gleichmäßig viel zu tun bekommen: man denke an ein Rennspiel wo die obere Bildhälfte beispielsweise nur aus Himmel besteht und ziemlich einfach zu berechnen ist, während die untere Bildhälfte die ganzen Autos, Rennstrecke und so weiter enthält und dementsprechend mehr Aufwand bei der Berechnung benötigt. Sollte man dieses Problem gelöst haben*, so müssen die Bildhälften (oder bei mehr als zwei Karten dann Bilddrittel, -viertel usw.) anschließend wieder korrekt zusammengesetzt werden, bevor das Bild dargestellt wird. Außerdem könnten unter Umständen Inhalte aus der einen Bildhälfte für die Berechnung der zweiten Bildhälfte notwendig sein (Objekt aus der oberen Hälfte wirft Schatten in die untere Hälfte und so was). Kantenglättung kann im schlimmsten Fall dann nur eine Grafikkarte machen, da man dafür das komplette Bild braucht, bzw. der Trennbereich müsste überlappend von beiden Karten berechnet und geglättet werden. AF wird wahrscheinlich ähnlich schwierig aufzuteilen sein...
Die Anzahl Kunden mit SLI/Crossfire Systemen wird wahrscheinlich auch einfach so gering sein (sowohl aus Sicht der Grafikkartenhersteller als auch aus Sicht der Publisher), dass man in dessen Support nicht wirklich richtig viel Geld reinbuttern will.
*idealerweise muss die Aufteilung vor jedem Bild neu berechnet werden, also sie ein mal auf einen festen Wert zu setzen bringt auch nur bedingt etwas.
Zuletzt bearbeitet:
O
OldDirtyBastard
Gast
@Jesterfox
genau warten und nicht vorschnell ein falsches bild auf ein produkt werfen! der 11.1 kann erst das volle potenzial der hd 6900er bringen.
und jetzt sag mir mal wie aussage kräftig der test für dich ist!?
meine beiden übertakteten hd 5770 kommen auf eine leistung die etwas höher ist wie bei der hd 5870 ca. kommt auch darauf an wie gut das spiel optimiert ist auf multi gpu. aber im großen und ganzen ist es einfach ein genuß. bin 100% von cf und sli überzeugt. ein kollege fährt sli mit 2 gtx 260 und das ist auch sehr fein!
genau warten und nicht vorschnell ein falsches bild auf ein produkt werfen! der 11.1 kann erst das volle potenzial der hd 6900er bringen.
und jetzt sag mir mal wie aussage kräftig der test für dich ist!?
meine beiden übertakteten hd 5770 kommen auf eine leistung die etwas höher ist wie bei der hd 5870 ca. kommt auch darauf an wie gut das spiel optimiert ist auf multi gpu. aber im großen und ganzen ist es einfach ein genuß. bin 100% von cf und sli überzeugt. ein kollege fährt sli mit 2 gtx 260 und das ist auch sehr fein!
rumpel01
Fleet Admiral
- Registriert
- März 2006
- Beiträge
- 26.686
es fehlen die passenden profile die man optimieren kann( gerade für cf ), sowie etliche andere optimierungen der hd 6900er und das ist leider so.
Und wegen der "fehlenden Profile" ergeben sich hier im Durchschnitt 80% Skalierung bei CF-Nutzung? Sorry, aber die Ergebnisse sprechen eine andere Sprache.
GaBBa-Gandalf
The Overclocker
- Registriert
- März 2001
- Beiträge
- 5.675
Passend zum Test...
Ich habe gestern eine zweite 5850 in das System eingebaut. Es ist quasi das erste mal, dass ich 2 Grafikkarten im PC habe
Was soll ich sagen? Ich bin erstaunt, wie stabil das Ganze läuft. MicroRuckler konnte ich bisher nicht feststellen, aber meine fps liegen auch immer zw. 100 und 300 - je nach Spiel.
BF BC2, Dirt2 oder auch COD BO - alles läuft prima. Ich benutze allerdings keine CAPs von AMD.
PS zum Thema MicroRuckler...
Diese gab es damals bei 3dfx nicht - da hatte man auch das "wahre" SLI genutzt - Scan Line Interleave
Nach über 10 Jahren schaffen AMD & nVidia es nicht diese Technik zu nutzen - Respekt!
Ich habe gestern eine zweite 5850 in das System eingebaut. Es ist quasi das erste mal, dass ich 2 Grafikkarten im PC habe
Was soll ich sagen? Ich bin erstaunt, wie stabil das Ganze läuft. MicroRuckler konnte ich bisher nicht feststellen, aber meine fps liegen auch immer zw. 100 und 300 - je nach Spiel.
BF BC2, Dirt2 oder auch COD BO - alles läuft prima. Ich benutze allerdings keine CAPs von AMD.
PS zum Thema MicroRuckler...
Diese gab es damals bei 3dfx nicht - da hatte man auch das "wahre" SLI genutzt - Scan Line Interleave
Nach über 10 Jahren schaffen AMD & nVidia es nicht diese Technik zu nutzen - Respekt!
Zuletzt bearbeitet:
mace1978
Lt. Commander
- Registriert
- Mai 2008
- Beiträge
- 1.174
Es schon interessant, welche Weisheiten aus dem Artikel gelesen werden.....
Den NVs geht der VRam ständig aus....da frag ich mich doch, wenn dem so ist warum skaliert sowohl die 570 als auch die 580 von 4x --> 8x im Gesamtrating besser. Je höher die Auflösung, desto besser skalieren die Karten. [Auch wenn bei einigen Spielen tatsächlich das Gegenteil passiert]
Bei Ati gilt sogar, dass die Skalierung von 1920x1200 4xAA/16xAF bis 2560x1600 8xAA/16xAF, von Schritt zu Schritt zulegt.
Also entweder werden die Grafikkarten massivst vom System begrenzt, oder die Grafikkarten haben einfach keinen Bock weit über 100 FPS zu berechnen, obwohl der Monitor sie garnicht darstellen kann. Vielleicht wird da tatsächlich mal versucht Strom zu sparen.
Es sollte wohl jedem einleuchten, dass eine zweite identische Karte nicht mehr als 100% Bonus geben kann.
Warum man sich nicht auch mal mit solchen Fragen beschäftigt.....
Ich bin klar für ein benchen mit Vsync an....was bringt es wenn das Bild welches man für 16 ms(o.ä.) auf dem Monitor zusehen bekommt schon aus 3 Teilbildern besteht?
Den NVs geht der VRam ständig aus....da frag ich mich doch, wenn dem so ist warum skaliert sowohl die 570 als auch die 580 von 4x --> 8x im Gesamtrating besser. Je höher die Auflösung, desto besser skalieren die Karten. [Auch wenn bei einigen Spielen tatsächlich das Gegenteil passiert]
Bei Ati gilt sogar, dass die Skalierung von 1920x1200 4xAA/16xAF bis 2560x1600 8xAA/16xAF, von Schritt zu Schritt zulegt.
Also entweder werden die Grafikkarten massivst vom System begrenzt, oder die Grafikkarten haben einfach keinen Bock weit über 100 FPS zu berechnen, obwohl der Monitor sie garnicht darstellen kann. Vielleicht wird da tatsächlich mal versucht Strom zu sparen.
Es sollte wohl jedem einleuchten, dass eine zweite identische Karte nicht mehr als 100% Bonus geben kann.
Warum man sich nicht auch mal mit solchen Fragen beschäftigt.....
Ich bin klar für ein benchen mit Vsync an....was bringt es wenn das Bild welches man für 16 ms(o.ä.) auf dem Monitor zusehen bekommt schon aus 3 Teilbildern besteht?
Jesterfox
Legende
- Registriert
- März 2009
- Beiträge
- 44.484
Jep, für mich sagt der Test was von 80%... wie soll das erst mit dem 11.1 werden... 120% Skalierung?
Ansonsten hab ich bisher von ATI noch keine Ankündigung gesehen dass sie die MR angehen wollen... das Problem bleibt also auch weiterhin.
Jetzt muss ich aber erst mal abwarten, falls wirklich mein Mainboard defekt ist wird eh so schnell nix aus nem CF... :-(
Ansonsten hab ich bisher von ATI noch keine Ankündigung gesehen dass sie die MR angehen wollen... das Problem bleibt also auch weiterhin.
Jetzt muss ich aber erst mal abwarten, falls wirklich mein Mainboard defekt ist wird eh so schnell nix aus nem CF... :-(
Ähnliche Themen
- Antworten
- 938
- Aufrufe
- 249.507