Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Quad-CrossFire: Zwei Radeon HD 5970 mit gleich vier GPUs im Test
- Ersteller Wolfgang
- Erstellt am
- Zum Test: Quad-CrossFire: Zwei Radeon HD 5970 mit gleich vier GPUs im Test
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Mal schaun wann ATi Mikroruckler endlich als Problem akzeptiert und dagegen vorgeht. Sobald man mehr als eine GPU will muss man ja NVIDIA nehmen, bei ATi ist das ja teilweise ne echte Katastrophe.
Falls sich einer fragt warum es immer noch 100% µRuckler gibt bei ATI, die werden bei AMD nicht gefixed bzw. nicht wahr genommen, weil sie ja die besseren Treiber haben, also warum sollte man da auch Millionen in die Treiberabteilung stecken, wenn man sowieso schon der beste ist? http://www.pcgameshardware.de/aid,7...-besser-als-Geforce-Treiber/Grafikkarte/News/
So das sind mal harte Fakten die von AMD kommen! Jetzt wisst ihr bescheid...
Motkachler
Lt. Commander
- Registriert
- Sep. 2004
- Beiträge
- 1.563
NV hat mit dem Treiber sogar das problem das gar nix geht.
http://www.hardwareluxx.de/community/showthread.php?t=683958
Der test zeigt jedenfalls das sich quad Crossfire nicht lohnt.
Genausowenig wie quad SLI
http://www.hardwareluxx.de/community/showthread.php?t=683958
Der test zeigt jedenfalls das sich quad Crossfire nicht lohnt.
Genausowenig wie quad SLI
Zuletzt bearbeitet:
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Man sieht immer noch das Grundproblem.
Erst zig Seiten lustige "Performancfevergleiche", was anderes macht eine Grafikkarte ja nicht aus , und dann im Kleingedruckten die Warnung "Finger weg".
Es ist gut, das ihr vor unbrauchbaren Produkten warnt, aber irgendwie erschliesst sich der Sinn der vorausgehenden "Leistungsbetrachtung" nicht.
Es ist ja eine schöne Erkenntnis, das 2x soviel Leistung in 36% mehr FPS münden. Aber die leseschwachen Leser schauen nur darauf.
Eine Schlussbemerkung noch:
Wenigstens bei diesem Test hätte man vom üblichen Testaufbau abweichen können und sinnvolle Schalter wie AAA betätigen können, bevor man den Leser mit 100FPS Anzeigen beeindruckt.
Erst zig Seiten lustige "Performancfevergleiche", was anderes macht eine Grafikkarte ja nicht aus , und dann im Kleingedruckten die Warnung "Finger weg".
Es ist gut, das ihr vor unbrauchbaren Produkten warnt, aber irgendwie erschliesst sich der Sinn der vorausgehenden "Leistungsbetrachtung" nicht.
Es ist ja eine schöne Erkenntnis, das 2x soviel Leistung in 36% mehr FPS münden. Aber die leseschwachen Leser schauen nur darauf.
Eine Schlussbemerkung noch:
Wenigstens bei diesem Test hätte man vom üblichen Testaufbau abweichen können und sinnvolle Schalter wie AAA betätigen können, bevor man den Leser mit 100FPS Anzeigen beeindruckt.
Danke für den schönen Test,
aber witzig finde ich es schon, dass ihr euch die Mühe macht und jetzt nochmals gleich 2 5970 durch den Batman-Bench mit GPU-Physx schickt. Das CPU-Limit in dieser Anwendung (21FPS) habt ihr schon ein paar mal ausgemessen.
Gruß
Raubwanze
PS:
Nunja man kann da auch 4 fiktive HD6990 ohne Physx-Unterstützung reinstecken, und es bleibt trotzdem bei 21FPS...
Die CPU schafft halt net mehr.
aber witzig finde ich es schon, dass ihr euch die Mühe macht und jetzt nochmals gleich 2 5970 durch den Batman-Bench mit GPU-Physx schickt. Das CPU-Limit in dieser Anwendung (21FPS) habt ihr schon ein paar mal ausgemessen.
Gruß
Raubwanze
PS:
XRJPK schrieb:Die Performance bei Batman Arkham Asylum is der Brüller ^^ Da haben doch die Entwickler was gedreht, oder warum sind ALLE Ati Karten nahezuegal wieviel leistung sie bezitzen konstant schlecht ? ^^
Nunja man kann da auch 4 fiktive HD6990 ohne Physx-Unterstützung reinstecken, und es bleibt trotzdem bei 21FPS...
Die CPU schafft halt net mehr.
Zuletzt bearbeitet:
- Registriert
- Feb. 2008
- Beiträge
- 1.033
Was lern man aus so einem Test wieder?
Richtig, Multi-GPU Systeme sind nur zum Benchen da denn wie hier wieder schön zu sehen bringt die doppelte GPU-Anzahl nur ca. 40% Mehrleistung, im Schnitt zumindest (5870 +40% = 5970 +40% = 5970CF) und abgesehen von den Microrucklern (die sind aber beim Benchen wieder egal )
Richtig, Multi-GPU Systeme sind nur zum Benchen da denn wie hier wieder schön zu sehen bringt die doppelte GPU-Anzahl nur ca. 40% Mehrleistung, im Schnitt zumindest (5870 +40% = 5970 +40% = 5970CF) und abgesehen von den Microrucklern (die sind aber beim Benchen wieder egal )
Motkachler
Lt. Commander
- Registriert
- Sep. 2004
- Beiträge
- 1.563
Viel interessanter wäre es gewesen bei Batman Physx abzuschalten um dann zu sehen was die karten bringen.
Nettes Spielzeug. Wer unmenge von Geld hat und nicht weiß, was er damit machen soll. ist er hiermit wohl richtig.
Für 35% Leistungssteigerung würde ich nie im Leben 600€ extra bezahlen. Und es ist ja wohl vollkommen egal, ob man mit 100 FPS oder 140 FPS spielt. (Crysis mal rausgenommen)
Dazu dieser extremer Geräuschpegel. Das wäre echt Mord für meine Ohren.
Da sollte es doch einen guten Alternativkühler geben.
Für 35% Leistungssteigerung würde ich nie im Leben 600€ extra bezahlen. Und es ist ja wohl vollkommen egal, ob man mit 100 FPS oder 140 FPS spielt. (Crysis mal rausgenommen)
Dazu dieser extremer Geräuschpegel. Das wäre echt Mord für meine Ohren.
Da sollte es doch einen guten Alternativkühler geben.
Zuletzt bearbeitet:
Frankieboy
Lieutenant
- Registriert
- Jan. 2010
- Beiträge
- 843
Die wirtschaftliche Sinnhaftigkeit solcher Karten ist von vornherein doch entschieden. Eben deshalb sind die Karten nur für Sammler, Extrem-Enthusiasten oder FPS-Jäger interessant. Das gleiche gilt im Prinzip doch für alle "Enthusiasten"-Ausbaustufen, egal ob Prozessoren, Speicher, oder eben Grafikkarten.
Wer sich blauäugig eine solche Ausbaustufe zulegt, vielleicht verlockt durch Werbung und dem Prestige, mal das "Beste" am Markt zu besitzen, darf sich nicht wundern, wenn seine Top-Karte in zwei, drei Jahren von einem Modell überholt wird, welches die Hälfte kostet und das Doppelte leistet (von neuen Features wie z.B. Eyefinity mal ganz abgesehen). Spätestens dann verkehrt sich das Prestige ins Gegenteil, man ist einer der Narren, die sich ein solches Teil haben aufschwatzen lassen, mit all den damit verundenen Nachteilen wie Stromverbrauch, Mikrorucklern, Platzbedarf etc.
Gut tut derjenige, der bei der Auswahl von Equipment sein Augenmerk auf die Preis-Leistung-Indizes wirft. Betriebswirtschaftlich wird dieser Sachverhalt als Grenzkostenkurve bezeichnet, also wieviel Mehrwert bringt ein mehr investierter Euro. Ab einem bestimmten Punkt macht es kaum mehr Sinn, einen Euro mehr zu investierten, weil der mehr investierte Euro kaum noch einen Mehrnutzen bringt. Ein Verbraucher, der so handelt, wird zwar nie 100% der Spitzenleistung erreichen, sondern z.B. 75%, dafür jedoch auch nur durchschnittliche Kosten haben. Ratsam für alle, die nicht unbegrenzt über wirtschaftliche Mittel verfügen.
Wer sich blauäugig eine solche Ausbaustufe zulegt, vielleicht verlockt durch Werbung und dem Prestige, mal das "Beste" am Markt zu besitzen, darf sich nicht wundern, wenn seine Top-Karte in zwei, drei Jahren von einem Modell überholt wird, welches die Hälfte kostet und das Doppelte leistet (von neuen Features wie z.B. Eyefinity mal ganz abgesehen). Spätestens dann verkehrt sich das Prestige ins Gegenteil, man ist einer der Narren, die sich ein solches Teil haben aufschwatzen lassen, mit all den damit verundenen Nachteilen wie Stromverbrauch, Mikrorucklern, Platzbedarf etc.
Gut tut derjenige, der bei der Auswahl von Equipment sein Augenmerk auf die Preis-Leistung-Indizes wirft. Betriebswirtschaftlich wird dieser Sachverhalt als Grenzkostenkurve bezeichnet, also wieviel Mehrwert bringt ein mehr investierter Euro. Ab einem bestimmten Punkt macht es kaum mehr Sinn, einen Euro mehr zu investierten, weil der mehr investierte Euro kaum noch einen Mehrnutzen bringt. Ein Verbraucher, der so handelt, wird zwar nie 100% der Spitzenleistung erreichen, sondern z.B. 75%, dafür jedoch auch nur durchschnittliche Kosten haben. Ratsam für alle, die nicht unbegrenzt über wirtschaftliche Mittel verfügen.
Tamiya_Fan
Ensign
- Registriert
- Aug. 2009
- Beiträge
- 179
@Stromverbrauch:
Ich finde dieses ewige Gejammer über den Stromverbrauch bei solchen Karten wie es Die 5970 ist einfach nur nervend.
Egal ob es bei ATI ist oder ob beim angeblichen Stromverbrauch der neuen NVidia's.
Wenn ich mir einen Bugatti Veyron Leisten kann (Das Gespann aus zwei 5970 ist ja das schnellste was man sich kaufen kann und eine Veyron ist das schnellste Auto was in Serie produziert wird) dann muss ich auch mit den Spritverbrauch klar kommen.
So finde ich es unangebracht bei solchen Karten über den Stromverbrauch zu klagen. Ich weiß, jetzt kommen wieder diejenigen die meinen das man auf den Strom/Sprit verbrauch heutzutage achten muss. JA gerne dann kauft euch einen Lupo mit 3L verbrauch auf 100km oder halt eine 5670. ABER BITTE fangt dann nicht an zu weinen wenn ihr nicht genug Leistung zum spielen habt.
Natürlich kann man jetzt über Energieeffizienz Diskutieren, dazu muss man aber dann genau wissen was die Karte wirklich rein an Leistung in Form von Wärme abgibt und man muss genau wissen was rein die Karte an Strom aufnimmt. Ich rede jetzt nicht von Herstellerangaben oder vom TDP o.ä. sondern man muss das selber im Test ermitteln und das sprengt ja wohl jeden Rahmen. Ich möchte jetzt nicht die Leute von CB kritisieren die einen wirklich SUPER Job machen!!!!!
So......
Es soll sich jetzt bitte niemand beleidigt fühlen. Dieser Post richtet sich an NIEMANDEN direkt sondern ist meine Meinung.
Man könnte dieses Thema sicherlich in einen eigenen Thread diskutieren jedoch wollte ich nicht unnötige Spam Threads erstellen wenn es dann niemanden Interessiert.
Sollte es aber gewünscht werden erstelle ich einen und lösche dann diesen Post.
Ich finde dieses ewige Gejammer über den Stromverbrauch bei solchen Karten wie es Die 5970 ist einfach nur nervend.
Egal ob es bei ATI ist oder ob beim angeblichen Stromverbrauch der neuen NVidia's.
Wenn ich mir einen Bugatti Veyron Leisten kann (Das Gespann aus zwei 5970 ist ja das schnellste was man sich kaufen kann und eine Veyron ist das schnellste Auto was in Serie produziert wird) dann muss ich auch mit den Spritverbrauch klar kommen.
So finde ich es unangebracht bei solchen Karten über den Stromverbrauch zu klagen. Ich weiß, jetzt kommen wieder diejenigen die meinen das man auf den Strom/Sprit verbrauch heutzutage achten muss. JA gerne dann kauft euch einen Lupo mit 3L verbrauch auf 100km oder halt eine 5670. ABER BITTE fangt dann nicht an zu weinen wenn ihr nicht genug Leistung zum spielen habt.
Natürlich kann man jetzt über Energieeffizienz Diskutieren, dazu muss man aber dann genau wissen was die Karte wirklich rein an Leistung in Form von Wärme abgibt und man muss genau wissen was rein die Karte an Strom aufnimmt. Ich rede jetzt nicht von Herstellerangaben oder vom TDP o.ä. sondern man muss das selber im Test ermitteln und das sprengt ja wohl jeden Rahmen. Ich möchte jetzt nicht die Leute von CB kritisieren die einen wirklich SUPER Job machen!!!!!
So......
Es soll sich jetzt bitte niemand beleidigt fühlen. Dieser Post richtet sich an NIEMANDEN direkt sondern ist meine Meinung.
Man könnte dieses Thema sicherlich in einen eigenen Thread diskutieren jedoch wollte ich nicht unnötige Spam Threads erstellen wenn es dann niemanden Interessiert.
Sollte es aber gewünscht werden erstelle ich einen und lösche dann diesen Post.
S
Smulpa2k
Gast
Die Hersteller sollten mal erstmal das Mikroruckeln beseitigen, bevor sie ernsthaft versuchen anspruchsvoller Anwender zu überzeugen, damit meine ich nicht die 14Jährigen Kinder die es einfach nur "Geil" finden eine schöne bunte Plastikkarte in ihrem leuchtenden Gehäuse laufen zu haben. Oder am besten gleich 10 davon...
D
Drebin 893
Gast
Da kann man den MoRa2 abhängen und das Sys. an die Heitzung anschließen
(WaKü vorausgesetzt)
(WaKü vorausgesetzt)
S
Swissjustme
Gast
mal schauen, was mit dem neusten Treiber verändert wird. Da gabs ja einige Änderungen bzgl. CF.
Aber wie dem auch sei: Ein CF aus mehr als 2-Gpu's ist wohl (leider) kaum sinnvoll. Da muss man sich wohl noch auf die 5890 gedulden und diese im CF-Betrieb laufen lassen.
So oder so ist sowohl CF als auch SLI sind Dinge für absolute Enthusiasten oder Unwissende, die zu viel Geld haben:
Zu teuer und nach einem haben Jahr absolut wertlos (Die GTX 295 erschien im Januar, und bereits im September wurde sie von der 5870 verdrängt. Wer hätte im September noch die gtx 295 gekauft? ).
Aber wie dem auch sei: Ein CF aus mehr als 2-Gpu's ist wohl (leider) kaum sinnvoll. Da muss man sich wohl noch auf die 5890 gedulden und diese im CF-Betrieb laufen lassen.
So oder so ist sowohl CF als auch SLI sind Dinge für absolute Enthusiasten oder Unwissende, die zu viel Geld haben:
Zu teuer und nach einem haben Jahr absolut wertlos (Die GTX 295 erschien im Januar, und bereits im September wurde sie von der 5870 verdrängt. Wer hätte im September noch die gtx 295 gekauft? ).
Zuletzt bearbeitet:
Fairy Ultra
Commander
- Registriert
- Sep. 2005
- Beiträge
- 2.850
Drebin 893 schrieb:Da kann man den MoRa2 abhängen und das Sys. an die Heitzung anschließen
(WaKü vorausgesetzt)
was den stromverbrauch wieder relativert, jedenfalls im Winter
SoEvilicious
Lt. Commander
- Registriert
- Aug. 2007
- Beiträge
- 1.441
Bin ich der einzige der sich über den Crysis Bench. wundert?
milamber!
Commander
- Registriert
- Dez. 2004
- Beiträge
- 2.260
Kasmopaya schrieb:Es bleibt aber trotzdem ein schlechtes Gespann für die meisten Programme, bzw. ATI hat ja nicht so Interesse an GPGPU da will AMD lieber CPUs verkaufen die mehr Gewinn abwerfen.
Unfug - der Vorwurf, Nvidia würde in PhysX CPUs nicht adäquat unterstützen hat absolut nichts mit damit zu tun, das sie - allen vorran - ihre CPUs öfter verkaufen wollen.
Es geht schlicht um die Tatsache, das Besitzer einer Grafikkarte von ATI/AMD nicht benachteiligt werden sollen, in Anwendungen die propritäre Lösungen nutzen, wie auf Hardware beschleunigtes PhysX basierende Spiele dies tun.
Kasmopaya schrieb:Und mein Vergleich bezog sich eher auf Folding@Home, so ein Gespann ist da zwar effizienter als jede CPU, aber gegen NV Systeme dann wieder ineffizient, daher auch nicht für GPGPU die 1. Wahl.
Das ist eine von vielen Anwendungen. Und die schlechtere Skalierung bzw. Performance der ATI Karten liegt schlicht in der Umsetzung. Es ist nicht wahr Anhand dessen zu Behaupten, die GPU Performance unter ATI wäre generell nicht ebenbürtig, wie man an anderen Anwendungen sehen kann, wo man mit ATI Stream gleiche oder bessere Leistungen erziehlen kann, wie z.B. hier zu sehen;
http://www.tomshardware.com/de/ATi-Stream-AMD-gpgpu,testberichte-240350-8.html
http://www.xup.in/pic,71490865/gpucpubrute2.jpg
Kasmopaya schrieb:Hier mal das offizielle Statement warum GPGPU nicht so gefördert wird bei AMD: http://www.pcgameshardware.de/aid,7...vor-Update-Nvidia-Statement/Grafikkarte/News/
In dem Link steht doch überhaupt nichts darüber, das oder warum GPGPU bei AMD nicht gefördert wird.
AMD wirft Nvidia im von dir verlinkten Beitrag vor, sie würden die CPU in GPU beschleunigten PhysX Anwendungen nicht optimieren, um mit jenen die Performance zu erreichen die möglich wäre (und zu Ageia zeiten möglich war).
Sowohl man auf ATIs Seite diesen (wahrscheinlich berechtigten) Vorwurf verstehen kann, da dies für den KUNDEN einen Nachteil bedeutet, ist er ebenso auf Seiten von Nvidia nachvollziehbar, da sie von einer guten CPU Performance in GPU PhysX nicht profitieren.
Doch das ist keine Entschuldigung, und der Grund warum ein propritäres PhysX keine Zukunft hat, und vor allem keine Zukunft haben darf.
Dieser Test von Toms Hardware zeigt doch deutlich, das die CPU sich an den Füßen spielt;
http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html
Die CPU tut fast gar nichts.
Das Nvidia sich mit einer Mehrkernunterstützung in 3D Mark Vantage entschuldigt ist echt peinlich, da würden sie sich ja selbst ins Knie schießen.
Die mehrfach vorgebrachte Erkärung, sie hätten in der SDK nichts verändert, das CPUs schlechter auslastet und skalieren lässt war auch überhaupt nicht der Vorwurf; es geht um die schlicht nicht vorhandene Optimierung.
ATI hat Stream mehr oder minder zurück gefahren oder eingestellt, um den Fokus auf OpenCL und Direct Compute zu setzen. Denn Stream ist wie Cuda eine propritäre Lösung, und das Entwickeln auf jeweils einer nützt dem Kunden nicht viel.
Ebenso ist es nicht im Interesse für den Kunden, was Nvidia (oder die Spieleentwickler) aus PhysX machen; das aufbohren auf einem Level, das selbst der Besitz einer performanten Nvidia Karte nicht mehr ausreicht sieht man doch Grandios an Dark Void - das wird total am Kunden vorbei entwickelt. Das Beispiel ist "Epic Fail".
Also höre doch bitte auf in jedem Thread mit dem CUDA / Physx Thema anzufangen.
Kozack
Commander
- Registriert
- Okt. 2008
- Beiträge
- 2.557
hier leute^^ ich hab jetzt öfter gelesen das die gtx295 immer so downgeredet wird das problem dabei ist nunmal das die karte schon mehr als 1 jahr auf dem buckel hat. Da ist es wohl mehr als verständlich das sie eine geringere leistung hat wie die 5970ger. Und da das ja eig. nur 2x gtx260 ist hat sich schon geschlagene 1 1/2 jahre aufm buckel
doch was echt ärgerlich für ATI-liebhaber sein muss ist echt diese problem mit den µR. D.h: jeder ATI-benutzer muss ja schon fast zwingend zu nvidia greifen wenn es mehr wie 1 gpu sein soll. Das problem mit den µR ist jetzt schon solange bekannt, doch es wird anscheind nichts unternommen? wieso nicht?
mfg. Kozack
doch was echt ärgerlich für ATI-liebhaber sein muss ist echt diese problem mit den µR. D.h: jeder ATI-benutzer muss ja schon fast zwingend zu nvidia greifen wenn es mehr wie 1 gpu sein soll. Das problem mit den µR ist jetzt schon solange bekannt, doch es wird anscheind nichts unternommen? wieso nicht?
mfg. Kozack
Zuletzt bearbeitet:
D
Drebin 893
Gast
Ergänzung ()
"was den stromverbrauch wieder relativert, jedenfalls im Winter"
das würde die vorherschende Knappheit noch verschärfen ^^
G
gecan
Gast
@SoEvilicious,
meinste vll weil die 5870 über die GTX295/85 ist ?
tja ich sag mal dazu nur treiber zu treiber nent sich das und je nach sys ausweichungen
oder weil ein 100% mehr performance in QUAD CF drin ist bei 4AA ?
in den 10.1 könnt es wieder anderst ausehen
meinste vll weil die 5870 über die GTX295/85 ist ?
tja ich sag mal dazu nur treiber zu treiber nent sich das und je nach sys ausweichungen
oder weil ein 100% mehr performance in QUAD CF drin ist bei 4AA ?
in den 10.1 könnt es wieder anderst ausehen
Zuletzt bearbeitet:
milamber!
Commander
- Registriert
- Dez. 2004
- Beiträge
- 2.260
Unyu schrieb:Es ist gut, das ihr vor unbrauchbaren Produkten warnt, aber irgendwie erschliesst sich der Sinn der vorausgehenden "Leistungsbetrachtung" nicht.
Macht es mehr Sinn, den Artikel aus einer Seite bestehen zu lassen, darin von Microrucklern und teils schlechter bis nicht vorhandener Skalierung zu schreiben, ohne diese auch belegen zu können?
Was allerdings fehlt sind Frameverläufe, wo die Schwankungen aufgezeigt werden.