Test Test: ATi Radeon HD 5970

Nö, gerade World in Conflict ist kein Gegenbeispiel. Beim Sprung von 770 auf 900Mhz GPU bei gleichem Speichertakt nicht einmal 5% Leistungsplus.
 
Ihr solltet mal eure lahme QX9770-CPU @4 Ghz gegen etwas Stärkeres tauschen. ;)
Aber ich glaube, selbst ein i9 @ 5Ghz schafft das nicht ganz, da braucht es noch
PCIe3.0 12x und andere Spiele Engines, um das Potential auch aus zu spielen.
 
@Wolfgang
Zitat von Wolfgang:
Zitat von setnumbertwo:
und zum teil hab ich jetzt auch entdeckt, dass zwei 5850er im Crossfire im Schnitt gleichauf sind, wenn nicht gar besser! Und nach einer guten Verfügbarkeit allgemein günstiger.

Computerbase, habt ihr irgendwelche Richtlinien von AMD warum ihr das nicht gegenüber stellt?

Nur um zu beweisen, dass deine Unterstellung wie immer totaler Schwachsinn ist, hab ichdie Werte mal hinzu gefügt. Und denke vorher mal nach was du schreibst, denn langsam kann ich diese Angriffe nicht mehr ab.

Eine sehr freche Antwort von dir -.-
Ich habe nur normal gefragt ohne euch/dir direkt was zu unterstellen. Habe ja nicht gesagt, dass ihr das
mit Absicht macht, sondern vorher danach gefragt..(is ja nix neues, dass Hersteller Richtlinien festlegen) deswegen brauchst du mich auch nicht so anfahren.
Und wie sich nun raustellt sieht der Test mit meinem Vorschlag doch runder aus, oder nicht?

Wenn du die Kritik nicht mehr aushälst, dann solltest du vielleicht keine öffentliche Arbeit mehr leisten.
Ich fänds jedoch schade, weil ich diese schätze!

Ich verbleibe mit freundlichen Grüßen

@Schaffe89
Zitat von Schaffe89
Zitat von Lence_Laroo
Das von AMD angepriesene OC-Potenzial entpuppt sich in der Realität leider als sinnlos, da ja offensichtlich eine Bandbreitenlimitierung vorliegt bzw. das Taktpotenzial vom GDDR5 am Limit ist.

Es leigt keine Bandbreitenlimitierung vor. Eher eine Limitierung des CPU´s oder eine schlechte Skalierung von CF.
Selbst eine HD5870 ist in allen Tests niemals Bandbreiten-limitiert. Gab einige User Tests, die den Speichertakt entweder anhoben oder minimierten. Die Folge waren keine Performanceveränderungen.
DAs kann jetzt bei ner HD5970 wohl auch kaum der Fall sein, es ist mir auch rätselhaft wie CB darauf kommt.
725 zu 900mhz ist für eine Graka ein enormer Sprung. Soviel Übertaktungspotenzial ist äußerst selten.
Rund 25%.
DAs Gerede um die BAndbreite ist wiedermal eine Ente. Denn die Bandbreite einer einzelnen HD5870 wird durch übertaktung erreicht.
Eine HD5870 ist nicht Bandbreiten limitiert und lässt sich dementsprechend auch übertakten. Von daher kann die x2 gar nicht Bandbreiten limitiert sein. Schließlich hat sie dann die doppelte Bandbreite einer HD5870. Also kann die Bandbreite locker die zwei GPU´s versorgen.

Möglicherweise limitiert hier nicht die Bandbreite der Grafikkarte sondern die des PCIe-Slot am Mainboard?

@ alle die ein Vergleich mit 5870 im Crossfire sehen möchten:

das geht leider nicht, da Computerbase nur eine 5870 zur hand hat! Also hört mal auf immer danach zu fragen, das finde ich zum Beispiel lästig..
 
Zuletzt bearbeitet:
Mister79 schrieb:
Zusammen mit einer kleinen Geforce für Physik X und alles ist gut. Ist schon klar, dass dafür der (glaube) gestern vorgestellte Chipsatz vorhanden sein muss um beide Karten gleichzeitig betreiben zu können.

Frage hierzu: Geht das noch? ATi und Nvidia gekoppelt? Ich meinte in der letzten GameStar einen Artikel aus dem Augenwinkel gesehen zu haben aus dem hervorgeht, dass diese Kombo der Vergangenheit angehört.

Oder erklärt der zweite Satz des obigen Zitats das und ich hab es nicht verstanden. ;)
 
buntstift23 schrieb:
NVs FERMI geht doch auch direkt mit mit 2GB und 3 GB ins Rennen.

Ich bezweifle, dass es zum Lauch Karten mit mehr als 1,5 GB Speicher geben wird. 2 GB sind nach dem, was man bisher über den Chip weiß ohnehin sehr unwahrscheinlich, da man sich schon ziemlich verbiegen müsste um diese an ein 384 bit Speicherinterface anzubinden.
Eventuell kommen später noch Karten mit 3 GB, die dann aber auch schon 24 Speicherchips und daher beidseitige Bestückung des PCBs erfordern.

Eine 2x 2 GB Variante der 5970 wäre zwar fein, ist aber auf absehbare Zeit extrem unwahrscheinlich, da man dafür mangels verfügbarer 2 Gbit GDDR5 Chips auf jeden Fall 32 Speicherchips verbauen und demnach das ganze PCB umkrempeln müsste.
Ich glaube schon, dass die 5970 in bestimmten Fällen von mehr Bandbreite profitieren würde, es ist aber auch nicht so, dass die Karte ein Bandbreiten- oder Speicherkrüppel wäre. Schnelleren GDDR5 Speicher gibt es ja durchaus, vielleicht traut sich da mal einer der Boardpartner ran.

Die ersten 2 Gbit Chips (irgendwann 2010) werden vermutlich sehr teuer sein und zunächst den Profikarten (Tesla C2070 mit 6 GB) vorbehalten bleiben.
 
Rumpel01 schrieb:
Nö, gerade World in Conflict ist kein Gegenbeispiel. Beim Sprung von 770 auf 900Mhz GPU bei gleichem Speichertakt nicht einmal 5% Leistungsplus.

Falsch.
Du weißt was ich meine. Weich nicht aus.^^
Es geht mir um den Sprung von 725 zu 770 und von 1000mh zu 1300mhz bei World of Conflict.
Da hat sich die Performance um nur 2% gebessert, trotz starker erhöhung des Speichertaktes!!. Also ein klares Gegenbeispiel zu eurer Vermutung.
Aber ich bin ja schon wieder still.
 
Zuletzt bearbeitet:
Screemer schrieb:
geht mit nem modifizierten nvidia-treiber ohne probleme.

Hast Du eventuell nen Link auf Tasche? Wär nett...
 
solange die Karte nicht lauter ist als meine (Sapphire Radeon HD 4890 OC) wäre Sie schon gekauft allerdings der Kaufpreis...aber das ist ja nur der Einführungspreis Kritikpunckt Hohe Leistungsaufnahme unter Last ist mir persönlich völlig wurscht.

ps: jetzt ein sehr schöner Test (ich meine jetzt mit den angefügten nfo's von @setnumbertwo )
 
Zuletzt bearbeitet:

Nein, Du ignorierst die Werte und Befunde, die auf eine Bandbreitenlimitierung eindeutig hinweisen! Abgesehen davon ist das auch schon am Beispiel der 5870 hier diskutiert worden, eine Diskussion, die Du kennst. Es ist klar, dass solche Limitierungen nicht immer und in jedem Spiel eintreten, es ist aber belegt, dass die 5970 mehr Leistungsreserven besitzt als sie durch die Speicherbandbreite abrufen kann. Das ist per se ja auch nicht schlimm (mit einem 512 Bit-Interface wäre die Karte bzw. die GPU wohl unbezahlbar und die 5870 bereits in der 500-Euro-Klasse), man muss das aber zur Kenntnis nehmen.

Es geht mir um den Sprung von 725 zu 770 und von 1000mh zu 1300mhz bei World of Conflict.
Da hat sich die Performance um nur 2% gebessert.

Es sind ca. 5% ...
 
Zuletzt bearbeitet:
@ Computerbase

Plant ihr eigentlich in Zukunft auch Eyefinity-Tests im Parcours? Da ihr ja scheinbar auch PhysX testen wollt, waere es durchaus fair, AMD/ATIs Alleinstellungsmerkmal zu beruecksichtigen, und zum anderen machen gerade solche Karte wie die 5970 deutlich mehr Sinn, wenn man es mit solch riesigen Aufloesungen zu tun hat wie Eyefinity sie bieten kann.
 
buntstift23 schrieb:
Kantenglättung und AnsiFilter sind beides

Nachbearbeitungseffekte die den Speicher nicht belasten.
Tun sie nicht? Ach wirklich?! Hmm...


buntstift23 schrieb:
Pimpenttenhals ist die Zukunft ...

Du meinst wahrscheinlich Pipettenhals..
Ausserdem; Hat nicht NVidia selbst die Speicherbandbreite bei ihren Karten von 512bit bei einer GTX285 auf 384bit beim Fermi runtergeschraubt?

Und zuletzt gilt pukto Speicherbandbreite noch das Folgende zu beachten.. Mehr Bandbreite gleich teurer Chip und teures PCB.. Und NVidia muss da sehr aufpassen..

Gamestar Georg Wieselsberger schrieb:
Details zur Spieleleistung und damit auch zur SP-Leistung will Nvidia aber erst noch nennen.

Doch selbst wenn man all diese Spekulationen verwirft, ein Fakt ist dennoch sehr bedenklich. Der für Tesla-Karten ohnehin hohe Preis für die ältere C1060 lag bei Erscheinen bei 1.699 US-Dollar und fiel auf nun 1.199 US-Dollar. Im gleichen Zeitraum kostete eine Geforce GTX 280 erst 600 Dollar, zuletzt 300 Dollar. Damit wäre eine Tesla-Karte, deren Grafikchip exakt dem einer Geforce entsprach, erst knapp 3x und danach 4x so teuer, weil die Geforce schneller billiger wurde.

Die neue Tesla C2070 kostet jedoch 3.999 Dollar. Damit könnte, das gleiche Verhältnis zwischen Tesla und Geforce vorausgesetzt, eine gleichstarke Spielekarte anfangs 1.333 Dollar kosten. Eine Radeon HD 5870 kostete bei Erscheinen 399 Dollar. Wie Nvidia diesen Preisunterschied den Spielern vermitteln will, wenn selbst eine Radeon HD 5970 angeblich nur 599 Dollar kosten soll, ist eine interessante Frage. Spiele, die eine Radeon HD 5970 überfordern, dürften nicht so schnell erscheinen. Senkt man den Preis jedoch auf 399 oder 599 Dollar, muss man vermutlich den professionellen Nutzern den dann fast zehnfachen oder immerhin siebenfachen Preis für die im Grunde gleiche Technik erklären. Das wird sicher spannend.
 
würde ich auch als fair bezeichnen ^^
 
Das Problem ist, das zu den Mikrorucklern ausser auf Seite 1 im allgemeinen, und im Fazit überhaupt nicht eingegangen wurde.
Wie schauts denn mit den Microrucklern aus @Wolfang?
War keine Zeit mehr für die Seite "Mikroruckler auf der XXX", welche bei den letzten Multi GPU Tests zu finden war?
Wir haben in dem Artikel erwähnt, dass sich an den Mikrorucklern nichts geändert hat und haben entsprechend das letzte Review verlinkt. Ich dachte eigentlich, dass damit alle erledigt ist =)

Eine sehr freche Antwort von dir -.-
Ich habe nur normal gefragt ohne euch/dir direkt was zu unterstellen. Habe ja nicht gesagt, dass ihr das
mit Absicht macht, sondern vorher danach gefragt..(is ja nix neues, dass Hersteller Richtlinien festlegen) deswegen brauchst du mich auch nicht so anfahren.
Und wie sich nun raustellt sieht der Test mit meinem Vorschlag doch runder aus, oder nicht?
Um ehrlich zu sein, habe ich deinen Post nicht als Frage verstanden, sondenr direkt als unterstellung. In letzter Zeit hören wir gerne etwas wie Hersteller X hat euch Sache Y vorgeschlagen /verboten oder was auh immer, was einfach nicht stimmt.
Wenn das eine normale Frage war, entschuldige ich mich für meinen Text.

Plant ihr eigentlich in Zukunft auch Eyefinity-Tests im Parcours? Da ihr ja scheinbar auch PhysX testen wollt, waere es durchaus fair, AMD/ATIs Alleinstellungsmerkmal zu beruecksichtigen, und zum anderen machen gerade solche Karte wie die 5970 deutlich mehr Sinn, wenn man es mit solch riesigen Aufloesungen zu tun hat wie Eyefinity sie bieten kann.
Die Idee an sich wäre super, doch scheitert es leider an den drei notwendigen Monitoren.
 
Rumpel schrieb:
Es sind ca. 5% ...

Korrekt. Bei Warhead sind es 2%.
Nur: Der Chiptakt wird um 6% angehoben, und da 5% mehr Leistung da ist beweist das nicht, dass die Karte Bandbreiten limitiert ist. Also ist die Beweisgrundlage äußerst dünn auf die ihr euch stützt. Das ist fakt.
 
Also ist die Beweisgrundlage äußerst dünn auf die ihr euch stützt. Das ist fakt.

Das ist nicht "Fakt", das ist Deine Interpretation. Es gibt mehrere eindeutige Belege für die These der Bandbreitenlimitierung. Dass sie nicht immer in der Intensität eintritt ist kein Gegenbeweis. Die "Grundlage" ist vorhanden, da gibt's kein "dünn" oder "dick".

EDIT: Verdammt ... 14k^^
 
Die Aussage, dass die Karte "stark Bandbreiten limitiert" ist. ist daher nicht haltbar. DAs ist aber nur meine Interpretation und meine Meinung. Jeder kann sich dabei denken was er will.^^
 
Reaping_Ant schrieb:
Ich bezweifle, dass es zum Lauch Karten mit mehr als 1,5 GB Speicher geben wird. 2 GB sind nach dem, was man bisher über den Chip weiß ohnehin sehr unwahrscheinlich, da man sich schon ziemlich verbiegen müsste um diese an ein 384 bit Speicherinterface anzubinden.
Eventuell kommen später noch Karten mit 3 GB, die dann aber auch schon 24 Speicherchips und daher beidseitige Bestückung des PCBs erfordern.

Eine 2x 2 GB Variante der 5970 wäre zwar fein, ist aber auf absehbare Zeit extrem unwahrscheinlich, da man dafür mangels verfügbarer 2 Gbit GDDR5 Chips auf jeden Fall 32 Speicherchips verbauen und demnach das ganze PCB umkrempeln müsste.
Ich glaube schon, dass die 5970 in bestimmten Fällen von mehr Bandbreite profitieren würde, es ist aber auch nicht so, dass die Karte ein Bandbreiten- oder Speicherkrüppel wäre. Schnelleren GDDR5 Speicher gibt es ja durchaus, vielleicht traut sich da mal einer der Boardpartner ran.

Die ersten 2 Gbit Chips (irgendwann 2010) werden vermutlich sehr teuer sein und zunächst den Profikarten (Tesla C2070 mit 6 GB) vorbehalten bleiben.

Natürlich ist das kompliziert, aber alles möglich. Deshalb ist es doch so blöd, die 1GB Version zu releasen, warum wurde nicht direkt zukunftsorientiert entwickelt und auf 1,5 oder 2GB spekuliert.
Jetzt müssten die Partner das komplette Design überarbeiten, was wie wir alle schon bei der HD4 gesehen haben, Monate dauert. Schlägt sich also wieder auf den Preis nieder.
 
Zurück
Oben