Test Test: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI)

@Maeximum

Sehe ich genau so.

Die HD 4870 wird zu unrecht gehiped und die meisten schließen vom guten Gesamtpaket der HD 4850 auf die 4870 und erwarten die gleiche Qualität. Die HD 4850 hat gegen die 9800GTX(+) 512MB klar gewonnen, die HD 4870 hat gegen die GTX 260 klar verloren.
Schon allein der hohe Idle und Load Verbrauch der 4870 würde mich abschrecken.->schon wieder die Treiber?
https://www.computerbase.de/forum/attachments/power_gtx-png.102733/
Um 60Watt höherer Verbrauch, für die gleiche Leistung. Im CF dann bis zu 120Watt...
 
unter last 60w über der 260 ?

und warum hat cb nur 10 watt ?

https://www.computerbase.de/2008-07/test-radeon-hd-4870-cf-vs-geforce-gtx-260-sli/26/#abschnitt_leistungsaufnahme


hört mal auf Glühbirnen zwischenzuschalten, dann werden die Werte vielleicht auch realistisch :rolleyes:


edit : noch lustiger ist der angebliche Mehrverbrauch von 100W zur 3870/8800gt, der schon aufgrund der zusatz-strompins völlig unmöglich ist. Die Karte KANN garnicht so viel verbrauchen, weil sie garnicht so viel Strom bekommen kann.
 
Zuletzt bearbeitet:
Realsmasher schrieb:
unter last 60w über der 260 ?

und warum hat cb nur 10 watt ?

https://www.computerbase.de/2008-07/test-radeon-hd-4870-cf-vs-geforce-gtx-260-sli/26/#abschnitt_leistungsaufnahme


hört mal auf Glühbirnen zwischenzuschalten, dann werden die Werte vielleicht auch realistisch :rolleyes:


edit : noch lustiger ist der angebliche Mehrverbrauch von 100W zur 3870/8800gt, der schon aufgrund der zusatz-strompins völlig unmöglich ist. Die Karte KANN garnicht so viel verbrauchen, weil sie garnicht so viel Strom bekommen kann.

CB hat UT zum testen genommen, nicht den FurMark welcher auf den HD 4x00 Karten wesentlich mehr Strom zieht.

Die 8800GT und 3870 dürfen (offiziell) 75W(PCIE)+75W 6Pol=150W ziehen.
Die 4870 darf (offiziell) 75W(PCIE)+150W (2*6Pol)=225W ziehen. Dazu kommt noch der Wirkungsgrad des Netzteils. Das passt also schon. Die 6Pol Anschlüsse sind ausserdem nicht auf 75W "limitiert".


Alles also realistisch.
 
ja ist bestimmt genauso realistisch wie der mehrverbrauch von 110W einer 280 gegenüber einer 260 (cb hat 40W)

liegt bestimmt alles am furmark. da läuft die 260 nur mit Luft und Liebe und alle anderen Karten brauchen mehr strom als die Anschlüsse liefern :rolleyes:
 
Also wegen dem Strom verbrauch, als ich den crysis Bencmark durchlaufen lies hatte ich höchstens 366Watt erreicht, und auf 400Watt bin ich nur einmal ganz kurz gewesen, weiß aber nicht mehr was ich da getestet hatte.


Mfg. calle


Edit:
Habe grade ein Treiber für die 4870 gefunden, allerdings für Asus Karten, würde mich Intressieren ob der auch für die andern Karten funktioniert.

http://support.asus.com.tw/download...roduct=9&model=EAH4870 Series&SLanguage=en-us
 
Zuletzt bearbeitet:
digitalangel18 schrieb:
Dazu kommt noch der Wirkungsgrad des Netzteils.

Die Standhaftigkeit dieser Aussage darfst du mir jetzt mal beweisen, bitte eine ausführliche erklärung, gerne auch Fachbegriffe benutzten.
 
Also wenn das wirklich die FINAL des 8.7er ist, dann Frage ich mich, warum ATI sie nicht auch schon frei gibt, macht ja mal keinen Sinn. Waas hätten sie für einen Grund sie noch zurückzuhalten wenn sie doch schon fertig entwickelt sind, das soll mal einer verstehen :freak:
 
Hast du den neuen Treiber schon getestet?
Weil bei mir läd der hier mit 4,8kb/s und das kann noch etwas dauern....:freak:
 
Der Treiber ist alt :rolleyes:

Intern trägt der die Versionsnummer 8.51, ich habe den 8.52 hier. guru3D lässt grüßen.

cYa
 
3-way schrieb:
Hast du den neuen Treiber schon getestet?
Weil bei mir läd der hier mit 4,8kb/s und das kann noch etwas dauern....:freak:

Ne mußte auch grade weg, und jetzt grade angefangen mit den Download.
Hat den schon jemand getestet?


Mfg. calle
 
Der 8.520 aka 8.7-beta läuft bei mir unter XP-32 einwandfrei und ist reproduzierbar flotter als die beiden 8.6er.

cYa
 
Mich würde mal intressieren mit welcher version CB getestet hat, also die presse Version mein ich.


Mfg. calle
 
Ich nehme an mit dem 8.502, also dem Press Release 5. Frag halt mal Wolfgang.

cYa
 
Also wegen dem Strom verbrauch, als ich den crysis Bencmark durchlaufen lies hatte ich höchstens 366Watt erreicht, und auf 400Watt bin ich nur einmal ganz kurz gewesen, weiß aber nicht mehr was ich da getestet hatte.

An alle die jetzt die Welt nicht mehr verstehen: Furmark setzt die GPU Auslastung auf 100%, bei den meisten Spielen gibt es weit weniger Auslastung. Zugegeben 100% Auslastung hat man relativ selten im Alltag, dennoch sollte man anhand der maximalen Auslastung sein Netzteil wählen(größeres NT->höhere Kosten). Furmark zeigt deutlich, wenn beide GPUs wirklich 100%ig ausgelastet sind, die Architektur der 4870 wesentlich mehr Strom verbraucht, obwohl sie nicht mehr Leistung gegenüber der GTX 260 hat. Wer die Messungen anzweifelt, empfehle ich die neue PCGH zu lesen, die verwenden seit neusten auch Furmark um die Stromaufnahme zu messen, denn jedes Game hat eine andere Auslastung der GPU bzw. Architektur und ist daher zu ungenau.

An dieser Stelle zu hoffen das auch CB zukünftig mit Furmark testet, ist wohl zuviel des guten...:rolleyes:

PS: Schaut mal in den Sammelthread rein, hier kann man schön sehen das der 3D Mark 06 die meisten GPUs nur zu 60% auslastet.
https://www.computerbase.de/forum/threads/sammelthread-energieverbrauch-eures-systems.443181/
Ein Kumpel hat mal zum Testen Folding@Home laufen lassen, mit einem Phenom und 4870 war er da plötzlich am Limit seines Netzteils->450Watt, das hat er aber erst später gemerkt, als er auf Furmark aufmerksam wurde...
 
Zuletzt bearbeitet:
ExcaliburCasi schrieb:
Die Standhaftigkeit dieser Aussage darfst du mir jetzt mal beweisen, bitte eine ausführliche erklärung, gerne auch Fachbegriffe benutzten.

Ganz einfach:

GTX260 System 290W vor dem NT. Bei rund 80% Wirkungsgrad also 230W Aufnahme der Komponenten.
8800GT System 244W vor dem NT. Bei rund 80% Wirkungsgrad also 195W Aufnahme der Komponenten.
HD4870 System 350W vor dem NT. Bei rund 80% Wirkungsgrad also 280W Aufnahme der Komponenten.

Es sind also nicht 60W mehrverbrauch der HD4870, sondern "nur" 50 gegenüber GTX. Und "nur" 85W und nicht 106W gegenüber der 8800GT. Hätte das NT einen schlechteren Wirkungsgrad wäre die Kluft entsprechend noch kleiner. Weiß aber nicht welches zum Testen verwendet wurde.



Ich möchte mal noch etwas zum Mehrverbrauch der HD4870 anmerken: die theoretische Leistung ist ja auch (deutlich) höher als die der GTX260, sogar noch ein ganzes Stückchen oberhalb der GTX280. Ob wir davon in Spielen nochwas merken werden sei mal dahin gestellt...könnte mir allerdings vorstellen das bei gpu processing mit neueren Treibern und angepasster Software noch ein Leistungssprung möglich ist. Der maximale Mehrverbrauch wäre damit dann gerechtfertigt bzw. die Architektur dann auch effizienter als Nvidias Monsterchip. Und wie schon erwähnt braucht die HD4870 ja in Spielen auch nicht mehr als das Nvidia Gegenstück, von daher sollte der Lastverbrauch nicht weiter schlimm sein. Man sollte nicht immer alles sofort verteufeln. Und nein ich bin kein Fanboy.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
wenn beide GPUs wirklich 100%ig ausgelastet sind, die Architektur der 4870 wesentlich mehr Strom verbraucht, obwohl sie nicht mehr Leistung gegenüber der GTX 260 hat.

das ist unfug. Kuck dir die Leistungsdaten der Karte an. bei Nutzung aller shadereinheiten kann die 4870 weitaus mehr leisten.

Deswegen ist es sinnfrei auf der einen Seite mit 100% Last zu testen(alle shader ausgelastet), dann aber wieder mit der performance in Standardspielen zu kommen wo viele davon brach liegen.

Wenn du mit spielen vergleichst die diese shader auch ausnutzen wie z.b. grid, dann liegt die 4870 klar vor der 280(!).

Und bei spielen wo dies nicht der fall ist liegt der Verbrauch auch nur auf 260 niveau.
 
Kasmopaya schrieb:
wenn beide GPUs wirklich 100%ig ausgelastet sind, die Architektur der 4870 wesentlich mehr Strom verbraucht, obwohl sie nicht mehr Leistung gegenüber der GTX 260 hat.
An dieser Stelle zu hoffen das auch CB zukünftig mit Furmark testet, ist wohl zuviel des guten...:rolleyes:

Kasmopaya schrieb:
@Maeximum

Sehe ich genau so.

Die HD 4870 wird zu unrecht gehiped und die meisten schließen vom guten Gesamtpaket der HD 4850 auf die 4870 und erwarten die gleiche Qualität. Die HD 4850 hat gegen die 9800GTX(+) 512MB klar gewonnen, die HD 4870 hat gegen die GTX 260 klar verloren.
Schon allein der hohe Idle und Load Verbrauch der 4870 würde mich abschrecken

http://www.pcgameshardware.de/aid,6...T200_und_RV770_in_Unreal_Tournament_3/&page=2

http://www.pcgameshardware.de/aid,6...von_GT200_und_RV770_in_Call_of_Duty_4/&page=2

http://www.pcgameshardware.de/aid,6...barkeit_von_GT200_und_RV770_in_Crysis/&page=2


du musst beachten, dass die 4870 im Großen und Ganzen mehr Leistung hat,und diese auch an den Tag legt. Furmark lastet die Graka zu 100% aus, bei 800shadern ist es net verwunderlich dass sie so viel zieht. Aber in der Praxis werden vielleicht 400 verwendet. mit einer shaderauslastung von 100% würde die 4870 die GTX280 sogar überholen.

grad deshalb bietet sie so viel leistungspotential mit neueren Treibern,da man damit über den Scheduler die shaderverteilung besser ansteuern kann.


gruß
 
@ digitalangel18: Das ist ja schön und gut, aber es zählt nunmal das, was das Netzteil zieht.. Das was du machst, bezeichnet man üblicherweise als schönreden.. ^^

Sicherlich ist es mit noch ineffizienteren Netzteilen noch schlimmer, aber es wird überall trotzdem das angegeben, was das Netzteil zieht!!
 
Entschuldigt die blöde Frage, abe ist es irgendwie möglich, die timedemo, die Computerbase in Crysis benutzt nachzustellen. bspw. gibt es eine Datei, die man mit dem Crysis-Benchmark benutzen kann?
 
Zurück
Oben