Test Test: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI)

Mit dem Stromverbrauch disqualifiziert ATI sich selber. Im Idle soviel wie eine 3870 X2, das geht ja nun garnicht. Ich hatte grad aus dem Gedanken heraus, dass die alten Modelle recht sparsam waren, auch gedacht, dass sich die neuen Modell sich nicht lumpen lassen und hätte meine 8800 GTS-512 gerne gegen eine 4870 "eingetauscht", aber so nicht.
 
Ich gehe davon aus, dass AMD den zu hohen Idle-Verbrauch in den Griff bekommt. Sei es durch ein BIOS Update oder Treiberkorrekturen. VCore und Takt können im Leerlauf ja abgesenkt werden, wie das bei der 38x0 Serie der Fall ist - mit Ausnahme einiger Modelle, wie einer PowerColor 3870 PCS beispielsweise.

Dass die neuen Karten teils beachtlich warm werden, liegt schlicht daran, dass der Lüfter mit niedriger Drehzahl arbeitet. Das kann AMD im Treiber nachbessern, falls notwendig. Allerdings halten Grafikchips solche Temperaturen auch über einen langen Zeitraum hinweg aus - man braucht sich keine Sorgen darüber zu machen.

@Unyu: Rethorisch einwandfreie Beiträg, provokant, geschickt ausweichend; steckt dahinter auch jemand, der sich mit Hardware auseinandersetzt, oder möchtest Du bloss andere herausfordern?

Was allgemein als "Qualitätseinstellungen" angesehen wird, kannst Du beispielsweise aus diesem Bericht herauslesen. Hier dreht es sich um 4x/8x AA und 16x AF in typischen Auflösungen um die 1600x1200 oder 1280x1024 Pixel herum. Wobei je nach Spiel, Treiber und benutzter GPU unterschiedliche AA Arten eingesetzt werden - SSAA ist weder der Weisheit letzt Schluss noch wird überall automatisch MSAA genutzt.

Überdies muss sich nVidia sehrwohl die Kritik gefallen lassen, dass die GTX 2x0 schlicht zu teuer ist und AMDs HD 48x0 das weitaus bessere P/L-Verhältnis aufweisen. Wohl auch, weil AMD eine andere Strategie fährt und lieber einfachere, günstigere GPU herstellt, dafür aber die Option hat, diese zu bündeln (HD 4870 X2). Bei nVidia wird man wohl auch bald derart an neue Generationen herangehen, schliesslich wäre ein G200 Nachfolger mit weit mehr als 1,4 Mrd. Transistoren auch in 55nm schwer handzuhaben. Und bis man 45nm tatsächlich im Griff hat, dürfte TSMC (wo die Chips hergestellt werden) noch einiges an Arbeit vor sich haben.
 
Das ist das schöne an statistischen Tabellen, jeder kann sie anders lesen. Nach meiner Lesart ist die Karte schneller, die dort mehr Frames generiert, wo man sie auch wirklich braucht, d.h. in hohen Auflösungen und bei resourcenfressenden Spieleengines.

Wen interessiert ein Rating, in das Spiele wie CoD4 eingehen, die sowieso überall flüssig laufen. Wen interessiert 8AA, das man sowieso nur bei Uraltspielen oder geringen Auflösungen nutzen kann. Beachtet man das, ist die 260 die bessere Karte, sie ist:

deutlich schneller
deutlich stromsparender
deutlich kühler
bei gleichen Lüftereinstellungen wahrscheinlich genauso laut
deutlich besser übertaktbar

Bleibt nur der Preis, aber angesichts der Vorteile vor allem beim Stromsparen könnte er sich auf die Dauer rechnen.
 
Hi all!

Erstmal sorry falls das hier schon wo gefragt wurde!
Bin nicht mehr so am neuestem Stand was Grakas betrifft im vergleich zu früher! Erst jetzt beim lesen des Artikels habe ich gelesen dass sich HD 4850 und 4870 NUR durch den Takt unterschieden (stimmt doch oder?)!

Also sry wenn ich da nicht so informiert bin aber:

Ist es möglich einfach eine 4850er zu kaufen und hochzutakten auf 4870? Wenn man ne gute erwischt sollte das doch gut möglich sein oder? ^^

Wäre nice wenn mir wer dazu was sagen könnte! :)

mfg
twist
 
super Test

was mich interessieren würde wäre der Durchschnittliche Verbrauch von eurem brachial übertakteten System (QX9770 wird ja wohl kaum Standard bei den Gamerns sein) gegenüber einem normalen Core2Duo E8xxx oder E7xxx.
Ein QX9770 mag schon super sein um die GPU nicht zu limitieren, allerdings wiederspiegelt es nicht den "normalen Standard".
 
Twisterking schrieb:
Hi all!

Erstmal sorry falls das hier schon wo gefragt wurde!
Bin nicht mehr so am neuestem Stand was Grakas betrifft im vergleich zu früher! Erst jetzt beim lesen des Artikels habe ich gelesen dass sich HD 4850 und 4870 NUR durch den Takt unterschieden (stimmt doch oder?)!

Also sry wenn ich da nicht so informiert bin aber:

Ist es möglich einfach eine 4850er zu kaufen und hochzutakten auf 4870? Wenn man ne gute erwischt sollte das doch gut möglich sein oder? ^^

Wäre nice wenn mir wer dazu was sagen könnte! :)

mfg
twist


Die 4870 unterscheidet sich schon noch in einigen Dingen gegenüber 4850. zB hat die 4870 gddr5 speicher, weshalb es nicht möglich ist den gddr3 irgendwie auch nur annähernd an dieses Niveau zu takten, da die Technik auch anders ist.
 
Hammer, danke für den Test!

Ich hab meine soeben geholt (23.49 xD ) werde sie dann morgen bissel antesten...
 
ich als 280 user muss schon sagen hut ab is ne gute karte geworden preisleistung 1a macht weiter so @ ati :-)
ps wie ich gerade gesehen hab is meine 280 um 70 euro im preis gefallen da tut sich was @ nvidia :-)
 
PowerPlay scheint es gar keins zu geben
Idle: 500/993 MHZ @ 1,084v
Last: 625/993 @ 1,082v
die 125 MHz beim GPU Takt machen da keinen Unterschied, auffällig das bei Idle sogar minimal mehr Spannung anliegt ^^
 
Fasst man jegliche Benchmarks zusammen (auch die in 2560 x 1600 und 8 x AA), so ist die günstigere Radeon HD 4870 um 0,97 % schneller als die GTX 260!

Ich verstehe nicht, wieso einige hier denken, die nVidia sei schneller.
 
Also das ist das erste Mal, dass Computerbase eine Kaufempfehlung für eine Stromverbrauchsschleuder gibt. Ich bin überrascht.

Aber irgendwann ist halt immer das erste Mal. Und gibt sicherlich mehr als einen Grund dafür.


Ich glaube nicht an Bios-Updates. Das Material, das ATI von TMSC bekommt, ist einfach zu schlecht.


man überlege: nvidia lässt bei tmsc in 65nm fertigen, und die sind und bleiben so kühl ... . und ati ordert in 55nm ... und hat keinen vorteil davon? sondern im gegenteil: man ist so viel heißer! an der lüfterdrehzahl alleine liegt das sicherlich nicht.

und ob ati sich damit evtl. ein dauerhaltbarkeitsproblem einhandelt?


bleibt für mich: als intel mit den prescotts kam, heiß und stickig, war klar, woran es lag: an den leckströmen - und dass daran das material sch.. war.

und jetzt geht cb dem nicht nach? warum? aus gründen der marktpräsenz, damit nvidia am ende nicht alleine übrig bliebe?


Und seit wann findet Computerbase das Klasse, wenn die Stromverbrauchsschleuder auch noch besonders billich auf den Markt kommt? (gute Verkaufshilfe der Preis, ja. Und bei der "nicht hohen" Qualität auch notwendige Verkaufshilfe, oder?)

War doch früher ganz anders, meine ich?

Wenn ich an Computerbase von früher denke, dann hätte man die realen Unterschiede bezogen auf die wohl demnächst tatsächlich zu erwartenden Preise herausgestellt:

Und das wäre gewesen einen Aufpreis von real vielleicht 40 Euro (noch) für eine GTX 260 mit den Strommehrkosten zu korrelieren (von der Umwelt ganz zu schweigen). Und da wäre auf CB früher, so meine ich, klar eine Empfehlung für den kleinen Aufpreis zur GTX 260 zu lesen gewesen, "weil sich das rechnet bei heutigen Strompreisen. Und gut ist für die Umwelt."


Aber, ich sagte es oben bereits, auch CB ändert sich (wie es ausieht). (...passend zum porsche-link at the editors?)

.
 
Zuletzt bearbeitet:
KodeX schrieb:
Fasst man jegliche Benchmarks zusammen (auch die in 2560 x 1600 und 8 x AA), so ist die günstigere Radeon HD 4870 um 0,97 % schneller als die GTX 260!

Ich verstehe nicht, wieso einige hier denken, die nVidia sei schneller.

Oder warum da manche sagen, die 4870 kratzt an der GTX 280.
 
Wäre doch wirklich peinlich, wenn sich der Stromhunger der 4870 nicht deutlich senken lässt im Idle-zustand.

Ansonsten sind die Temperaturen zwar doch sehr hoch, aber solange dadurch die Karte auf Dauer nicht leidet, ist es egal.

Tja, wenn es mal für die 4850 gute Kühler gibt und die Treiber für Crossfire weiter optimiert werden endlich, dann sind 2x4850 doch die beste Lösung.
 
@ Kodex:

Weil das immer davon abhängt, wer testet, welche Spiele getestet werden und wie sauber/ausführlich der Test ist.

Auf PCGH ist z.B. die 260 GTX deutlich besser...
 
Das "Problem" bei den ATI Karten ist eigentlich absolut unlogisch. Die Karte ist extrem schnell. Das Problem gab es auch schon mit den 3870er Karten.
Es wird sehr oft mit 4x AA + 16x AF getestet, dort ist die Karte gut 20% langsamer, als mit 8x AA + 16x AF, warum auch immer.
Die Karte hat mit 8x AA deutlich mehr FPS bei der gleichen Auflösung, als mit 4x AA. Genau das verfälscht das Ergebnis.
Testet einfach mal die Karte permanent in jeder Auflösung mit 8x AA + 16x AF und stellt das Gleiche bei den Nvidia Karten ein. Es wird ein komplett anderes Ergebnis dabei rauskommen.
 
In den meisten Tests ist die HD 4870 1 - 5 % schneller als die GTX 260. Für mich ist die Performance klar.
 
Freynhofer schrieb:
@ Kodex:

Weil das immer davon abhängt, wer testet, welche Spiele getestet werden und wie sauber/ausführlich der Test ist.

Auf PCGH ist z.B. die 260 GTX deutlich besser...

Welchen Test meinst du genau und was bedeutet bei dir "deutlich". Wieviel % sind es denn?
 
wie erwartet ist die ATI karte übers bord gerechnet schneller. selbst wenn man lost planet (hier passen die verhältnisse einfach nicht) weglässt
SLI funktioniert bei nvidia weit besser, aber bei der einzelkarte ist ATI meiner meinung nach weit vorne
nvidia hat im preissegment um die 250 euro keine gegner. aber auch nur deswegen, weil keiner jemals in dieses preissegment gehen muss, weils um die 200 euro herum ne bessere karte gibt
gratulation ATI
ich warte noch auf versionen mit besserem lüfter, und dann darf ich hoffentlich bald auch eine hd4870 mein eigen nennen
 
@ perfekt!57:

Da stimme ich dir voll zu - manchmal hat es für mich den Anschein, als sei der Autor parteiisch.
Aber beim Test der 4850 war es noch deutlicher.

Wo ich allerdings widersprechen muß ist, daß CB ein Kaufempfehlung für die 4870 ausspricht. Ganz im Gegenteil. Ich verstehe das so, daß bei gleichem Preis die 260 GTX vorzuziehen sei.
 
Zurück
Oben