Test Test: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI)

@avendexx da geb ich dir vollkommen recht!

Das P/L Verhältnis (wenn es denn für jemanden wichtig ist), muss zu jedem Kaufzeitpunkt aufs Neue betrachtet werden.

Absulut! Deswegen können manche nicht mit einer Stromrechnung die ammortisierung ausrechnen xD ^^

Bitte streitet euch doch net um das wort "DEKLASSIERT", freuen wir uns doch das wir endlich einen gescheiten graka markt haben der sich hoffentlich bald in einem gleichgewicht wieder findet!
 
Mir juckts ja wirklich in den Fingern. Die 4870 ist ein verdammt leckeres Stück PCB bei dem Preis. Wenn mir der Catalyst-Treiber mir nur nicht so unsympatisch (nicht von der Stabilität her oder so sondern von der Bedienung her) wär. Inzwischen hat sich da sicher einiges verändert, aber einmal schlechte Erfahrugen wirft man nicht so einfach über Board. =/ Zumal meine übertaktete GTX ja doch noch reichlich Power hat. Verdammich. ^^ Das ist bei ner weniger Ausnahmekarte deutlich einfacherer. Die nächste GEneration ist deutlich besser. =D Muss mich echt zusammenreissen, werde aber defintiv noch die Preisgefälle der nächsten Monate abwarten und dann auchmal schauen welche Ankündigungen es zu Refreshs oder Nachfolgern gibt.

Trotzdem, die 4870 ist eine Superkarte, für meinen Geschmack ist das Angebot von ATI mit dieser GEneration besser als das von Nvidia, zumindest solange wie die 260 und vorallem die 280 so verdammt teuer im Vergleich sind. Lautstärke und hitze liessen sich ja mit NAchrüstkühler verbessern und auf den Stromverbrauch geb ich ehrlich gesagt einen Furz. Dieses heuchlerische Getue immer. Als würden hier nur Stromsparfüchse rumlaufen, die jede möglichkeit des Stromsparens auch wirklich umsetzen würden. Das mag im Einzelfall tatsächlich sein, bei der großen Mehreheit der Stromkritiker hier bin ich mir aber verdammt sicher, dass im Hintergrund alle möglichen Geräte auf Standby stehen, veraltet sind und dadurch extra Strom brauchen oder Geräte vor sich hindudeln, ohne das es einer wirklich wahrnimmt. ;)
 
Das stimmt so nicht ganz. SLI hat eine breitere Unterstützung als CF und kann somit oft vorbei ziehen, wenn CF allerdings richtig skaliert dann deutlich besser als SLI.

Siehe die MultiGPU Tests im Anandtech Artikel:
http://anandtech.com/video/showdoc.aspx?i=3341&p=21

We've said it over and over again: while CrossFire doesn't scale as consistently as SLI, when it does, it has the potential to outscale SLI, and The Witcher is the perfect example of that. While the GeForce GTX 280 sees performance go up 55% from one to two cards, the Radeon HD 4870 sees a full 100% increase in performance.
 
@mustis du sagst es !
Stromsparfüchse wieder mal xD ^^ nunja wenn manche wüsten das wenn sie jeden tag ihre waschmaschine laufen lassen würde infolge von einem erhöhten hemden "verbrauch", was das an strom kostet! ^^

natürlich noch schön den trockner anschalten , geschürspüller ... ^^ Das verbraucht strom in ganz anderen dimensionen ^^ die 20Watt unterscheid beiden beiden grakas machen es wirklich nicht fett!

Ich sags ganz erhlich lieber ne graka mit der ih viel freude hab und ordentlich gamen kann, anstatt jeden tag net pizza oder einm bagett in offen geschoben! Das spart nicht nur geld sondern tut der gesundheit gut!

@Nod-sunrise

Ok stimmt was du sagst, aber was sagt uns das? NV optimiert SLi bei games ohne dabei rot zuwerden! ^^ Ich meine können SIe ja is ja auch ihr recht! Aber ich finde es immerhin ein wenig unfair gegenüber ATI!

Gothic3 sag ich nur als bestet beispiel! Es wird nie eine ATI karte geben die besser is als eine NV karte, zumindet in diesem game^^!
Scahde das AMD/ATI die kolle nfehlen um da mal bissle mi zu optimieren xD^^, das letzte spiel was mir einfällt mit ATi logo war HL2^^
 
Zuletzt bearbeitet:
hm....unbefriedigendes Ergebnis !
Die 4870 ist eine sehr gute Karte, steht außer Frage. Aber warum gibt solch große Probleme mit Powerplay ? Warum äußert AMD sich nicht öffentlich dazu ?
Ich finde es Klasse das AMD/ATI wieder im Spiel ist, jedoch bleibt da ein mehr als fader Beigeschmack ! Leider bin ich nicht so optimistisch wie manch anderer hier, was den nächsten Treiber angeht. Das wurde von beiden IHV´s schon etliche Male versprochen. Der nächste Treiber macht alles besser.....
Wenn ATI mit dem nächsten Treiber alle Probs beseitigt, gibt es, bis auf den Lastverbrauch, nichts mehr zu bemängeln und es wird der P/L-Kracher überhaupt....Wenn !
Was die GTX260 angeht, kann ich nur sagen: Wesentlich besser als die 280er ! Aber auch hier gibts den ein oder anderen Mangel :

1. Ganz schön laut im Idle ! Bei den Temps sollte man da aber was machen können.
2. Auch hier ziemlich hoher Lastverbrauch ! Muss man sich bei beiden anscheinend mit abfinden :(
3. Falls ATI nachbessert, ist sie zu teuer und wird es wohl auch bleiben, da ATI eigentlich mehr Spielraum nach unten haben sollte.

Ich denke man kann AMD/ATI danken, dass man eine noch nie dagewesene Leistung zu sehr günstigen Preisen bekommen kann. Für AMD steht und fällt der Erfolg der Karte, in meinen Augen, mit dem nächsten Treiber!
 
Bemerkung zu den 8xAA-Tests: nur 8 von 14 Spielen werden überhaupt mit 8xAA getestet. Sind die Testergebnisse damit überhaupt aussagekräftig?

Außerdem: Woher kommen zum Beispiel die Werte der 9600 GT für Call Of Duty 4, das wurde im 9600 GT-Test gar nicht gebencht? Das gleiche gilt für die 8800 GTX. Woher kommen deren Werte für CoD4? Und auf welchem Treiber basieren diese Werte?
 
@ CB
Prinzipiell schöner Test, aber ich habe doch was auszusetzen:

Wieso testet ihr mit 8xAA, anstatt mit (qualitativ höherwertigem) 4xTSSAA? Jeder der ein bisschen Ahung davon hat, spielt nicht mit 8xAA...
 
HomerJSi schrieb:
Bemerkung zu den 8xAA-Tests: nur 8 von 14 Spielen werden überhaupt mit 8xAA getestet. Sind die Testergebnisse damit überhaupt aussagekräftig?...

Wieso sollten sie nicht? Du kannst im Ranking ja keine Werte mit einfließen lassen, die nicht mit weniger als 8AA getestet wurden. Das bedeutet, dass das Ranking nur das den Spielen besteht, bei denen 8AA auch wirklich getestet wurde.
 
@Unyu:

Sicher ist es nicht richtig, dass hier Leute mit abweichender Meinung beleidigt werden. Aber das ist nun mal so in unserer Gesellschaft^^. Im moment ist alles Rot, da bilden sich Rudel und die Grünen werden vernichtet.

Dass das alles Schwachsinn ist, sollte klar sein. Beide, ATI und NV wollen Geld, Marktanteile und Prestige (was nichts anderes ist als zukünftige Marktanteile, wie man an einigen "festgefahrenen" Graka-Käufern hier sieht)

Was man festhalten kann, ist, dass ATI aufgeholt, aber nichts deklassiert und in Grund und Bodern gerendert hat. Gut die 260 war am anfang überteuert, aber das sagt mehr über die entsprechende Preispolitik von NV aus als über die Karte selbst. Die ist nämlich nun wirklich nicht schlecht.

Die 4870 liegt bei irdischen Auflösungen (ich frag mich immer was ihr für Schreibtische habt, wenn ihr da 30'' Monster, oder gleich zwei, stehen habt^^. Sitzt ihr da zwei Meter von weg, oder was?) auf Augenhöhe und ist billiger - aber nicht aus Wohltätigkeit, dass sollte jedem klar ein. Sie kann billiger produziert werden und ist wohl auch eine (gelungene) Kampfansage an NV, aber der Überflieger ist auch die 4870 nicht - sie hat auch ihre Schwächen. Ein bisschen Käufer abluchsen wird halt ATI mit dem Preis (schön für mich, ich werde sie demnächst kaufen - trotz der hohen Leistungsaufnahme, die allerdings bei mir nicht so die Rolle spielt, da ich den PC bei weitem nicht 24/7 laufen habe)

Nochmal @ Unyu:
Deine Antworten, oder Belehrungen, verlaufen immer im gleichen, sehr kurzen, Schema:
Warum macht ihr es so, und nicht so?
Warum nicht das, sondern das?
Erklärt euch, ich bin damit nicht zufrieden!

Wie wäre es, wenn Du mal sagtst, was für Dich die korrekten Testbedingungen wären. Mit Begründung selbstverständlich!
 
deathhour schrieb:
WENN ICH AM COMPUTER ARBEITE dann reich auch ein onbord chip! Oder? Der hat genug leistung dann brauch ic hnich so ne graka! SEI doch mal ehrlich so eine graka is doch nur was für gamer!

Ja und? Die wenigstens User werden Hardcore Gamer sein die ihren Rechner ausschließlich dafür nutzen. Der durchschnittliche Zocker durfte seinen Rechner zu mind. 80% zum surfen und arbeiten verwenden, und allerhöchstens 20% zum zocken. Also z.B. 1h täglich spielen, und 5h dran arbeiten, surfen, musik hören, pr0ns gucken oder weiß der geier was :D da ist der idle verbrauch schon entscheident, und kann wie hier vorgerechnet durchaus 30€/Jahr mehr betragen wie bei der GTX 260.

Davon abgesehen heizen sich ja auch die übrigen Komponenten im Rechner unnötig mit auf, nicht so gut für ein Silent System das mit langsam drehen Lüftern auskommen soll. Es ist schon sehr wünschenswert das da bald ein Fix kommt. Das ist eigentlich auch das einzigste was mich von einem sofortigen Kauf der Karte abhält....
 
Zuletzt bearbeitet:
Ich frage mich halt, wie aussagekräftig der Wert dann noch ist
1) Bei CoD 4 wird nur die 4870er auf 8xAA getestet, nicht die 260 GTX
2) Dass das uralte FEAR auf 8xAA läuft, wundert micht nicht
3) UT3 gibt (wie im Test selber steht) mit dem verwendeten Bench unrealistische Frameraten aus
=> verbleiben eigentlich noch 5 Spiele (von 14 Spielen), die für 8xAA realistische Werte ausgeben ... das finde ich ein bisschen wenig für Aussagekraft, ein Wert auf 1280er und 4xAA basiert immerhin auf 14 Spielen.
 
Eigentlich spricht alles für die Karte. Jetzt muss natürlich ein Wunder Punkt rausgepickt werden- und das ist... der Idle Verbrauch. Na Wahnsinn. Ich würde mich ja auch ärgern, wenn ich vor zwei Wochen noch 500€ auf den Tisch gelegt hätte und bekomme jetzt für 220€ eine Karte, die gerade mal 0% bis 20% langsamer ist. Ich habe den ganzen Thread nicht gelesen, aber es gibt ja so nette Stromkostenrechner im Internet. Und nehmen wir mal an, der PC läuft 12 Stunden, 7 Tage die Woche und 365 Tage im Jahr Idle, dann würde man pro Jahr knapp über 30€ mehr bezahlen. Diese Annahme ist schon arg unrealistisch, aber zeigt doch, dass auch wenn der PC so lange laufen sollte, das Argument Idle Verbrauch ganz hinten angestellt werden kann. Bei Duruchschnittlichen Benutzer dürften sich die Mehrkosten pro Jahr bei vielleicht 10 bis 15€ bewegen.
Und jetzt bitte keine Öko Argumentation- wenn euch das so wichtig ist, könnt ihr ja Brettspiele spielen oder Sport treiben.

MfG!
 
Zum Stromverbrauch:
1. Die GTX280 braucht unter Last mehr
2. Die GTX260 braucht unter Last nur 4% weniger, also etwas das was sie auch weniger leistet
3. Irgendwie war das "alte" Powerplay besser als das neue :D
4. Insofern ist es schon wahrscheinlich, das Treiber das verbessern könnten
5. Wie wäre es damit: Im Catalyst oder Ati-Bios-Editor die 2D Taktfrequenz und 2D Spannung runterdrehen --> Selbst Powerplay zum laufen bringen ;), da Ati die Paradedisziplin der 38xx noch nicht (nicht mehr?) hinbekommt...dann kann man auch gleich den 3DTakt anheben, obwohl das nicht viel bringt (vgl. CB-Test--> Kaum Mehrleistung), lieber den Shadertakt (was bei 160 5D Shadern nicht weit gehen wird) ;)


EDIT: Die hohen Idle Temperaturen sprechen auch für ein Problem mit Powerplay, die hohen Lasttemperaturen dafür das der Lüfter unter Last nicht optimal schnell dreht, sollte beites durch den Ati-Bios-Editor lösbar sein....

2DTakt/Spannung runter, 3DTakt rauf und 3DLüfterdrehzahl hoch (beim zocken scheiß egal, das Game hat ja Sound...)

nVidia ist es endlich gelungen sparsamer zu sein, grade deshalb sollt AMD das hinbekommen, was bei der 38xx super funktioniert hat...
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Mikroruckler haben wir nicht erwähnt, was aber nicht heißen soll, dass wir diese vergessen haben. SLI und CrossFire haben wir nur auf den letten Drücker gebencht und so hatten wir einfach keine zeit, uns im Test damit weiter auseinanderzusetzen. Aber wie gesagt, die Mikroruckler nicht nicht vergessen.

Hier vielleicht mal ein Ansatz: Wäre es nicht sinnvoller, die Tests zu Crossfire und SLI (also Multi-Grafikkarten) in einen eigenen Test auszulagern? Ich persönlich sehe da eigentlich nur Vorteile: Zum ersten bin ich mir eigentlich ziemlich sicher, dass der Einzel-Grafikkartentest deutlich mehr Leser interessiert (den man in diesem Fall wohl eher fertigstellen könnte). Zum zweiten könnte man in einem solchen Extra-Test genauer auf gewisse Besonderheiten eingehen (wie z. B. die Mikroruckler).
Drittens, da wären die Treiber: Testet man CF/SLI mit den Techniken, braucht man auf keinen Fall so viele Vergleichsklarte, denn man erreicht eigentlich Leser, die immer relativ viel ausgehen und viel umrüsten. Dagegen sind gerade hier aktuelle Treiber wichtig, weswegen man wohl in so einem Test noch mehr darauf achten sollte als in einem normalen. Unterschiedliche Treiber zwischen GTX 260 & 280 wären da noch deutlicher ungünstig.

Auch das Fazit würde man dann anders gestalten können, und wahrscheinlich würde so ein Test auch in Punkto Übersichtlichkeit etwas gewinnen können - schon die Überschrift ist ja grässlich und fällt völlig - jedenfalls in meiner Auflösung (1280*1024) aus dem Design (braucht zwei Zeilen). ;)

@Sheeep: Der Test der Übertaktbarkeit ist hier nur eingeschränkt tauglich, da das CCC nicht mehr gestattet. Mit dem RBE sollte man z. B. mehr rausholen können.
 
@HomerJSi

Bei CoD hast du tatsächlich recht. Das ist mir gar nicht aufgefallen. Hm, vielleicht könnte Wolfgang was dazu sagen?
 
Mustis schrieb:
Lautstärke und hitze liessen sich ja mit NAchrüstkühler verbessern und auf den Stromverbrauch geb ich ehrlich gesagt einen Furz. Dieses heuchlerische Getue immer. Als würden hier nur Stromsparfüchse rumlaufen, die jede möglichkeit des Stromsparens auch wirklich umsetzen würden. Das mag im Einzelfall tatsächlich sein, bei der großen Mehreheit der Stromkritiker hier bin ich mir aber verdammt sicher, dass im Hintergrund alle möglichen Geräte auf Standby stehen, veraltet sind und dadurch extra Strom brauchen oder Geräte vor sich hindudeln, ohne das es einer wirklich wahrnimmt. ;)

Du, für ein Gerät gebe ich dir sogar Recht, da fällt der Stromverbrauch vielleicht wirklich nicht so ins Gewicht. Und wenn mich meine Graka im Jahr 20€ mehr kostet, so what. Und früher habe ich da auch nicht so drauf geguckt, aber jetzt, da ich als Selbstständiger wirklich sehr genau gucken muss, werde ich bei jeder Neuanschaffung darauf gucken wie der Stromverbrauch liegt. Standby gibt es bei mir schon lange nicht mehr. Wenn ich weg bin, kriegen nur Kühlschrank (auf 1,5 gestellt) und Telefon Strom, auch alles andere wie Fernseher oder Wii wird sofort über einen Hauptschalter ausgeschaltet.

Ich meine, wenn euch das Thema nicht interessiert, ist das eure Sache. Aber durch vernünftiges Stromsparen und effiziente Geräte kann man mehrere hundert Euro im Jahr sparen. Verstehe ehrlich gesagt nicht, warum einige das als unwichtig abtun, ich verschenke relativ ungern Geld ;)

deathhour schrieb:
Man kann doch nicht den kauf eine graka mit stromverbrauch in zukunft rechtferitgen, wenn eine andere karte auch strom verbraucht! ^^ Sicher verbrauch die ATi mehr strom aber dennoch wenn ich mri die GTX260 jetzt kaufe wird sich diese nicht dadurch ammortisieren!

Doch, je nach Verbrauchsprofil wird sie das. Einfach nochmal meine Rechnung angucken. Jede Kilowattstunde kostet nunmal Geld und die ATI zieht davon (sollte das nicht gefixt werden) mehr aus der Leitung. Du hast insofern Recht, als dass man von "amortisieren" in dem Sinne nicht reden kann, da man das Geld ja nicht wieder reinbekommt. Allerdings holt die GTX 260 die Differenz zur 4870 wieder rein und ist nach zwei Jahren sogar günstiger, wenn der Rechner öfter an ist.

deathhour schrieb:
Dann muss ich dir aber erhlich sagen wenn ich mir keine 2 rechenr leisten kann kann ich mir auch keine highend karte + Verbrauch leisten!

Sorry, muss ich ganz ehrlich sagen, finde ich etwas überheblich. Willst du den Leuten jetzt das Recht absprechen, ordentlich gamen zu können? Ich denke eine Karte für 200-250 Euro kann man sich noch leisten, aber einen zweiten Rechner (Notebook) will sich vielleicht nicht jeder zulegen. Und dass man dann, wenn man eh nicht soviel Geld hat, Strom sparen will, sollte nachvollziehbar sein.

Wie gesagt, jeder kann sein Geld ausgeben wofür er es möchte. Aber es ist denke ich nicht zuviel verlangt, von der Industrie zu verlangen, dass man sich nicht zwei Rechner kaufen muss, wenn man gleichzeitig daddeln und arbeiten will und dabei Strom sparen möchte.
 
Schöner Test, Wolfgang!

Hintergründe zum "Powerplay 2.0" würden mich bei Gelegenheit auch interessieren. Das Feature funktioniert nicht so, wie man es sich vorstellen würde. Von der Stromrechnung mal abgesehen, wirken sich die Grafikkarten leider auf das ganze thermische Verhalten des Systems negativ aus - dies war auch schon mit dem G80 beobachtbar. Schon komisch, dass hier eher die GT200-Monster besser dastehen.
 
@digitalangel18

Sicherlich aber ich glaub nich das ei ngmer nur 1 stunde spielt! Ich gebs erhlich zu wenn ich mal freizeit hab dann werd ich zum gamer ! Da bin ich net mit nem HIGH end rechner IM IDL sondern mit dem NB sodass ich zocken kann nun neben bei ON bin und sehen kann wer mir schreibt! Ein gamer der jeden tag eine stunde spielt braucht jetzt nicht unbedingt eine highend karte wenn er die rest der zeit vorm unet sitzt!

das erinnert mich an meine Freundin, sie sitzt 4Stunden vorm rechner!
1Stunde spielt sie Age3 grafik ist ihr egal, sie spielt am meinen NB, den rest der zeit surft sie im inet!

Ihr reicht eine 8600GT ! Sie bräcuhte nie mal eine HD4870 ! Nur weil sie eine stunde spielt! Gut wir männer wollen eben manchmal ein wenig mehr qualität wie schatten ... is ja auch ok selbst da reicht ne HD3850!
So eine Graka is nur was für richtige hardcore gamer die gerne auf nem fetten monitor gamen so wie ich! Wenn ich idl guck ich nachlinks auf mein NB und schreib bissle.

Sicher ich geh hier nur von mir aus das stimtm schon! Aber ich finde ein normaler zocker brauch so eine highend karte nicht!

@SID

Sorry woltle nicht überheblich wirken!
Gut du hast recht das die GTX nach 2 jahren diediffernez raus holt ! Aber soweit wird es bei mir net kommen! SPätestens nach einem jahr wird das ding wieder vertikt!^^
Deswegen lege ich da nicht so viel wert drauf! Computer ist nunmal mein beruf und mein hobby xD andere kaufen sich jedes halbe jahr ein neus auto ^^ :P


Aber SID seien wir mal erhlich ich will niemanden verbieten enthusiast zu sein! Aber wenn ich auf nem 19Zoller spiele dann nur 1 stunde am tag wo soll sich das dann lohnen eine HD4870 zu kaufen? Sicher jeder kan nmit seinem schotter machen was er will! Ich will ja nur helfen und klar machen das man als "durschnitts gamer" soll ein monster nicht unbedingt brauch! Da würde es auch für 80-90 € ne HD3850 machen! Ich weiß von was ich spreche hab nen kolleg damit auch mal beraten gehabt! Der is mit dem ding zufrieden, gut der spielt kein crysis aber selbst das läuft ordentlich! Er spiel medieval,age wow da is das ding top! Er bräcuhte nicht unbedingt was bessers! Nur als beispiel! Obwohl er 10stunden pro tag gamed!

Ich für meinen teil liebe es eben auf hohen auflösungen mit grafik am anschlag zu spielen! IDL wie eben gesagt mach ich an nem anderen rechner! Naja gut ich will ja damit nur sagen wenn jemand lange vorm rechner im idl ist und strombewußt ist dann ne HD3xxx nehmen ist doc hauch eine gute karte und zum zocken geignet!

Füll alle gamer wie mich deren herz höher schlägt wenn bei crysis noch mehr wasser durch sonnenstrahlen glänzt, kauft euch die HD4870 xD oder die GTX260!
 
Zuletzt bearbeitet:
det02 schrieb:
Super , danke !

Brauche ich dann noch ein speziellen Soundtreiber oder funktioniert dies ohne Treiber?
Den HDMI Treiber von ATi, gibt es auf der Seite wo du auch den Catalyst Allg. herbekommst.

LeChris schrieb:
Schöner Test, Wolfgang!

Hintergründe zum "Powerplay 2.0" würden mich bei Gelegenheit auch interessieren. Das Feature funktioniert nicht so, wie man es sich vorstellen würde. Von der Stromrechnung mal abgesehen, wirken sich die Grafikkarten leider auf das ganze thermische Verhalten des Systems negativ aus - dies war auch schon mit dem G80 beobachtbar. Schon komisch, dass hier eher die GT200-Monster besser dastehen.
PowerPlay scheint es garnicht zugeben! Idle: 500/993 MHZ @ 1,084v vs. Last: 625/993 @ 1,082v
 
Zuletzt bearbeitet:
Zurück
Oben