Test Test: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI)

@all

wie manch einer hier schon erwähnt hat darf man hier keinesfalls ATI/AMD nun in den Himmel loben und Nvidia bashen. Jede Karte hat Vor- und Nachteile.
Kaum Jemand spielt mit 2560er Auflösung, aber zukünftige Spiele werden die Leitsungin 1600 brauchen die ein heutiges in der 2560er Auflösung braucht. Genauso mit AA, kaum jemand nimmt 8x AA, 4x reichen dicke und oft siehts bei nem geeigneten TFT mit höchter Auflösung besser aus als in niedriger mit AA. Sprich lieber ohne AA zocken wenn man in einem framekritischen Bereich ist.

Es steht außer Frage dass AMD mit der 4XXX Leistungstechnisch sehr gut aufgeholt hat. Kann man aber auch bei Faktor 2,5 bei Shaderleistung und Texturleistung erwarten!
Und zu welchem Preis? Der Stromverbrauch ist exorbitant hoch. Man muss das ganze in Relation zu den 55nm und der geringen Chipgröße sehen. Hier steht Nvidia eindeutig effektiver da!

Und dann noch so unsinnige Vergleiche zwischen einer 280GTX und einer 4870... Spart euch die Vergleiche oder vergleicht ihr auch einen Q9450 mit einem QX9770?? Selbst wenn die 280 GTX nur 10 % mehr Leistung bieten würde, würde Nvidia 400-500 Euro verlangen. Außerdem ist der Preis der 280 GTX auf unter 400 € gefallen... Eure Weltanschaunung kann doch nicht so durcheinander sein dass ihr erwartet dass die leistungsstärkste Singelkarte, das Topmodell, eine bessere Preis Leistung bietet als eine High Midrange Karte... War das jemals so? o.O

Soll ich jetzt damit anfangen dass eine GTX 260 die HD 4870 deklassiert da sie bei weit weniger Stromverbrauch in alter 65nm Technik mehr Leistung bietet als eine HD 4870? Vom Preis mal abgesehen. Der wird aber auch nach unten gehen. Vermutlich ist der G200 der 260 GTX teurer, aber die Karten insgesammt werden sich nicht viel schenken in der Produktion. GDDR5 ist auch bein billiger Spaß. Und Unyu hat in sofern recht das wohl wirklich viele Transistoren auf dem G200 für GPGPU verwendet wurden.

Ganz einfacher Vergleich: Schaut euch die Größe des G92 und des R770 an. Schaut euch die GPGPU Leistung der HD 4870 der GTx 280 und der 9800+ an. Nvidia kann nicht solch ein Plus herausholen durch einfache Erhöhung der Shaderzahl. Steht auch im zugehörigen CB Test.

Rein Chiptechnisch ist der G92b schneller als ein R770, zumindest effizienter. Er besitzt nicht die Wunder Stromsparmechanismen. Aber er ist obwohl er sogar etwas kleiner als ein R770 ist schneller bei weniger Verbrauch. Soviel zur Effizienz. Die hat nämlich nichts mit Herrstellungskosten, die beim G92b billiger als beim R770 sein dürften, oder mit dem Preis der eigentlichen Karte zu tun.
Fakt ist, AMD kann ihre 5D Shadermasse schwer zu 100% auslasten, jedoch braucht der Chip bei 70 % Auslastung der Shader wohl schon 100% Strom was zu höherem Last Verbrauch führt. Die Stromsparmodi der HD4870 sind bis jetzt alles andere als rosig. Man wird sehen was ein Treiber bringt, kann mich aber nicht daran erinnern dass ein Treiber mir nichts dir nichts mal eben 80% des Idle Verbrauchs gebasht hat. Super, das Argument eigenes Bios drauf bzw mit Tools runtertakten ist ja auch so genial. Flasht ja auch jeder mal eben neues Bios auf seine Karte und killt damit die Garantie. Mit nem Tool wär mir das ganze auf Dauer auch zu stressig. Die Zahl derer dürfte in die Richtung 2560er Zocker gehen...

An dieser Stelle muss ich Nvidia loben. 65nm , bessere Stromsparfunktion so far, mehr Leistung, 20% OC Potential. Chipgröße interessiert hier nicht. Chip lässt sich besser auslasten. Mehr GPGPU Leistung.

BTW: Schaut euch mal die Preise an:

260 GTX 257€
HD 4870 201 €

280 GTX 385€

bei weitem nicht die Welt wenn man 20 % OC Potential und besseren Verbrauch noch einrechnet. Zumindest rechtfertigt es nicht jetzt AMD/ATI über alles zu stellen und Nvidia als überteuerte Scheißkarten darzustellen. Genausowenig wie HD 38XX Karten scheiße waren als 95% der Nvidia Basher hier gegen ATI geschrieen haben.

Ich kann AMD/ATI jedenfalls mehr für die HD4850 als für die 4870 loben. Großer Vorteil seitens AMD/ATI ist zudem dass man eine 10.1 Karte mit gutem Videoprozessor, Sound on Board und Leisem Lüfter bekommt. Und das für relativ wenig Geld (Muss AMD auch so angehen um Kunden zu gewinnen)

in diesem Sinne, basht euch net so, und lasst Unyu au ab und zu seine Meinung ;)
Kritisieren kann man an Nvidia dass verkackte Namensshema und die fehlenden Dx 10.1 . Das wars dann aber auch. Die Preise machen sich sowieso meist selber.

@ Bensen: Danke für deine guten Posts, selbes gilt auch an AvenDexx

Edit: die GTX 280 braucht ganze 7% mehr Saft als eine HD 4870
Schaun wir uns das Rating an. In 8x AA ( uninteressant für mich) und 1600er ist die AMD/ATI um knappe 4 % schneller. In allen anderen Benches und dem wichtigeren 4xAA um zw 8 - 30% (bis 30%), meist um die 20% schlechter. Bei 65nm. Von einer Müll Karte würde ich hier nicht reden. Klar ist die Preis/Leistung bei der HD4870 besser, das weiß ich selber.
 
Zuletzt bearbeitet:
Ja, dann lerne mal lesen, vielleicht lernst du dann mal, die Grafikkarten objektiver zu betrachten. :rolleyes:

Edit:
Gesagt wurde es offensichtlich ja wirklich. Da steht aber auch das was Unyu bereits geschrieben hat und zwar, dass Intel mit seinem Projekt nVidia recht gefährlich werden könnte.
 
Zuletzt bearbeitet:
Der Idle Verbrauch ist genau das, was mich bei den neuen ATI´s noch stört. Das P/L ist spitze, besonders mit AA und AF, wo die 3xx0er geschwächelt haben. Ansonsten werd ich noch etwas warten, wie die Preise sich entwickeln. Meine 3850er reicht mir vorerst noch.

BTW: ja, ATI hat über 1,5 Jahre gebraucht, die 8800GTX zu überholen, aber jetzt kommt die 4870 extrem nahe an eine 300,-€ teurere Karte, das ist der entscheidende Punkt.
 
f1delity schrieb:
Wir können die HD4870 und GTX260 aber eigentlich leicht zusammenfassen:
fast gleich schnell, Radeon 50€ günstiger
Radeon braucht mehr Strom, Preisdifferenz aber erst in 2 Jahren durch Strom reingeholt, möglicherweie BIOS-fix und idle 20W kA
AA/AF Radeon bei hoher Qualität schneller

da stimme ich zu. die karten nehmen sich einfach nichts, falls man kein fanboy ist muss man im notfall eine münze werfen um sich zu entscheiden :D

f1delity schrieb:
GTX besser taktbar

hm...da würde ich noch auf weitere ergebnisse warten. die HD4870 war ja mit den angegebenen taktraten noch nicht am ende, nur die schieberegler gingen nichtmehr weiter. und ob jede GTX 260 eine so massive taktsteigerung mitmacht wage ich einfach mal zu bezweifeln. denke allerdings das die NVIDIA Karte mit steigendem (shader)Takt besser skaliert.
 
wieso sind den im 3dmark06 bei 2560x1600 8xAA/16xAF: die letzen grakas abgestürzt?
 
Sehe ich das richtig, dass bereits die 512 MB Version für 24" Monitore geeignet ist? Oder lohnt es sich auf die 1 GB Variante zu warten?
 
Sagt mal, ist im Performancerating Stalker mit einberechnet? Dann sollte man das irgendwo nochmal erwähnen das dort CF nicht ging (Absturz) und daher das Ergebnis verfälscht wird. Sonst ist es ausgeglichen, teilweise gewinnt der eine extrem (CoD4) und dann mal wieder der andere (Jericho).

Was ich vermisse, was ist nun mit den Mikrorucklern oder hab ich das überlesen?
Eine gute Frage! Wir haben auch länger drüber überlegt, Stalker dann schlussendlich aber doch ins Rating eingerechnet und unter den Benchmarks einen Kommentar abgegeben. Uns ist klar, dass das für CrossFire nicht ganz Fair ist, dafür ist es aber fairer für die Einzelkarten, was uns wichtiger ist. Es ist aber klar, dass das keine optimale Lösung ist.
Mikroruckler haben wir nicht erwähnt, was aber nicht heißen soll, dass wir diese vergessen haben. SLI und CrossFire haben wir nur auf den letten Drücker gebencht und so hatten wir einfach keine zeit, uns im Test damit weiter auseinanderzusetzen. Aber wie gesagt, die Mikroruckler nicht nicht vergessen.

Stalker wird schon mit eingerechnet gewesen sein. Was mich wundert ist der Kommentar darunter: Die 3870 X2 läuft doch völlig OK, bekommt sogar einen entsprechenden Performanceschub: Wieso sollte dann ein generelles Problem mit zwei Karten bestehen? Würde da schon auf ein Treiberfehler setzen!?
In dem Fall musst du das wörtlich nehmen. Also zwei gRafikkarten und nicht zwei GPUs. Denn zwei GPUs auf einer Karte laufen einwandfrei, zwei Grafikkarten mit je einer GPU aber nicht. Wir haben bezüglich des Problems intensiv und lange mit ATi drüber getüftelt und sind dann zu diesem Schluss gekommen.

Warum zu zur hölle testet ihr noch Gothic 3?
Weil das Spiel immer noch sehr beliebt ist und was viel interessanter ist, es zeigt sehr schön einen wichtigen Flaschenhals der GPUs.

2560x1600 4xAA 16xAF entspricht 1280x800 16xS 16xAF
So simpel kann man das nun auch wieder nicht umrechnen. Und 16xS sollte, falls mich mein Gedächtnis nicht trübt, bei zusätzlichem 16xAF 32xAFo der 64xAF erzeugen ;)

Wie kannes sein, dass die 4870 im Crossfire in World in Conflict weniger Fps hat als die 4870 alleine?
Das ist ein Treiber-Bug, der mittlerweile aber von ATi analysiert, erkannt und auch behoben worden ist.

Was ich persönlich so erstaunlich finde an dieser Entwicklung ist die Tatsache, dass AMD im Bereich der Grakas inzwischen mehr als konkurrenzfähig ist, während sie Intel prozessormäßig derzeit kaum etwas entgegnen können und auch Innovationen oder neue, kreative Ansätze gänzlich fehlen.
Nunja, erstaunlich ist jetzt relativ. Du darfst jetzt nicht vergessen, dass das zwei völlig andere Entwicklerteams dran sitzen. AMD bei CPUs und ATi bei GPUs.

Wie und wo kommen diese exorbitanten Werte her ?
Ich verbrauche mit meiner 8800GS, X2 5400+, DVD, HDD, 2GBRAM, Boxen im Idle ca. 90W.
Nuja, wir nutzen hier ja auch einen "leicht" anderen Rechner als du :)

Jap, CB kann mal GRID mit aufnehmen den ein Race Game fehlt komplett und Mass Effekt und AoC könnten LP und G3 ersetzen.
Wir zermartern uns schon seit längerer Zeit den Kopf über Änderungen im Benchmarkparcours. Doch im moment fällt das leider sehr schwer. Grid würden wir zum Beispiel liebend gerne benutzen, doch leider ist das Spiel viel zu CPU-limitiert...

@ CB : Wieso testet ihr eigentlich nicht in der mittlerweiler recht häufig genutzen Auflösung von 1680x1050?
Das war anfangs auch so geplant, jedoch hatte der Nvidia-Treiber in der Version ausgerechnet Schwierigkeiten mit 1680x1050. Aber vielleicht wird sich demnächst daran etwas ändern.

Dieser Test ist super gelungen.
Was ich aber sehr vermisse ist ein Benchmark um die Rechenleistung der Karten zu vergleichen, also wie bei den letzten Tests ein Benchmark mit folding@home. Vielleicht kann ComputerBase diesen ja nochmal ranhängen.
Auch wenn die GPU-Computing-Sachen in dem Artikel nicht mehr drin sind, wir haben vor, diese bald wieder einzusetzen - und dann zwar immer.

Testet CB mit 2GB oder mit 4GB Arbeitsspeicher?
Wir testen mit 4 GB RAM, auch auch unter Testsystem so aufgelistet ist.
 
Busta Rhymes schrieb:
Native Auflösung + AA sowie AF!

Das beduetet bei 22Zoll, 1680x1050 mit 4AA 16AF!

Hierfür ist die HD4870 perfekt!
Native Auflösung: ok --- + AA: tja wie viel AA? --- + AF: Warum gerade 16xLQ AF?

Warum gerade die Karte?
Warum keine 4850 oder 9800GTX?

Busta Rhymes schrieb:
Jeder der deine 2,5k Res. nutzt wird auch das Kleingeld für 3 GTX 280 haben ;D
Wie kommst du darauf?
Ich hab doch geschrieben, das jeder bei Nvidia noch höhere Auflösungen nutzen kann.

ragnarok666 schrieb:
Was sollen das bitte für "extra Tranistoren" für GPGPU sein???
Guck dir den GTX 280 Artikel noch mal genau an.
Oder andere Technikartikel woanders.

Winterday schrieb:
oder möchtest Du bloss andere herausfordern?
Bestimmt nicht. All die beleidigenden Spambeitäge gegen mich habe ich mit diesem Post hier ignoriert.

Winterday schrieb:
Was allgemein als "Qualitätseinstellungen" angesehen wird, kannst Du beispielsweise aus diesem Bericht herauslesen.
Kann ich nicht.
Warum testet man 16xLQ AF und 8x(H)Q, andereseits aber kein 16xQAA oder 16xHQ AF?

Winterday schrieb:
Wobei je nach Spiel, Treiber und benutzter GPU unterschiedliche AA Arten eingesetzt werden
Ja einige Spiele werden nur mit 1xAA getestet. Können die AMD Karten nicht überall MSAA?

schlafanzyk schrieb:
Im Doppelpack sieht es dagegen ganz anders aus, es spricht alles gegen die HD4870:

1. Skaliert sie sehr mager mit nur höchstens 67% Leistungsschub durch CrossFire-Betrieb gegenüber einer einzelnen HD4870
Ja das ist interessant.
CF skaliert in 4 von 14 Spielen gar nicht/mies/stürzt ab.
CF ist als die Zukunft bei AMD?

Winterday schrieb:
Der Idle Stromverbrauch der HD 48x0 wird mit an Sicherheit grenzender Wahrscheinlichkeit mittels neuem BIOS oder Treiber behoben werden können.
Nö, ein Biosupdate ist irrelevant.
Die Karte muss von Haus aus sparsam sein, meinetwegen auch mit späteren gefixten Karten.
Tatsache ist, das die ungfixten so viel brauchen, wie sie brauchen. Das kann man nicht ändern.
Tatsache ist auch, das momentan ungefixte Karten am Markt sind.
 
Ich kann es nicht verstehen das hier manche so eine graka kaufen und diese fast nur im IDL nutzen!

Das is doch sinnlos! Wenn ich im IDL was machen will dann arbeite ich am notebook! Wenn ich mri so eine graka kaufe(was ich auch gemacht habe) dann will ich high end zocken! Was interessiert mich da strom! Sicherlich nimmt die HD4870 viel Strom und ja sie wird unendlich heiß! Aber es ist trotzdem eine sehr gute Karte mit der man wunderbar zocken kann!

Viele haben hier eine Rechnung mit 60€ in 2,5 jahren, sodass sich die diferrenz zur GTX260 rechtfertigen würde! Was is das nur für ein gelab? Wenn ihr die GTX260 auch wieder 2,5 Jahre laufen lasst dann geht der verbrauch auch hoch! Von nix kommt numal nix! Das sind dann schwankungen von evtl 5-10€ !^^ Wie es manche schongesagt ein paar bier weniger trinken im monat xD ich weiß das is schwer aber wer nunmal ordentlich spielen will muss eben irgendwo einsparen! xD :lol:

Viele im FORUM haben geschrieben das eine LÜFTER drehzahl unter last um die 40-50% optimal wäre! Habe es selber noch nicht gemessen aber ich glaube auch da is noch was drinne in sachen kühlung! Ich finde die strom entwicklung erhlichgesagt auch traurig aber wenn ich high end gamen will dann muss nunmal auch leistung aufgebracht werden! Das diese Leistung mehr kostet ist allen klar!

Wenn ich billig zocken wöllte oder nur arbeiten wöllte, dann kann ich auch meinen onbord chip nehmen! Damit konnte ich auch jedes game uaf niedrig zocken^^ und surfen bzw. filme angucken, dann kauf ich mir keine 200€ Graka!


Sry wenn sich hier welche angesprochen fühlen hab jetzt die langeweile gehabt und alle 15Seiten durchgelesen, irgendwann kommt einfach mal alles hoch ;)

Ich finde es jedenfalls gut das die GTX260 und die ATI beide in der gleichen liga spielen! Ich bereue meinen kauf nicht! Sicherlich wäre ich auch mit ner HD4850 bestzens bedient, aber da ich mATX fahre ist der doppelslot lüfter echt die bessere wahl!


Eine Bitte an ALLE , bleibt hier sachlich, ich vertraue auf leute die die karte haben und diverse sachen mit ihr getestet haben!

Es wurde sehr oft gesagt das die HD4870 im IDL auf 500MHZ taktet, daraus kann man schlussfolgern das Powerplay nicht richtig funzzt! Wie kann man nur so wenig verständis haben um sagen zu können das treiber hier nix bringen? Selbst wenn dann gibts irgendwelche tools die das bereinigen! ATI is doch nich so blöd und schmeisst ein Produkt auf den markt was nich richtig undervoltet ^^, das schafft ja sogar die HD3850 :lol:

Sobald der Treiber draußen ist wird sicherlich wieder licht ins dunkel kommen! Ich für meinen Teil bin mit der graka zufrieden obwohl sie mir vorgestern abgeraucht ist(hatte nen wurm drinne). Sicherlich ist die GTX260 auch keine verkehrte karte! Aber nochmal um meinen standpunkt zu festigen wenn ich HIGHEND gamen will dann nehm ich hohen stromverbrauch in KAUF, 10h IDL kann ich nich verstehen !

Mein HARTZ4 Kolleg hat sein rechner jedentag 24h stunden laufen xD aber auch nur weil er die stromrechnung nicht zahlt! Wenn ich nicht mehr GAME, dann schalt ich den rechenr aus und mach mein office notebook an, Problem gelöst! 1Stunde IDL arbeiten is auch mal noch ok ! Aber 10Stunden IDL kann ich beim besten willen nicht verstehen! Ich für meinen Teil geh arbeiten und will mich auch um meine "zukünftige famillie" kümmern,. sicher ich zock gern und viel! Aber 10Stunden is krass soviel freizeit hab ich nichma pro tag! Ich bin meist erst um 5 zu hause dann hab ich noch 6 Stunden zeit um was zu essen,kleine haushaltssachen machen,Kollegen kurz treffen,freundin drücken.. .

Da bleibt evtl mal noch zeit 3-4Stunden zu zocken! Die zock ich auch! xD
Klar am wochende mahc ich ab und an ne kleine privat lan, aber das is die ausnahme! Ich lass meinen rechner jedenfalls nich im IDL laufen!
Es gibt leute die Sharen ja über i-NET ,ic hmach sowas nich, hier kann ic hdas ja verstehen aber selbst da würde ein eee pc reichen oder ne office möhre, da brauch man echt keine high end graka!





Nö, ein Biosupdate ist irrelevant.
Die Karte muss von Haus aus sparsam sein, meinetwegen auch mit späteren gefixten Karten.
Tatsache ist, das die ungfixten so viel brauchen, wie sie brauchen. Das kann man nicht ändern.
Tatsache ist auch, das momentan ungefixte Karten am Markt sind.
EDIT: @ unyo zu deinem letzten muss ich dir echt mal recht geben! Ich finde es auch ein wenig beschämend ein "unfertiges Produkt" auf den markt zu lassen! Meine Powercolor hat noch nicht einmal eine TREIBER CD xD ^^, das is schon fast ein verbrechen! In der IT Branche wird man schon angeböblet wenn das handbuch fehlerhaft ist! Dann sowas :lol:
 
Zuletzt bearbeitet:
Gekauft.

Nur die Temperaturen und Laustärke gefällt mir bei der Basis Version nicht. Entweder ein Hersteller schiebt da bald ne bessere Kühllösung nach oder ich werde da selbst was machen müssen :king:
 
ich hab mir mal die arbeit gemacht das ich alle tests zusammenzähle und mir dann den duchschnit auszurechen und hier sind die ergebnisse

HD4870 war 68x vorne mit einem %-durchschnitt von 93,29230769

die GTX260 war "nur" 67x vorne mit einem %-durchschnitt von 92,61538462

also die HD4870 ist um 1 test besser:D

Gruß König:king:
 
deathhour schrieb:
Das is doch sinnlos! Wenn ich im IDL was machen will dann arbeite ich am notebook!

Bin ich ehrlich gesagt sogar am überlegen, vielleicht hole ich mir einen Umschalter. Allerdings bin ich der Überzeugung, dass ein Desktop-Rechner genauso stromsparend arbeiten können sollte wie ein Notebook. Aber das scheint bei den Herstellern nur langsam anzukommen.

deathhour schrieb:
Viele haben hier eine Rechnung mit 60€ in 2,5 jahren, sodass sich die diferrenz zur GTX260 rechtfertigen würde! Was is das nur für ein gelab? Wenn ihr die GTX260 auch wieder 2,5 Jahre laufen lasst dann geht der verbrauch auch hoch! Von nix kommt numal nix! Das sind dann schwankungen von evtl 5-10€ !

Verstehe deine Rechnung jetzt gerade nicht. Der Verbrauch geht hoch? Und, bei der 4870 nicht? Die Differenz im Verbrauch bleibt. Der PC ist im Haushalt einer der stärksten Verbraucher und da ich meinen Strom selber zahlen muss, halte ich es auch nicht für Gelaber, wenn ich mir gerade überlege wie ich meine Stromabschlagszahlungen senken kann statt mir jetzt nochmal eine Karte zu kaufen, die mehr als meine alte Karte schluckt.

deathhour schrieb:
Ich finde die strom entwicklung erhlichgesagt auch traurig aber wenn ich high end gamen will dann muss nunmal auch leistung aufgebracht werden!

Bis zu einem gewissen Punkt hast du vollkommen Recht. Niemand kann damit rechnen, mit dem Stromverbrauch einer 3850 auf dem Niveau einer GTX280 zu zocken. Aber trotzdem muss man meiner Meinung nach nicht unnötig Geld aus dem Fenster pusten.

deathhour schrieb:
Ich finde es jedenfalls gut das die GTX260 und die ATI beide in der gleichen liga spielen!

Das finde ich allerdings auch gut. ATI haben wir es zu verdanken, dass man sich heutzutage schon für 140 Euro eine absolute Spitzen-Grafikkarte zulegen kann. Ich hoffe sehr, dass die 48xx-Familie ihre Käufer findet und nVidia weiterhin einen starken Konkurrenten hat.

deathhour schrieb:
Es wurde sehr oft gesagt das die HD4870 im IDL auf 500MHZ taktet, daraus kann man schlussfolgern das Powerplay nicht richtig funzzt! Wie kann man nur so wenig verständis haben um sagen zu können das treiber hier nix bringen?

Ich hoffe es sehr, weswegen ich mit dem Kauf der neuen Graka auch bis Ende Juli warte.


deathhour schrieb:
Wenn ich nicht mehr GAME, dann schalt ich den rechenr aus und mach mein office notebook an, Problem gelöst! 1Stunde IDL arbeiten is auch mal noch ok ! Aber 10Stunden IDL kann ich beim besten willen nicht verstehen! Ich für meinen Teil geh arbeiten und will mich auch um meine "zukünftige famillie" kümmern,. sicher ich zock gern und viel! Aber 10Stunden is krass soviel freizeit hab ich nichma pro tag!

Zum einen gibt es Leute wie mich, die von zu Hause aus arbeiten. Zum anderen lassen andere ihren Rechner auch laufen, um zu sharen, über Messenger erreichbar zu sein usw. Natürlich könnte man immer zwischen Notebook und Desktop pendeln, aber es muss möglich sein, auch einen Desktop-Rechner sparsam zu betreiben. Ausserdem vergisst du, dass nicht jeder sich zwei Rechner leisten kann. Wer dann zu einem Desktop-Rechner greift, will gleichzeitig gut gamen können und aber auch keine horrende Stromrechnung haben.

Übrigens finde ich es an sich gut, dass hier langsam ein Umdenken stattfindet und man sich mal Gedanken um den Verbrauch der Biester macht. Nur so werden auch die Hersteller aufgefordert, entsprechende Techniken zu implementieren. Denen kann es ja an sich egal sein, was ihr Produkt aus der Leitung zieht. Der Durchschnittskäufer sieht eh nur den Preisunterschied beim Kauf und nicht die Folgekosten (oder er wohnt noch zu Hause und es ist ihm einfach egal).
 
AW: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI)

--------------------------------------------------------------------------------

Zitat:
Zitat von det02
Ich habe ein Frage zu dem HDMI 1.3 Adapter und den neuen Tonformaten von Blu-ray.

Wo kommt der Ton her von einer Soundkarte oder greift die 4870 den Sound direkt über den PCI-E Slot ab ?

Das läuft alles über die Grafikkarte, auf dieser sitzt so zu sagen ein eigener Soundchip (von Realtek), es liegt fast jeder Karte ein Adapter von DVI auf HDMI bei über den dann Bild+Ton läuft


Super , danke !

Brauche ich dann noch ein speziellen Soundtreiber oder funktioniert dies ohne Treiber?
 
AvenDexx schrieb:
Oder warum da manche sagen, die 4870 kratzt an der GTX 280.

Vielleicht weil der Leistungsnterschied für manche kein Quantensprung ist, aber der Preisunterschied schon.
CB schreibt ja auch nicht, das sie gleichauf sind, sondern das die GTX280 deklassiert wird.


Ich hoffe, das der Verbrauch noch gesenkt wird. Ich wüßte auch nicht, warum die 4870 im idle mit 500Mhz laufen muß, und warum man das per Treiber/Bios nicht senken könnte.
Man wird sehen.

Gruss Hr.Rossi
 
Also für mich ist es eindeutig entschieden: Die Radeon HD 4870 ist einen Hauch schneller als die GTX 260. Das belegen diverse Tests sogar noch ein wenig deutlicher als dieser hier.

Was für mich auch fest steht (allerdings schon feststand): SLI ist wesentlich effizienter als Crossfire und steigert die Leistung um circa 80 Prozent. Beim ATI-Pendant sind es lediglich 50 Prozent im Durchschnitt.

Für alle nVidia-Fans: Natürlich lässt sich die GTX 260 übertakten - die Radeon HD 4870 jedoch auch. Nach einem einfachen Wärmeleitpastenwechsel ist letztere sogar 20 Grad kühler (von ATI beabsichtigt???).

Für alle ATI-Fans: Natürlich ist die HD 4870 eine sehr schnelle Grafikkarte, die aber nicht an die Leistung einer GTX 280 herankommt, sondern 15 bis 20 Prozent langsamer rendert. Auch wenn die Radeon wesentlich mehr Leistung pro mm² (also Leistung pro Produktionskosten) besitzt, ist sie schlussendlich die langsamere Karte.
 
Dann muss ich dir aber erhlich sagen wenn ich mir keine 2 rechenr leisten kann kann ich mir auch keine highend karte + Verbrauch leisten!

Das dem Preis is echt gut ich sags mal so uns käufer freut es doch das man highend für 200€ hat xD

Nochmal zu meiner rechnung sry hab mich doof ausgedrückt!

ich meine das so


ATI jetzt gekauft ca. 200€ GTX260=260-70
ATI läuft jetzt 2,5 jahre ca.60€ Stromverbrauch in der zeit

manche haben das so begründet das in 2,5 Jahren die kosten die jetzt bezahlt wurden sich AMORTISIERT HABEN! Sprich gleich sind! Diese leute haben aber vergessen das die GTX260 wenn Sie diese jetzt kaufen würden auch strom zieh und da im last bereich gerade mal 20watt oder so weniger! Was macht das in 2,5 jahren aus evtl 5-10€ ^^ !

Man kann doch nicht den kauf eine graka mit stromverbrauch in zukunft rechtferitgen, wenn eine andere karte auch strom verbraucht! ^^ Sicher verbrauch die ATi mehr strom aber dennoch wenn ich mri die GTX260 jetzt kaufe wird sich diese nicht dadurch ammortisieren!


@kodex

BITTE vergess nicht das es noch keinen offizellen TREIBER gibt für die ATI karte! Die SLI profile müssen erst erstellet werden! Das kostet Zeit!

MEIN LIEBLINGSSPRUCH passt hier mal echt gut:

"Wer die vergangenheit begreift kann die zukunft für sich entscheiden"!:freaky: :cool_alt:

SOrry ich drück mich manchmal umständlich aus ;)

Achja ich bin erhlich und geb es zu ich habe meinen Gamer rechner an und zocke und hab neben bei mein NB an und surfe bzw. chatte icq mäßig xD ^^
 
Zuletzt bearbeitet:
deathhour schrieb:
Ich kann es nicht verstehen das hier manche so eine graka kaufen und diese fast nur im IDL nutzen!
Das Leben vor dem Computer besteht halt bei den meisten nicht nur aus Computerspielen...
Man kann auch am Computer arbeiten (das nur mal so nebenbei)!


@ Unyu

Du gehst immer von dir aus und von deinen Ansprüchen an Qualität.
Bei den meisten normalen Spielern kannst du froh sein, wenn sie überhaupt wissen, was AA und AF in Grundzügen macht (es gibt auch noch viele, die nicht einmal wissen was das überhaupt ist).
Für mich (und die meisten anderen normalen Spieler ist 4xAA und 16xAF das höchste der Gefühle (sofern es die Grafikkarte packt). Sonst wird es runtergeschraubt oder weggelassen.
Was bringt es mir, wenn ich mit irgendwelchen tollen AA/AF-Einstellungen zwar die Bildqualität verbessern kann, aber mir das Spiel auf Grund mangelnder Effekte nicht mehr gefällt? Aber letztendlich muss diese Entscheidung jeder selbst treffen (aber die meisten denken eben so wie ich).
Von daher ist die Leistung in 1680x1050 und 4AA und 16AF schon relevant, weil wie für die meisten Spieler das Maximum darstellt!
Und in der Einstellung hat einfach die HD 4870 die Nase vorne. Eine 9800GTX kann man hier einfach nciht empfehlen, da man für weniger Geld schon ein bisschen mehr Leistung erhält (HD4850) oder für etwas mehr ein gutes Stück mehr Leistung erhält (HD4870)
 
Zuletzt bearbeitet:
WENN ICH AM COMPUTER ARBEITE dann reich auch ein onbord chip! Oder? Der hat genug leistung dann brauch ic hnich so ne graka! SEI doch mal ehrlich so eine graka is doch nur was für gamer!

Wenn ich meine freundin hin setzt und die will serfen dann is das total OVERKILL! Die leistung liegt brach!
Sicher sollte man mit einem computer mehr machen könne! Aber dann kauf ich mir eine high end karte wenn ich mehr idl als laste xD ^^ :lol: du verstehen?

Ich hatte vorher nen onbord chip im einsatz der hat total gereicht als normal verbraucher dann brauch ich keinen high end chip!

achja hast du schonmal FEAR gesehn ohne AA ? ^^ weißt du wie beschiessen das aussieht? Da schraub ich echt bei dem spiel liebr die texturen runer bzw. lichter und dreh AA auf damit die gitter und anderes net zu verwurschtel aussehen xD^^
 
HrRossi schrieb:
Vielleicht weil der Leistungsnterschied für manche kein Quantensprung ist, aber der Preisunterschied schon.
CB schreibt ja auch nicht, das sie gleichauf sind, sondern das die GTX280 deklassiert wird...

Die GTX280 wird bei 1600x1200 inkl. 8AA/16AF mit einem leichten Vorsprung geschlagen. Da ist das Wort "deklassiert" noch immer fehl am platz und hat CB nie so geschrieben (kein Wunder). Zudem ist das nur diese eine Einstellung! Das ist also alles andere als eine "Deklassierung". Davon könnte man sprechen, wenn sie HD4870 in jeder Disziplin die GTX280 mit so einem leichten Vorsprung überholen würde.

Fakt ist und bleibt laut diesem Test, dass die HD 4870 im Schnitt ca. 18% langsamer als die GTX280 ist und auf gleicher Höher mit der GTX260 liegt.

Und hör doch mal mit den Preisen auf. Das ist immer nur eine Momentaufnahme. Wäre die HD4870 so schnell wie die GTX280 und diese so schnell wie die HD4870, wäre der Preis der ATi auch exorbitant höher. Das P/L Verhältnis (wenn es denn für jemanden wichtig ist), muss zu jedem Kaufzeitpunkt aufs Neue betrachtet werden.
 
Zuletzt bearbeitet:
Zurück
Oben