Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Test: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI)
- Ersteller Wolfgang
- Erstellt am
- Zum Artikel: Test: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI)
24 Seconds
Commander
- Registriert
- Apr. 2007
- Beiträge
- 2.580
Sehr schick die 4870^^ So wird man wieder zum kaufen verleitet.. Naja, die 3870 langt noch ne Zeit lang
redfirediablo schrieb:Oder doch wieder Colin Mcrae Dirt, aber nein, das wäre zu unfair für alle NV Karten :-)
GRID ist Aktuell und wird häufig gespielt, das wäre gut
Ja das bei CMD der G92 besonders abkakt wegen dem Vram Bug ist bekannt und das hat auch CB gemerkt ^^ ein Schelm der da was böses denkt
...naja wayne der G92/80 ist History interesiert keinen mehr
Wenn einer ein günstige Graka für ein Wohnzimmer PC sucht die leise und wenig verbrauchen soll, sowie sehr gut HD unterstützung hat sucht, kann auf den RV670 setzen
Gorby
Vice Admiral
- Registriert
- Juni 2008
- Beiträge
- 7.097
Also ich hab den Rechner von nem Kumpel zusammen gebaut mit MSI HD3870 im Standardlayout ohne OC, nem ASUS P5K, E6850, Arctic Freezer 7 Pro, 1x 120 Scythe, einmal 120 Coolermaster (bei gehäuse dabei) und nem Coba Nitrox 600W....
Von dem Rechner hört man NIX und erst recht nicht von der GraKa.
Meine, laut Test viel leisere 8800 GTS 512, ist bei Load deutlich zu hören (hatte schon alle Treiber drauf, aber kein Unterschied!), obwohl mein ganzes Sys recht hörbar ist!
Von dem Rechner hört man NIX und erst recht nicht von der GraKa.
Meine, laut Test viel leisere 8800 GTS 512, ist bei Load deutlich zu hören (hatte schon alle Treiber drauf, aber kein Unterschied!), obwohl mein ganzes Sys recht hörbar ist!
Hans Payne
Lieutenant
- Registriert
- Nov. 2006
- Beiträge
- 624
... bin immernoch am überlegen, ob der 50%ige (70 €) aufpreis gegenüber der 4850er die ~ 22% mehrleistung rechtfertigen... denn ob 18 oder 22 fps is ja wayne, beides zu wenig :/
...ne gtx 260 für vllt bald auch um die 210 € auf 280er niveau getaktet wär aber auch geil
...ne gtx 260 für vllt bald auch um die 210 € auf 280er niveau getaktet wär aber auch geil
Zuletzt bearbeitet:
Philze schrieb:oda sich eine 88GT kaufen^^
Nö verbraucht ja mehr im IDLE und hat kein Sound 5.1 über HDMI, und der VP ist bei ATI eh besser sowie auch der Deinterlacer und die BQ.
Evileddie79
Lieutenant
- Registriert
- März 2004
- Beiträge
- 733
@ CB : Wieso testet ihr eigentlich nicht in der mittlerweiler recht häufig genutzen Auflösung von 1680x1050?
will von meiner 8800GT umsteigen.Ob nun die GTX260 oder eine HD4870 weiß ich noch nicht.ich warte mal ab was die neuen Treiber bringen und ob Karten mit andren kühler kommen.
will von meiner 8800GT umsteigen.Ob nun die GTX260 oder eine HD4870 weiß ich noch nicht.ich warte mal ab was die neuen Treiber bringen und ob Karten mit andren kühler kommen.
LinuxMcBook
Banned
- Registriert
- Juli 2008
- Beiträge
- 4.595
Dieser Test ist super gelungen.
Was ich aber sehr vermisse ist ein Benchmark um die Rechenleistung der Karten zu vergleichen, also wie bei den letzten Tests ein Benchmark mit folding@home. Vielleicht kann ComputerBase diesen ja nochmal ranhängen.
Was ich aber sehr vermisse ist ein Benchmark um die Rechenleistung der Karten zu vergleichen, also wie bei den letzten Tests ein Benchmark mit folding@home. Vielleicht kann ComputerBase diesen ja nochmal ranhängen.
Martricks
Lieutenant
- Registriert
- Sep. 2005
- Beiträge
- 884
Moin Leute.
Habe heute meine 4870 bekommen.Habe Crysis angespielt und Fraps mitlaufen lassen.Spiele auf 1920x1200 1xAA Very High alles.Fraps zeigt mit 20FPS an aber das fühlt sich ganz und garnicht wie 20FPS an!!!!Läuft superflüssig.Bei r_displayinfo 1 wird mir ebenfalls 20FPS angezeigt.Hat einer ne ahnung ob Fraps evetuell falsch ausliest?Kann ja eigentlich nicht sein oder?
Habe heute meine 4870 bekommen.Habe Crysis angespielt und Fraps mitlaufen lassen.Spiele auf 1920x1200 1xAA Very High alles.Fraps zeigt mit 20FPS an aber das fühlt sich ganz und garnicht wie 20FPS an!!!!Läuft superflüssig.Bei r_displayinfo 1 wird mir ebenfalls 20FPS angezeigt.Hat einer ne ahnung ob Fraps evetuell falsch ausliest?Kann ja eigentlich nicht sein oder?
Hans Payne schrieb:... bin immernoch am überlegen, ob der 50%ige (70 €) aufpreis gegenüber der 4850er die ~ 22% mehrleistung rechtfertigen... denn ob 18 oder 22 fps is ja wayne, beides zu wenig :/
Lol...wie ist dann der 60%ige Aufpreis von der GTX260 zur GTX280 zu rechtfertigen, bei 20% mehr Leistung ???
Bei ATI bekommt man wenigstens noch einen guten 2 Slotkühler mitzu.
ragnarok666
Lt. Junior Grade
- Registriert
- Feb. 2008
- Beiträge
- 353
@ aspro,
die großen Neuerung in der Architektur des GTX280 sind:
1. 16K Speicher für jede SM -> Hat ATI Auch
2. Bei NV hat jede SM noch eine DP-Einheit, hat ATI nicht, das macht aber mit abstand keine 400Mil Transitoren aus. Rechenwerke sind im Vergleich mit Speicher klein, siehe Penryn dessen Die-Fläche zum größten TEil für den Cache draufgeht.
Extra Logik braucht man für GPGPU nicht, ein Shader bearbeitet Flieskommazahlen, ob die einen Farbwert oder was anderen entsprechen juck die wenig, reine Softwaresache. GTX280 hat nur die DP-Einheiten für GPGPU den RV770 vorraus.
die großen Neuerung in der Architektur des GTX280 sind:
1. 16K Speicher für jede SM -> Hat ATI Auch
2. Bei NV hat jede SM noch eine DP-Einheit, hat ATI nicht, das macht aber mit abstand keine 400Mil Transitoren aus. Rechenwerke sind im Vergleich mit Speicher klein, siehe Penryn dessen Die-Fläche zum größten TEil für den Cache draufgeht.
Extra Logik braucht man für GPGPU nicht, ein Shader bearbeitet Flieskommazahlen, ob die einen Farbwert oder was anderen entsprechen juck die wenig, reine Softwaresache. GTX280 hat nur die DP-Einheiten für GPGPU den RV770 vorraus.
doesntmatter
Commodore
- Registriert
- Dez. 2007
- Beiträge
- 4.857
Ein wertvoller Test der beiden Kontrahenten:
- viele ältere Grafikkarten wurde aufgelistet (gut um die eigene Karte einzuordnen)
- Schwächen wurden offenbart (Stromaufnahme, Einbrüche bei hohen Qualitätseinstellungen, VC-1 etc.)
- danke für Gothic3 (das wollte ich persönlich wissen )
- leider keine Vergleichsdaten für HD3850 im Crossfire sowie GTX 280 im SLI (hätte den Test richtig "rund" gemacht)
- wenigstens ein Hinweis auf folding@home wäre wünschenswert (insb. unter Aspekten des relevanten Vollast-Verbrauch)
And the winner is .. für jeden ist etwas dabei, das Preis-Leistung-Verhältnis ist ein tolles Feature eures Tests, darauf werde ich wie in der Vergangenheit verweisen. Im Performancerating kann sich jeder den Favoriten für seine persönlichen Auflösung heraussuchen, klasse !
Und mein Weltbild wurde wieder gerade gerückt, nein, nicht die HD4850/70 hat "gewonnen", sondern die GTX 260. Ich lege natürlich eigene Kriterien an:
- Stromverbrauch im Idle + Hybrid Power-Technologie, d.h. Null Watt !
- Stromverbrauch unter Last
- Übertaktbarkeit
- Leistung unter folding@home (auch andere CUDA-fähige Karten)
- o.k. der Preis ... fällt noch
- Erweiterung meines Portfolio (für jede Anwendung die leistungsfähigste Grafikkarte)
Die Preise sinken bei beiden Konkurrenten, sehr bald überwiegt die Stromeinsparung (Langzeitkosten) vor dem (scheinbar) höheren Preis. Andere Tests sind zwar widersprüchlich in einer Gesamtbewertung der GTX 260, aber nun steht mein nächster Kauf fest (dass die FAH-Entwickler bei ATI noch Land sehen, bezweifle ich inzwischen).
Meine letzten Grafikkarten waren von ATI/AMD (X800GT, X1900 All-in-Wonder, 2x HD3850), davor eine Geforce6 V9999GT, also bitte keinen Fanboy-Vorwurf, ich empfehle den RV670 weiterhin, auch heute. Immer den Einsatzzweck gründlich bedenken, die HD3000-Serie ist nahezu konkurrenzlos, die HD4000-Serie - unter den derzeitigen Problemen - nicht mehr.
- viele ältere Grafikkarten wurde aufgelistet (gut um die eigene Karte einzuordnen)
- Schwächen wurden offenbart (Stromaufnahme, Einbrüche bei hohen Qualitätseinstellungen, VC-1 etc.)
- danke für Gothic3 (das wollte ich persönlich wissen )
- leider keine Vergleichsdaten für HD3850 im Crossfire sowie GTX 280 im SLI (hätte den Test richtig "rund" gemacht)
- wenigstens ein Hinweis auf folding@home wäre wünschenswert (insb. unter Aspekten des relevanten Vollast-Verbrauch)
And the winner is .. für jeden ist etwas dabei, das Preis-Leistung-Verhältnis ist ein tolles Feature eures Tests, darauf werde ich wie in der Vergangenheit verweisen. Im Performancerating kann sich jeder den Favoriten für seine persönlichen Auflösung heraussuchen, klasse !
Und mein Weltbild wurde wieder gerade gerückt, nein, nicht die HD4850/70 hat "gewonnen", sondern die GTX 260. Ich lege natürlich eigene Kriterien an:
- Stromverbrauch im Idle + Hybrid Power-Technologie, d.h. Null Watt !
- Stromverbrauch unter Last
- Übertaktbarkeit
- Leistung unter folding@home (auch andere CUDA-fähige Karten)
- o.k. der Preis ... fällt noch
- Erweiterung meines Portfolio (für jede Anwendung die leistungsfähigste Grafikkarte)
Die Preise sinken bei beiden Konkurrenten, sehr bald überwiegt die Stromeinsparung (Langzeitkosten) vor dem (scheinbar) höheren Preis. Andere Tests sind zwar widersprüchlich in einer Gesamtbewertung der GTX 260, aber nun steht mein nächster Kauf fest (dass die FAH-Entwickler bei ATI noch Land sehen, bezweifle ich inzwischen).
Meine letzten Grafikkarten waren von ATI/AMD (X800GT, X1900 All-in-Wonder, 2x HD3850), davor eine Geforce6 V9999GT, also bitte keinen Fanboy-Vorwurf, ich empfehle den RV670 weiterhin, auch heute. Immer den Einsatzzweck gründlich bedenken, die HD3000-Serie ist nahezu konkurrenzlos, die HD4000-Serie - unter den derzeitigen Problemen - nicht mehr.
redfirediablo
Lt. Junior Grade
- Registriert
- Okt. 2006
- Beiträge
- 509
Martricks schrieb:Moin Leute.
Habe heute meine 4870 bekommen.Habe Crysis angespielt und Fraps mitlaufen lassen.Spiele auf 1920x1200 1xAA Very High alles.Fraps zeigt mit 20FPS an aber das fühlt sich ganz und garnicht wie 20FPS an!!!!Läuft superflüssig.Bei r_displayinfo 1 wird mir ebenfalls 20FPS angezeigt.Hat einer ne ahnung ob Fraps evetuell falsch ausliest?Kann ja eigentlich nicht sein oder?
Wenn ich mir deine sig so anschaue hattest du vorher cf? Wenn ja dann sind jetzt einfach die Microruckler weg :-)
setnumbertwo
Lieutenant
- Registriert
- Aug. 2007
- Beiträge
- 917
also zwecks der Leistungsaufnahme habe ich das kurzmal durchgerechnet.
Sagen wirmal der Gamerrechner läuft 8 Stunden am Tag davon werden 2 Stunden mit spielen verbracht,
somit hat die HD4870 einen täglich Mehrverbrauch von 284 Watt gegenüber der GTX260. Rechnet man das
auf einem Jahr hoch bei 20 Cent/KWh kommt man bei einem Jahr auf 20,73 €. Für jedes folgejahr bei gleichbleibender Nutzung werden weitere 20,73€ dazu addiert.
Wer sich nun alle 2 Jahre eine neue Grafikkarte gönnt und das tun die meisten Käufer dieser Klasse ist mit
dem Ableger von ATI besser bedient als dem von Nvidia. Bei einem Käufer der für die nächsten 3 Jahre
keine neue Grafikkarte kaufen möchte ist klar mit der GTX260 besser bedient!
Alle Angaben verstehen sich nur mit der jetztigen Preiskonstelationen des Marktes und müssen bei einem
Kaufgrund am selbigen Tag erneut durchgerechnet werden mit den aktuellen Zahlen!
----------------------------------------------------------------------------------------------------------------------------------------
Natürlich könnte ATI sich einen weiteren Vorteil ausbauen wenn sie die Idle-Leistungsaufnahme doch noch
senken können. Ich glaube aber das sie das nicht mehr schaffen können und es kein Treiberproblem ist.
Sonst wäre das wohl kein Problem! Viel naheliegender und wie es CB auch beschreibt sitzen die
Problemwurzeln wohl in der neuen GPU (800 Shadereinheiten müssen auch irgendwie am leben erhalten
bleiben^^).
gruß
setnumbertwo
Sagen wirmal der Gamerrechner läuft 8 Stunden am Tag davon werden 2 Stunden mit spielen verbracht,
somit hat die HD4870 einen täglich Mehrverbrauch von 284 Watt gegenüber der GTX260. Rechnet man das
auf einem Jahr hoch bei 20 Cent/KWh kommt man bei einem Jahr auf 20,73 €. Für jedes folgejahr bei gleichbleibender Nutzung werden weitere 20,73€ dazu addiert.
Wer sich nun alle 2 Jahre eine neue Grafikkarte gönnt und das tun die meisten Käufer dieser Klasse ist mit
dem Ableger von ATI besser bedient als dem von Nvidia. Bei einem Käufer der für die nächsten 3 Jahre
keine neue Grafikkarte kaufen möchte ist klar mit der GTX260 besser bedient!
Alle Angaben verstehen sich nur mit der jetztigen Preiskonstelationen des Marktes und müssen bei einem
Kaufgrund am selbigen Tag erneut durchgerechnet werden mit den aktuellen Zahlen!
----------------------------------------------------------------------------------------------------------------------------------------
Natürlich könnte ATI sich einen weiteren Vorteil ausbauen wenn sie die Idle-Leistungsaufnahme doch noch
senken können. Ich glaube aber das sie das nicht mehr schaffen können und es kein Treiberproblem ist.
Sonst wäre das wohl kein Problem! Viel naheliegender und wie es CB auch beschreibt sitzen die
Problemwurzeln wohl in der neuen GPU (800 Shadereinheiten müssen auch irgendwie am leben erhalten
bleiben^^).
gruß
setnumbertwo
|nsb|urmel
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 5.074
Hinweis :
Netzteile die "nur so grade noch" ausreichen können auch aus anderen Gründen auf Dauer nicht gut genug sein. Am Limit arbeitende Netzteile werden auch heisser. Vor allem die darin verbauten ondensatoren/Elkos im Netzteil haben dadurch eine geringere Lebenserwartung.Laut Datenblättern haben z.b. die meisten Elkos bei etwa 50°C Betriebstemperatur "nur" noch eine Lebenserwartung von rund 5 Jahren und bei etwa 60°C aber nur noch 2-3 Jahren. Das nächste ist der Überlastungsschutz : Leider kann es auch bei einigen Markennetzteilen wenn auch nur sehr selten vorkommen das dieser Schutz (über ein Mess/Thermo-
Schaltrelai realisiert) nicht immer zuverlässig arbeitet - reagiert er nicht rechtzeitig kann im schlimmsten Fall das Netzteil "abrauchen",insbesondere Kondensatoren zerplatzen oder aber nur still und heimlich kapput gehen - um so eher es ständig am Limit betrieben wird (da "WATT-Unterdimensioniert") um so grösser ist dieses Risiko.
Sollte, wenn man solche Kalkulationen anstellt, aber auch noch mitbedacht werden. Danke DJDino...
redfirediablo
Lt. Junior Grade
- Registriert
- Okt. 2006
- Beiträge
- 509
setnumbertwo schrieb:Sonst wäre das wohl kein Problem! Viel naheliegender und wie es CB auch beschreibt sitzen die
Problemwurzeln wohl in der neuen GPU (800 Shadereinheiten müssen auch irgendwie am leben erhalten
bleiben^^).
gruß
setnumbertwo
Sehe ich nicht so. Die 3870 brauch 20 Watt im Idle on card gemessen, die 4870 80 Watt.
Das ist 4 mal soviel! Die Shader sind aber nur von 320 auf 800 gegangen, also nur etwa dreimal soviele. Zudem taktet die 4870 nicht so weit runter, sie verringert die Spannung nicht. Alles Dinge die man noch ändern kann.
Auch interessant ist das Verhältnis Vollast/Idle.
Die 3870 brauch 80 Watt Vollast, 20 Watt Idle. 4870 150 Watt Vollast, 80 Watt idle.
Insofern ist der Sparfaktor bei der 3870 doppelt so groß gegenüber Vollast, unter der Annahme das ATI jetzt die Technologie logischerweise nicht verschlechtert sollte doch mindestens der selbe Faktor auch bei der 4870 erreichbar sein.
Ähnliche Themen
- Antworten
- 93
- Aufrufe
- 11.340
- Antworten
- 229
- Aufrufe
- 53.011
B
- Antworten
- 7
- Aufrufe
- 4.462