Test ATi gegen Nvidia: 14 Grafikkarten verschiedener Baujahre im Vergleich

na dann wirds wohl doch langsam zeit meine angestaubte X800 XL von sapphire auszuwechseln. wobei der P4 liegt mir mehr am herzen, sie haben beide 4 aufregende jahre hinter sich:D
 
@ .p0!$3n.

tja, fürs nixtun auch noch viel verballern is niht gerade wirtschaftlich. Rein von diesem Aspekt her hatte (nicht nur) ich nach der wirklich guten HD3000 von der HD4000 große Dinge erhofft. Die viel gescholtenen Nvidias haben seit neuestem (GT200, GTS250) sogar nen guten Idleverbrauch ggü. der Konkurrenz.

Aber was ich unsinnig finde, dass Stromsparen zu Lasten der Leistung geht. Bei der Green wurde ein netter Ansatz verfolgt, aber auch die Taktrate gesenkt. Sowas muss doch nicht sein? Lieber einfach genügsame Chips/Boards entwickeln?
 
Kreisverkehr schrieb:
Aber was ich unsinnig finde, dass Stromsparen zu Lasten der Leistung geht. Bei der Green wurde ein netter Ansatz verfolgt, aber auch die Taktrate gesenkt. Sowas muss doch nicht sein? Lieber einfach genügsame Chips/Boards entwickeln?

Danke für den Hinweis.

Eben, die Effizienz des gesamten Systems ist doch beim Käufer zuhause die zu bezahlende Größe, was nützt eine 20 Watt sparsamere Grafikkarte, wenn die CPU weit über die Norm übertaktet wird, 50 Watt mehr zieht, die fps in Spielen auf hohem Niveau um 5 % gesteigert werden (durch die übertaktete CPU). :freak:

Kann man doch noch stolz auf seine Wahl einer sparsamen Grafikkarte sein oder muss man sich schämen für seinen Unverstand, die wahren Energiefresser gefunden zu haben ?

Den Trend sämtliche Komponenten in die Überlegungen miteinzubeziehen, sehe ich ja, nur in den Diskussionen vermisse ich diesen Aspekt (völlig).
 
Wie gesagt, lieber die Effizienz erhöhen anstelle mit schlechteren grünen Produkten zu werben. Wer übertaktet und dabei die Spannung anhebt, sollte sich der steigenden Verlustleistung ohne 1:1 Leistungsgewinn bewusst sein.

Früher hab ich auch gern übertaktet, einfach weils Spaß macht, heute isses eher untervolten und den Verbrauch optimieren- Dazu noch möglichst effizienzte Netzteile ohne auf Speicherplatz und Leistung verzichten zu müssen- Eine zu große Summe auszugeben nur wegen ein paar Watt oder was altes deswegen auszutauschen macht auch nicht unbedingt Sinn.-

Aber lieber gehörig übertakten und so noch ein Jährchen über die Runde zu kommen als gleich was neues anschaffen, denn lieber das vorhandene solange ausfahren, wie es möglich ist.
 
Ich habe meine CPU auch von 3 auf 3.6GHz übertaktet und gleichzeitig von 1.3V auf 1.15V die Spannung herabgesetzt. Warum werden die Produkte nicht so ausgeliefert, dass sie die Spannung besser an den Takt anpassen? Warum muss fast jede CPU mit 0.1V mehr betrieben werden als nötig? Dasselbe gilt bei GPU´s.

Ich finde es schade, dass hier bei mrd von PC´s so ein Schindluder damit betrieben wird. Man sieht es an der neuen Asus 4770, wie viel man da noch rausholen kann.
 
Joa, so gehts natürlich auch, mehr Leistung und weniger Verbrauch *g*

"Gehen würde es sicherlich, aber warum wirds dann nciht gemacht? Was für den einen stabil bedeutet, kann bei nem anderen hochgradig instabil sein, weil er andere Anforderungen hat. GPU/CPU-Hersteller müssen eben auch den extremen Fall mit einkalkulieren und eben genau dafür nen gewissen Pufferbereich anbieten. Wenn man also für jeden Chip so einen Test anwendet, dürfte der Zeitaufwand viel höher sein als der Nutzen den es bringt.

Außerdem: Ich bin mir sicher, dass ein generelles Optimieren am idle-Verbrauch und der Effizienz mehr Sinn macht, als für alles und jeden die Mindestspannung zu testen...

Dann wären da nicht die Boards, die die Spannung nicht 1:1 anlegen, sondern mal übervolten, mal nicht und ggf. sogar untervolten. Und wenn du ein Boad hast, das utnervoltet? Genau dann arbeitet der Prozessor nicht mehr stabil und es ist für beide (Chiphersteller/Kunde) doof."
 
Mehr Aufwand als Nutzen? Bevor die Anwendung ausgeführt ist, weiß der Prozessor ja nicht, welche Daten er berechnen soll und naträglich anpassen bringt ja nichts. Ich finde, es ist daher sinniger immer mehr nichtgebrauchte Bereiche (Idle) abzuschalten, Takt und Spannung (mit Toleranzen) zu senken.

Zu einem sparsamen Prozessor gehört auch ein Board, welches den Mehraufwand nicht zunichte macht. Schlechtestes Beispiel ist hier as GA-MA790FX-DQ6 oder neuerdings das Asrock M3A790GHX/128, welche einfach viel zu viel Strom verballern, mehr als die sonstige Konkurrenz.

Bevor ich an einer Stelle dem letzten Watt hinterherjage mit einem rießigen Aufwand, sollte doch alles im Rahmen des machbaren wenig verpulfern.
 
@ y33H@

Ich wollt jetzt eigentlich den Phenom II 965 da raus lassen, aber bei dem scheints auf alle Fälle so zu sein... Lustigerweise untervoltet mein P35-DS3 ziemlich, gefühlte 0,65V... (bei 1,4V im Bios ~1,31V o.ä.) ... Erwisch da mal nen Chip ohne Sicherheitspuffer...
 
Ja eben, der 955 hat weniger Spannung und schafft das ebenso, aber halt wegen der Toleranz...
 
Kasmopaya schrieb:
Aso, ich dachte schon 46dezibel sind leise. :rolleyes:
Hab das ganze ein wenig gerundet, aber man kann die 4890 noch schlechter da stehen lassen, wenn du willst. Sie ist im Idle 2db lauter, verbraucht aber im Idle 8 Watt weniger. Dh. über die Jahre hat sich die Kühlung verschlechtert! Einige halten die 2900XT für schlecht oder "epic fail" wie du so schön sagst. Was ist dann erst eine Grafikkarte die Jahre später auf den Markt kommt und noch einen oben drauf legt? :lol:

Du bist ja echt n Witzbold, oder ein verblendeter Fanboy...

Schau dir mal die Temperaturen an, kein Wunder, das die 4890 lauter ist...

Zudem ist die Messung in 15cm Abstand zur Graka, also ja, 46dB ist in dem Fall relativ leise.

y33H@ schrieb:
Warum sollte NV etwas tun, wenn ein Shrink des G80 reicht bzw. eine 3 Jahre alte 8800 GTX noch heute eine HD4850 in Schach hält?

4850 hat zur Einführung aber auch nur 1/4 der 88GTX gekostet, wasn das für sinnfreier Vergleich? Zudem ist die 4850 eher vor der GTX.

Luxmanl525 schrieb:
Die 2900 XT war vor allem die ersten Monate weit Schlechter als die Nvidia 8800 G80 Chips. Später gelang es ATI aufgrund Treiberpflege aufzuholen.

Leistungsmäßig war sie von Anfang an gleichauf mit der 8800GTS, auch ein G80. Insofern stimmt deine Aussage nicht. P/L (und andere Faktoren) ist natürlich ein anderes Thema.

Kasmopaya schrieb:
Wenn die Geschichte eins zeigt, dann das man nichts Hypen sollte. Um nicht wieder massig Fehlkäufe zu beobachten sollte man die HD 5000 ganz ruhig und sachlich bewerten und den Test der GT300 abwarten bevor man seine Entscheidung trifft.

Naja, nix anderes machst du mit dem GT300. Genug Leute haben bei der GTX280 einen Fehlkauf gelandet (zumindest für die >500€ Startpreis, der sich quasi schlagartig halbiert hat), insofern hast du allerdings recht, immer schön nüchtern betrachten und dann nach persönlichen Vorlieben entscheiden...
 
Weit über 1/2 Jahr sind nicht schlagartig besonders bei einem hohen Ausgangswert.
Da sind die 3 Monate, nach Zusammenbruch des Marktes, in denen eine 250€ 8800 GT um die Hälfte gefallen ist drastischer, gar schon pervers.

Interessant auch, das du nur auf y33H@s Antwort eingehst, nicht auf den Unsinn davor. (GTX 280 = Böse alte Kammele, 4870 X2 = Erleuchtung)

@Test
Wie war das nochmal mit den 0 FPS, wie wurden die jetzt gewertet? Unendlich wird wie gezählt?
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
4850 hat zur Einführung aber auch nur 1/4 der 88GTX gekostet, wasn das für sinnfreier Vergleich? Zudem ist die 4850 eher vor der GTX.
Die GTX ist auch eine absolute High-End-Karte gewesen, die HD 4850 banales Mid-Range.
 
Hui! So viele weitere Aspekte!^^
Gar keine Zeit alle zu beantworten:D

Also das Stromsparen technisch möglich ist ist kla. Es hat bis jetzt nich genug interessiert um Geld für die Entwiklung auszugeben. Jetzt wirds Zeit!! Dringend.

@ KAOZNAKE

Ja, da muss mann abwägen ob man nur Leistug bewertet oder auch Temperatur/ Lautstärke etc.
Das find ich so schön bei CB das Sie wirklich ausgiebig testen.

Und das man abwarten sollte bei Neuerscheinungen ist schon seit jeher so gewesen. Mal mehr mal weniger. Sind am launch eh immer horende Preise die verlangt werden, zumindest bei Nvidia... das ist ja fast frech!^^

so far
p0is3n
 
Hallo

Der Test hat mir wircklich sehr gut gefallen.

Echt extrem wenn ich mir die NV 6800 ansehe.
Weiß noch ganz genau wie das beim Relase war.

Was für eine Mega schnelle Karte (die x800 Serie von ATI kam etwas später)

Zeigt aber auch wie viele meiner Vorredner schon erwöhnt haben, dass eine NV 8800 oder 2900 XT doch noch nicht so sehr zum "alten" Eisen gehört....

Gruß
 
Beim Idle-Verbrauch sieht man über die Zeit (fast) keine Veränderung; hier hätte ich weitaus schlimmeres erwartet. Der Verbrauch unter Last holt das aber nach: War die 7900 GTX zu ihrer Zeit schon eine "Höllenmaschine", liegt die Hölle mit der GTX285 heute noch einmal fast 100W höher.

Suchen wir eine moderne Karte, die etwa 120W unter einer GTX285 bleibt (also da, wo die Mehrheit der DX9-Karten sich in dem Test findet), wird die Luft dünn: Da sind wir irgendwo bei der 9800 GT. Mit 40nm könnte man aber wohl auch die Leistung der GTS250 auf diesen Verbrauch drücken.

Nach der Leistung betrachtet, scheint es so langsam an der Zeit zu sein, DX9-Karten zu entsorgen, auch wenn die schnellste davon (die X1950 XTX) wohl einer Radeon 4670 recht nah kommen könnte.
 
Zuletzt bearbeitet:
Super Test. Endlich gibt es mal ein Vergleich in dem man sieht, in welchem Feld man sich auch mit einer etwas betagteren Karte bewegt. Bitte mehr davon.
 
Zurück
Oben