Test GeForce GTX 480 im Test: Nvidias neues Grafik-Flaggschiff sucht die Extreme

Kasmopaya schrieb:
Es hat auch keinen gestört das HD 4870/90 im Idle totale Verschwender/Umweltsünder waren. Gekauft wurden sie trotzdem wie wild. Ein richtiger ATI Fan redet sich halt auch die schlechtesten Karten einfach schön. Aber kein Wunder die HD 3000 war zu langsam und man hatte quasi keine andere Wahl wenn man ATI Fan war. Mal schaun ob NV Fans vernünftig bleiben und sich keine GTX 480 kaufen. Zur Not wird hald das 2 Wochen Rückgaberecht strapaziert...

Ist das jetzt der Verbale Rückschlag, weil jeder auf der GTX480 rumhackt?
Die ATI Karten brauchten 25Watt mehr im Idle, als ne GTX260 siehe CB Test Grafikkarten 2009 und wurden deutlich billiger angeboten, als gleichwertige Nvidia Derivate, zudem konnte man sie ganz einfach mit Rivatuner heruntertakten, was überhaupt kein Problem war.
Imho sind die Karten keinesfalls schlecht.
Ob die HD3k zu langsam war entscheidet das Einsatzgebiet, oder warum kaufen sich Leute keine HD5870 sondern massenweise HD5770?
 
zumal wir bei der gtx480 von den LAST-werten reden und nicht vom idle.
da liegen doch ALLE karten relativ nahe beieinander ;)

da ist die gtx zwar nicht gut, aber so im rahmen.
daher ist der vergleich mit der hd48xx-reihe komplett daneben....aber so ist kasmo nunmal ;)

mfg
 
Desweiteren spielt das keine Rolle, ob die HD3000 Reihe Leistungstechnisch nicht mithalten konnte. Denn rein P/L technisch passte wieder alles.

Also echtmal, einige machen es sich immer wieder einfach und unterschlagen einfach andere Faktoren, gerade wie es ihnen passt.
 
Fetter Fettsack schrieb:
Ab welchen Grad an Mehrleistung hättest du einer ansonsten idente GTX480 der nun gewählten Karte vorgezogen?

Es war nicht nur der Mangel an derber Mehrleistung (sie hätte bei den Verbrauchswerten und besonders dem Geräuschpegel dabei) eine HD5970 sichtbar toppen sollen. Mir gibt auch ernsthaft zu denken, dass die GTX480 mit mit allen freigeschalteten Einheiten auf den Markt kommt, hier kann man vermuten, dass die Qualität in der Produktion eine Rolle spielt (ähnliches macht AMD mit dem X3 - würde ich mir z. B. nie kaufen!). Hinsichtlich von Garantieansprüchen mag man denken, kann es einem egal sein, nur für mich hat es einen komischen Beigeschmack. AMD brachte den X3 wenigstens neben dem X4 als Top-Komponente zur zusätzlichen Verwertung heraus, bei der GTX480 kommt also salopp ausgedrückt nur der Ausschuss heraus, dies hat es so in der Form noch nicht gegeben. Bei den nVidia-Karten, die ich mir bisher gekauft habe, waren es immer die 'Top of the Line' (und das sind mittlerweile schon eine ganze Reihe von Karten) Produkte, hier und jetzt kann ich sie gar nicht erwerben bei dieser Serie (wird da überhaupt mal eine komme oder gehen sie ausschließlich in Tesla-Produkten weg?).
 
@Mueli
Wobei hier zu unterscheiden gilt ob ein X3 nur aus Preispolitik Gründen deaktiviert wird, oder ob einfach gar nicht mehr machbar ist. Ich finde den Vergleich unglücklich, da impliziert wird die X3 haben allesamt beschädigte Kerne - die GTX480 kann gar nicht mit vollen 512 Shader betrieben werden aufgrund der Stromaufnahme. Der Grund für die Deaktivierung ist nicht nur der Yield und die Resteverwertung.
Ergänzung ()

Auch Tesla werden keine 512 Shader haben sondern lediglich 448 wie die GTX470
 
Wo ist das Problem bei der Spannungsversorgung, es wären alternativ 2 x 8-polige Stecker möglich oder gar ein dritter 6-poliger!

Das mittlerweile, sicher auch auf Grund des Erfolges, heile Kerne beim X4 abgeschaltet werden ist eher positiv zu bewerten und liegt in der Natur der Sache. Intel könnte sicher auch mehr i7 975 verkaufen als so gelabelt werden!
 
Nicht die Spannungsversorgung ist das Problem, sondern der Verbrauch und die Hitzeentwicklung :)
Es nützt ja nichts noch mehr Strom durch zu jagen wenn jetzt schon das ganze zu heiss ist um es zu kühlen ohne dass einem die Ohren abfallen.
 
@complication
Das ist imo nur ein Teil des Problems. Der gefundene Kompromiss aus Yield, angelegte Spannung (und damit Verbrauch und Wärmeabgabe), Takt, Anzahl von ALUs und resultierende (FPS)-Leistung scheint für NV noch der annehmbarste zu sein. Das beeinflußt sich alles gegenseitig.

Will NV die volle Ausbaustufe, so geht erstmal die Yield auf Grund voll defekter Transistoren runter.

1.Variante
Belässt man dabei die Spannung und Takt gleich, geht zusätzlich noch etwas Yield "verloren" auf Grund von schwachen Transistoren, die bei dieser Spannung und Takt nicht mehr zuverlässig schalten. Der Verbrauch geht dabei etwas nach oben (gesenkter Innenwiderstand -> höhere Amperezahl). Die FPS-Leistung wird im Schnitt der derzeitigen Spiele vlt. max. zu 70% (grosszügig geschätzt, wahrscheinlich weniger) mit dem Mehr an Shadern skalieren, also bis zu 4,5% Leistungsplus.

2.Variante
Senkt man bei voller Ausbaustufe und gleicher Spannung den Takt, können ein paar mehr schwache Transistoren "gerettet" werden, Yield geht im Vgl. zur 1. Variante wieder etwas nach oben, Verbrauch im vgl. zum jetzigen Kompromiss etwa gleich, aber auch die FPS gehen etwas runter.(Denn Takt skaliert allgemein besser mit FPS (90% und höher, wenn keine anderen Flaschenhälse da sind), als Shaderanzahl und evt. reicht das nicht mehr, um sich deutlich genug vor die HD5870 zu setzen.)

3.Variante
Geht man dagegen bei voller Ausbaustufe und ohne Taktsenkung mit der Spannung hoch, um die schwachen Transistoren so zu "überreden", zuverlässig zu schalten und damit die Yield im Vgl. zur 1.Variante wieder etwas zu erhöhen, erhöht sich auch der Verbrauch im Vgl. zum jetzigen Kompromiss deutlich stärker (Erhöhte Spannung, gesenkter Innenwiderstand, deutlich höhere Ampere). Folge wäre, eine noch teurere Kühllösung wird benötigt, da die momentan verwendete ja schon ziemlich an der Grenze arbeitet. (und natürlich der Imageschaden bei einigen potentiellen Käufern, denn dann müssen da wirklich 2 x 8pin hin und die TDP könnte auch nicht mehr auf 250W "geschönt" werden.)

Gruß
Raubwanze
 
Zuletzt bearbeitet:
Es hat ja noch für die Performance-Krone gereicht, nur runter mit dem Takt, plus Einheiten abschalten und das auch noch ein halbes Jahr nach Ati hat für mich einen komischen Beigeschmack. Jetzt das vorliegende Design mit Hitzestau und Powermangel zu erklären ist mau, bisher hat es nVidia auch nicht gestört immer größere Kühllösungen zu installieren und den Usern den kauf einer performanteren Power Supply ans Herz zu legen und die gibt es nun reichlich auf dem Markt ....

Die c't hat übrigens Leistungsverbrauchspeaks bis über 300W gemessen und im Fluidmark einen durchschnittlichen Wert von 264Watt, es hätte also noch mehr gestrichen werden müssen (für die 250 Watt ...) aber dann hätte es wohl für die Leistungskrone nicht mehr gereicht :cool_alt:
 
meine Point of View GTX 480 wurde heute kommisioniert :)
hurra ich bekomme morgen oder übermorgen meine Karte!
 
hier der beweis das kommisioniert wurde! bilder werde ich machen wenn ich die in der Hand habe ;)
 

Anhänge

  • Unbenannt.png
    Unbenannt.png
    301,2 KB · Aufrufe: 503
kein problem! vielleicht kommen schon die ersten bilder morgen :D
 
... und dass diese Karte besonders zukunftsorientiert oder modern sei, kann man auch nicht gerade behaupten: Sie besitzt im Gegensatz zur 5870 von ATI offenbar noch nichtmal einen Displayport-Ausgang! :hammer_alt:

Für mich ist das neben dem für heutige Verhältnisse völlig inakzeptablen, unverschämten Energieverbrauch (nVida hällt offenbar nichts von Umweltschutz), der enormen Wärme- sowie Geräuschentwicklung im 3D-Betrieb, sowie dem doch sehr bescheidenen Performancegewinn (Vergleich 5870) ein weiteres KO-Kriterium!

Dann wird es nach über 10 Jahren nVidia-"Fanboytum" (glaub meine letzte ATI-Karte war eine mit Rage 128-Chipsatz wenn ich mich recht zurückentsinne) halt beim nächsten Graka-Wechsel doch wieder mal ein Model von der Konkurrenz, denn dort findet man z.Z. einfach mehr Innovation und das PLV im Hinblick auf die Performance ist dort auch einfach besser! ;-)

Ein dickes Dankeschön an die CB-Redaktion für einen wie immer sehr ausführlichen, umfassenden und transparenten Testbericht. Ihr seid die Besten! :daumen:
 
Ach komm
Als wenn das bisschen so schwer zur globalen Erwärmung (Umweltschutz blabla) beiträgt :rolleyes:

Ich will den hohen Stromverbrauch nicht loben
Aber da sich eh nicht viele Leute das teil kaufen wird man das bisschen eh nichtmehr merken
 
Dann halt noch ein 2m²-Solarpanel auf der Hütte installieren und schon wird die GTX 480 mit erneuerbarer Energie betrieben :D
 
Kommt den nu noch der GTX470 test von CB ? Sollte doch eigendlich bereits in arbeit sein oder nicht ?
 
Shurkien schrieb:
Ach komm
Als wenn das bisschen so schwer zur globalen Erwärmung (Umweltschutz blabla) beiträgt :rolleyes:

Ich will den hohen Stromverbrauch nicht loben
Aber da sich eh nicht viele Leute das teil kaufen wird man das bisschen eh nichtmehr merken

Finde halt dass es das falsche Zeichen zur falschen Zeit ist! (geht auch nicht erst seit dieser Generation von Grakas so, man gucke sich die Entwicklung seit mehreren Jahre an, Nvidia setzt einfach keine Zeichen im Hinblick auf diese Kritieren, was ich sehr enttäuschend finde <- Steinzeittechnologie, etwas überspitzt ausgedrückt!)

Die 5870 von ATI beweisst ja deutlich, dass es eben sehr wohl auch anders geht, denn sie ist nicht nur innovativer, sondern hat auch ein besseres PLV und sie stellt keine so krassen Negativrekorde in Sachen Lärmbelästigung, Wärmeentwicklung und Stromverbrauch auf!

Von daher fällt die Kaufentscheidung (wenn sie denn mal ansteht) hier auch sehr leicht! :)
 
Zurück
Oben