Test Test: Nvidia GeForce GTX 480

ist tripple sli mit dem GTX480 hardwaretechnisch möglich?

falls ja würd mich der Verbrauch/ Temperatur interessieren ;)
 
s4pph1r3 schrieb:
ist tripple sli mit dem GTX480 hardwaretechnisch möglich?

falls ja würd mich der Verbrauch/ Temperatur interessieren ;)

da reicht nen einfacher schuko-stecker für dein NT aber nimmer. Mach dir schon mal gedanken wie du den drehstromanschluss von sicherungskasten am besten zum pc legst.

ausserdem könnte es wohl ein alternatives standbei für nen kachelofen-bauer sein. Lärm wird gedämmt und gleichzeitig mit der abwärme das haus heizen.
 
Leistungs mäßig natürlich top, aber ich versteh nicht wieso Nvidia und auch ATI nicht mal in Strom sparende -> wenig Hitze "forscht". Den ich glaube das würden viel mehr Käufer an Land ziehen als immer nur Leistung die der Otto-verbraucher eh nicht braucht.
 
hurga_gonzales schrieb:
Ihr sprecht hier des Öfteren von einer ATI 5890...ist die angekündigt? Für wann? Daten? Links? hechel....:evillol:

Es war klar das eine kommt, nur wann entscheidet Ati nach der Leistung der Konkurrenz.... es soll noch eine GTX485 kommen, eventuell wird dann die HD5890 veröffentlicht, oder eben bald als Antwort auf die GTX480.

Eine nochmals Übertaktete HD5890 wird die GTX480 auf jeden Fall schlagen, wie das mit der GTX485 aussehen wird, ist die Frage (wenn Nvidia die karte überhaupt bauen kann, Karten dürfen bis jetzt maximal 300 Watt verbrauchen..... )


Die Nvidia Fanboys die jetzt erzählen das der Stromverbrauch überthematisiert wird, die scheinen Entweder RWE oder E.O.N. Aktien zu haben oder noch bei Mama und Papa zu wohnen :lol:

147 Watt mehr unter Last... in 6 Stunden und 48 Minuten hat man eine KilowattStunde durch die Leitung gezogen.

Viele zocken bis zu 6 Stunden am Tag... wäre dann 365 Kw im Jahr... bei 21 Cent /kwh = 76,65 Pro Jahr zusätzlich zu dem ohnehin schon hohen Anschaffungspreis...

Wenn man mal hochrechnet was Ati für einen Chip mit der Leistungsaufnahme hätte bauen können.... der wäre dann echt doppelt so schnell wie fermi :lol:

Ich hab Ökostrom, ich hätte nur meinem Konto gegenüber ein schlechtes Gewissen...


Wie ich es gesagt habe, Nvidia hat keine Ahnung wie man einen neuen Prozess anfängt und sich bisher alles bei Ati abgeschaut... diesmal meinten sie, das sie alles allein können, Probleme die Ati gelöst hat bestreitet Nvidia nach wie vor und was dabei rumkommt sieht man ja, die Spannung muss erhöhrt werden damit die Taktraten nicht im Keller sind und das führt zu dieser wahnwitzigen Leistungsaufnahme.
 
Wenigstens können sie sich mit dm Titel mit der "Strärksten Single Gpu" rühmen und genau dadurch werden sie die Karten natürlich bei Alienware und anderen Konsorten auch, wenn nur mäßig verkaufen....:freak:

Aber wahrscheinlich wird sich das alles mit den nächsten Generationen ändern^^
NV wollte halt einfach nicht den Anschluss verlieren und musste die Karten mal präsentieren:lol:
Hoffen wir nur das sich an der Verfügbarkeit was ändert und der Preis sich damit etwas stabilisiert (so 300 für ne 5870 wär schon ok :cool_alt:)

Bis dahin FAIL:evillol:
 
Traurig wie geshockt hier einige sind, wie andere noch über Probleme mit dem Chip spekulieren und dritte sich sogar den Chip schön reden. Der ganzen Branche ist doch schon lange klar gewesen das es massive Designfehler gab, deswegen werden auch nur 7000 bis maximal 10000 GPUs produziert. Manche Quellen sagen auch nur 5000. Und bei diesen zahlt Nvidia schon ordentlich drauf.

Aber Verständlich da es nie irgendwelche Artikel auf deutschsprachigen Seiten zu den Problemen mit Fermi gegeben hat, obwohl sie seit mindestens einem Monat mehr oder weniger bekannt sind. Selbst jetzt liest man hier bei Computerbase nix von diesen Problemen, naja vielleicht kommt ja noch was.

Die Probleme von Fermi:

Die Yields befinden sich im unter 10% Bereich
Es gab schon 3 Metal Layer Spins (A3), die aber nur logische Probleme beheben.
Extremer Stromverbrauch kann nur durch einen Base layer Spin ebhoben werden, sowas dauert minimum 3 monate, wahrschinlich aber 6 monate.
Nvidia hat keine Tests bei TSMC gefahren, Ati hingen schon
Die Fermi Chips sind so gross das sie gerade noch in den Maschinen bei TSMC gefertigt werden können, je grösser der Chip desto schlechter wird der Yield. Ati Chips sind vergleichsweise klein (555mm² gegen 3xxmm² glaube ich). Das heisst ein GF100 kostet rund 60% mehr als ein Cypress, die Yields bei Seite gelassen.
Die Transistoren streuen sehr in der Fertigung bei TSMC, das heisst manche sind langsamer und manche sind leaky. Um die langsameren normal funktionsfähig zu machen braucht man mehr voltage als normal, dadurch leaken die "Leaky" Transistoren aber noch mehr. Dadurch der riesen Stromverbrauch und die Hitze.
Wegen den ganzen Hitze udn Strom Problemen kann man auch nicht den gewünschten takt fahren, es heisst der angestrebte Takt war etwa 20% höher als jetzt.
Es war bis jetzt möglich Shader mit "schelchten" Transistoren abzuschalten und die CHips dann als "kleinere" Karten zu verkaufen zB 280GTX -> 260GTX, dies geht bei Fermi nur noch bedingt weil die Shade in 32er Clustern sind. Das heisst man muss den ganzen Cluster abschalten.
Man munkelt die Kosten liegen im moment ziemlich genau bei $500 per Chip, könnt ihr euch ja vorstellen wie lange Fermi noch produziert wird.
Fermi kommt nicht vor einem Base Spin und 28nm Shrink auf die Beine, der Chip ist einfach zu gross, zu heiss, zu teuer und zu fehlerhaft. Frühstens Q3 wird es brauchbare Chips im Fermi Design geben, wenn Nvidia ab jetzt alles richtig macht.

Und bitte glaubt nicht das die Karten in 2 Wochen oder irgendwann später irgendwo wirklich lieferbar sind, auch alle kleineren Fermis werden floppen, da ATi noch viel Spielraum im Preis hat, und Nvidia so weit drücken kann bis auch diese nur noch Verlust einfahren. Nvidia hat 900 Wafer gekauft und diese werden jetzt abproduziert. Da nun klar ist das der Chip rote Zahlen macht werden wohl keine neuen gekauft.

Ich bin kein Ati Fanboy, ich habe selber mehr Nvidia Karten als Ati Karten, aber Fermi ist leider ein Flop... schade so wird es wohl nicht zu einem wirklich Preiskampf kommen.

"The chip is unworkable, unmanufacturable, and unfixable. "
 
Zuletzt bearbeitet:
Gu4rdi4n1337 schrieb:
@ ekin06
deine karte ist doch noch völlig ausreichend
Um die Leistung gehts mir im Prinzip auch nicht, will nur eine - im Idle - stromsparendere Karte, weil mein Rechner min. 25h am Tag an ist. ;)

So könnte ich den Verbrauch um nochmal gut 30W auf, ich hoffe mal 50-60W reduzieren. Und das ist es mir Wert.
 
Mir kommt es so vor, als hätte Nvidia den Plan gehabt Multi GPU Karten überflüssig werden zu lassen; eine GPU betreffend Die Größe, Transistoranzahl, Leistungsaufnahme und damit Wärmeentwicklung auf das maximal mögliche zu bringen, um damit die Leistung eines kleineren Prozessors in Dual Konfiguration zu erreichen, nur ohne die Nachteile der Microruckler.
Nur funktioniert(e) das wohl nicht (wobei das wohl auch nicht wirklich die Intention dahinter war);
die Fertigungsprobleme die durch einen so großen Chip einhergehen, vielleicht aber wahrscheinlich eher nicht nur, begründet auf den Fertigungsprozess in 40nm bei TSMC. Die Tatsache der höheren Leistungsaufnahme je größer der Chip wird afaik. Alles was hinzu kommt.
Die GTX 480 hätte das Gegenstück zur 5970 werden können, die Ablösung der Multi GPU; mit ähnlichem Stromverbrauch, ähnlicher Hitzeentwicklung, in Benchmarks moderat geringeren FPS, dafür aber ohne die Microruckler probleme, und ähnlichem Preis. Und ein halbierter Chip wäre das Pendant zu einer 5850 werden können.

Doch klappt das (so) nicht, dafür gibts zu viele Ecken und Kanten an zu vielen Stellen; die nicht linear ansteigende Verlustleistung, der Preis durch die allgemein geringere Ausbeute, kombiniert mit der höheren Anzahl an Defekten Chips, und als Kombination der ganzen Probleme ist die Mehrleistung einfach zu gering.

Wo hier die Grenze ist, bezüglich der Vernunft, das technisch Mögliche bis zum Anschlag auszuloten, und auszunutzen, ist schwer zu ermitteln. Bei einer GTX480 und imho auch einer GTX470 ist sie imho aber deutlich Überschritten.
Man muss einfach einsehen das dieser Punkt, an dem die Relation zu Verbrauch, Kosten und Leistung ganz weit unter dem GF100 angesiedelt ist. Das auch eine 5970 - nur der FPS willen - eigentlich nur als Randerscheinung eine Berechtung hat, aber für 95% der Kunden das Beste und Sinnvollste geschaffen aus dem aktuell technisch machbaren eher im Bereich einer 5850 oder 5770 zu finden ist. Sollte der GF104 sich mit ähnlichen Rahmenbedingungen hier einordnen können, gehört er natürlich mit auf die Liste.


Dr.Duschlampe schrieb:
@milamber!
Unspielbar wird Metro2033 auf der "neuen" ATI-Hardware bei 1920x1200, weil der 5850/70 wohl der Speicher ausgeht bei 4xMSAA. PCGH: Metro 2003.
26FPS bei der 480 GTX @1680x1050@4xMSAA Average FPS im Gegensatz zu nur 16FPS bei der HD 5870 sind auf jeden Fall spielbar.

Tut mir leid, aber einen Shooter mit 26Avg und 22 min FPS als "Spielbar" zu bezeichnen ist nicht ernst zu nehmen. Selbst die Avg 32 FPS bei Computerbase sind Grenzwertig, wenn man bedenkt das dies nur 1680x1050 sind, und wir über eine vorraussichtlich ~480€ teure Grafikkarte sprechen.

Metro 2033 ist schlicht und ergreifend das, was Crysis vor ein paar Jahren war: mit aktueller Hardware auf gewohnten Settings nicht spielbar.

Mr.Zweig schrieb:

Wie meinen?

Athlonscout schrieb:
Irgendwie kommt einem der Avatar des Bloggers doch von einem Boardie des CB Forums bekannt vor!:p

Das hatten wir im Fermi Spekulations Fred schon angesprochen, aber ich bin mir ziemlich sicher, das war er wohl nicht.


Vitec schrieb:
Also ich bin mal der meinung von buntstift das die stromaufnahme absolut überthematisiert wird hier.

Nein, wird es nicht. Weil die gebotene Leistung nur in Relation aller Faktoren zu betrachten ist. Und mit Blick auf Preis, Stromverbrauch, Wärmeentwicklung und allen anderen Vor- und Nachteilen ist die Leistung der 480/470 'unbrauchbar'. Mit der Brechstange das Maximum aller geschriebenen und ungeschriebenen Gesetze aus der aktuell möglichen Technik zu holen, ist aller höchstens etwas für weitere Forschung, Entwicklung oder einfach nur für "was könnte sein wenn...".
Für den Markt, die Kunden, die Consumer ist das jedoch völlig Indiskutabel. über 100 Watt bei HD Video Wiedergabe, oder Multimonitor Support ist Indiskutabel. ~20% Mehrperformance bei diesen Voraussetzungen ist Indiskutabel.


@Wolfgang:
Ich danke für den Test und die Mühen.
Ich muss jedoch anmerken, das man deutlich darauf aufmerksam hätte machen sollen, das lediglich die 5870 mit dem Catalyst 10.3 gebencht wurde, und die Werte der restlichen Karten vom Roundup Test 2009 übernommen sind.
Es ist vollends verständlich, das die Zeit fehlte alle Karten mit den neuen Treibern komplett nach zu testen, und hier Primär der Vergleich zwischen den Top Karten 5870 und GTX 480 gefragt ist.
Aber es verfälscht trotzdem das Performance Rating, und auch das Preis / Leistungsrating, und sind im Grunde nur bezüglich der 5870 und 480 aussagekräftig.
Insbesondere bei der 5850 als Alternative zur 5870 kostet dies ne Menge Credits, verliert sie gegenüber der 5870 doch ca. 6%, und wohl ebenso fehlt die Performance des 10.3 der 5970, welche sich Beispielsweise bei Dirt 2 deutlich vor der GTX 480 positioniert hätte.

Nochmal, das dafür die Zeit fehlte alle Karten nach zu testen, vollstes Verständnis, das dieser Umstand jedoch nur mit einem "(HD 5870)" unter den Testsysteminformationen nach zu vollziehen ist, verstehe ich nicht.
 
Zuletzt bearbeitet:
Cypress ist eh noch ausbaufähig was den Takt betrifft, eine HD5890 wird sicher kommen, dann ist auch der Vorsprung an fps wieder weg. Fermi hingegen kratzt schon am maximum, wie oben beschrieben geht da nur was mit einem Base-Spin.
 
Nur nicht ärgern, es gibt gute und schlechte Seiten der Karten und Nvidia wird daraus schon die Lehren für die Zukunft ziehen.

Nvidia hat eine neue Architektur, sie wissen vielleicht jetzt schon wo die Probleme herkommen, und werden in den nächsten Monaten und Jahren daran arbeiten, um diese zu beseitigen. AMD/Ati hat noch keine neue Architektur und die 5xxx Reihe wird für Top Performance für die Zukunft nicht ausreichen.

Das Rennen ist also offen, auch wenn es im Moment nicht gut für Nvidia aussieht. Denke noch an Barcelona von AMD, der war ja auch nur ein Flop, erst der Nachfolger hat die erhoffte Leistung gebracht.

:freak:
 
ekin06 schrieb:
Um die Leistung gehts mir im Prinzip auch nicht, will nur eine - im Idle - stromsparendere Karte, weil mein Rechner min. 25h am Tag an ist. ;)

So könnte ich den Verbrauch um nochmal gut 30W auf, ich hoffe mal 50-60W reduzieren. Und das ist es mir Wert.

Versteh gar nicht, dass deine 4850er nicht downclockt.
Meine taktet im idle 160 MHz GPU, 250 MHZ Memory (sapphire vaporx 1024)

hmm nur ich glaub beim x2 5200+ EE ist ne nummer zu klein für die.

rapist schrieb:
Nur nicht ärgern, es gibt gute und schlechte Seiten der Karten und Nvidia wird daraus schon die Lehren für die Zukunft ziehen.
nach dem schema fx5800, hd2900 und gf100 müsste ati jetzt mit dem nächstem neuen chipdesign wieder am drücker sein ne bauchlandung zu machen :-)
 
Zuletzt bearbeitet:
800 Mio Transistoren mehr für 15% mehr Leistung?
Naja da bricht AMD sicherlich nicht der Schweiß aus, vor allem hat man Watt-mäßig Luft nach oben um die Performance zu steigern.

Die Performancekrone hat nvidia, auch zurecht, aber zu welchem Preis.
 
da hat man sich so auf die neue nvidia generation gefreut und dann kommt am ende so ein flopp raus...
da fragt man sich doch, wiso ein so mangelhaftes produkt auf den markt geworfen wird...
ich will garnicht wissen wieviele reklamationen es in diesem sommer geben wird...

was solls dann wird die nächste karte eine ati
 
Man stelle sich vor die karten wären bereits draußen gewesen als der Treiber mit der fehlerhaften Lüftersteuerung raus kam :lol:

"Oh, mit dem neuen Treiber ist die karte ja richtig leise :) .... was stinkt denn hier so?"
 
bleibt zu hoffen dass ati mit der produktion hinterher kommt und damit die karten besser verfügbar werden.
hab keine lust 4wochen auf ne graka zu warten
 
wieviel Ampere braucht man auf der 12V Schiene des Netzteils für die GTX480?

ich glaube nicht das mein 550Watt(44A auf 12V) Bequiet da ausreicht:D

Fermi ist für mich eine entäuschung was Leistungsaufnahme und Wärme bzw Hitzeentwicklung angegeht:(
 
Wattebaellchen schrieb:
Man stelle sich vor die karten wären bereits draußen gewesen als der Treiber mit der fehlerhaften Lüftersteuerung raus kam :lol:

"Oh, mit dem neuen Treiber ist die karte ja richtig leise :) .... was stinkt denn hier so?"

Du lachst, aber das is gar nicht mal so witzig (für nen GF100 Besitzer) ;)


Der Lüfter drehte mit einem Mal auf enorme 3000 Upm und brüllte beinahe das Haus zusammen (Spectrin Test). Bis zum Abschluss der Berechnungen sank die Drehzahl wieder auf 2800 Upm, was aber immer noch sehr, sehr laut ist.
Ein Nachtest brachte außerdem ein kleines Problem zu Tage. Beim Versuch, dieses Verhalten zu reproduzieren, versagte die Lüftersteuerung. Die Chiptemperatur stieg stetig an, bis der Bildschirm bei 112°C schließlich schwarz wurde, ohne dass das System aber anhielt. Ein schneller manueller Reset verhinderte möglichen Schaden an der Grafikkarte.
Wirklich praktikabel ist Folding@Home auf der GeForce GTX 470 in dieser Form nicht, wenn die Chiptemperatur dadurch dermaßen ansteigt.


http://www.hartware.de/review_1079_16.html
 
Zurück
Oben