News GTX 580: Benchmarks und Infos zu TDP sowie TMUs

@ Pumpi
2.) OK, mag sein. Dann sag doch mal was so eine GTX 480 im GPU processing so verbraucht ? Gern auch ohne Belege oder Links. Ich kann mir nicht vorstellen das das 300 Watt und mehr sind !


[/QUOTE]
In Folding@Home liegt der Vorsprung der GeForce GTX 480 vor der GTX 470 zwischen 6 und 24 % und vor der GTX 285 bei 26 bis 48 Prozent.
Wie bei der GeForce GTX 470 hat das allerdings auch seinen Preis. Die Leistungsaufnahme des Gesamtsystems stieg während der Berechnungen von Folding@Home mit der GeForce GTX 480 auf bis zu 414 Watt und während die GeForce GTX 285 dabei nicht signifikant lauter wurde, fing die 480 zwischendurch tatsächlich regelrecht zu brüllen an. Der Lüfter drehte auf enorme 3600 Upm, ohne allerdings die Chiptemperatur zu senken, sondern lediglich, um sie bei 90°C zu halten.
Wirklich praktikabel ist Folding@Home auf GeForce GTX 470 und 480 in dieser Form nicht.
http://www.hartware.de/review_1103_13.html
 
Pumpi schrieb:
NV mogelt mit seinen horrenden 250 Watt nicht, Furmark ist Mummfitz und hat mit der Realität nichts zu tun !

Brauchen sie auch nicht aber man sieht sehr gut das auch eine gtx460ftw zwar im idle unter dem Verbrauch einer HD5770 kommt aber sobald man den Takte hochschraubt selbst eine gtx470 schlagen kann.

strom-last.png


http://www.hardwareluxx.de/index.ph...37-test-evga-geforce-gtx-460-ftw.html?start=3
 
Pumpi schrieb:
2.) OK, mag sein. Dann sag doch mal was so eine GTX 480 im GPU processing so verbraucht ? Gern auch ohne Belege oder Links. Ich kann mir nicht vorstellen das das 300 Watt und mehr sind !

Sorry, ich bin da auch kein spezielist und weiß auch nicht wie GPUs in Rechenclustern ausgelastet werden können. Die Teslas zeigen aben, dass man dafür wohl den Takt senken musste. Das sagt auch schon etwas.
Darüber hinaus, ist es aber auch egal. Die TDP muss einfach einem Wert entsprechen, der maximal auftreten kann. Die Wärme die bei dieser Leistung auftritt muss abgeführt werden können. Braucht ein Fermi unter Extremauslastung (Furmark oder irgendwas anderes) sogar 50W mehr als die TDP sagt, dann stimmt da was nicht. Hier wurde also geschummelt um auf den Whitepapers gut auszusehen.

@ Kartenlehrling
Was OC an Saft zieht ist immer jenseits von gut und böse, natürlich erst recht wenn an der Spannung geschraubt wurde. Ich denke, das sollte klar sein und hier nicht weiter zur Debatte stehen. Was interessant wird ist, ob NV die TDP wieder zu tief ansetzt um wirklich zu stimmen und wie die reale Leistungsaufnahme aussieht. Eigentlich kann man das von der TDP ja gut ableiten, aber beim GF100 wurde man eben eines besseren belehrt. Wenn eine Karte 20% mehr Leistung aufnehmen kann bei echter Vollast, als das Kühlsystem schaffen muss, dann stimmt was nicht.
 
Zuletzt bearbeitet:
@PalimPalim: Doch hatten sie serwohl...man errinnere sich nur an die abgeschnittene GTX295 (o.Ä) Platine :D
 
Zuletzt bearbeitet:
Was war an den GTX200er Karten so verlustbehaftet? Wirklich günstig waren/ sind die doch auch nicht.
 
@ sammybj
Die (echten) GTX2XX Chips hatten auch ein sehr "schlechtes" Verhältnis im Bezug auf Chipgröße/Performance. Die Radeon 4XXX waren von der Geschwindigkeit nicht so weit weg aber deutlich billiger zu produzieren. Deswegen konnte NV die Preise für deren Karten auch nicht hoch halten und die Grakas zu fertigen machte keinen Sinn mehr. Deswegen verschwanden sie auch vom Markt obwohl noch Nachfrage bestand. Ziemlich OT....sollten wir lassen auch wenn sie die gleiche Problematig immer weiter zieht. Mal sehen was dabei rauskommt wenn AMD nun auch eher auf "think big" umstellt. Bin auf die tatsächliche Größe von Cayman gespannt.
 
@ DvP
thx; habe damals meine 260² noch für 240€ erstanden... hoffentlich haben sie bei dem Preis wenigstens ein bisschen Gewinn gemacht... :freak:
 
Dass die 10%ige Steigerung der Taktraten und die Verdoppelung der TMUs im Vergleich zur GTX 480 zu einer Mehrleistung von knappen (!) 15% führen, ist lächerlich. Die Karte wird gegen den Cayman chancenlos dastehen :evillol:
 
schade, und ich dachte schon für die gtx 580 muss man blitze einfangen um sie in betrieb zu nehmen :(:(
ich glaube nicht das nv nochmal so großen fehler macht. diesmal haben die was gutes :)
 
@ Jenergy
Man vergisst ab und zu, dass die GTX480 doch 10-15% schneller als eine 5870 ist. AMD muss also trotzdem eine ziemliche Schippe drauflegen um eine GTX580 (womöglich auch noch deutlich) in den Schatten zu stellen. Wolln wirs mal hoffen und ebenso, dass die Leistungsaufnahme bei dem Vorhaben nicht explodiert. Wir wissen ja mittlerweile alle, dass der 40nm Prozess einen beschränkten Spielraum bietet.
Ist schon gut, dass NV mit dem GF100 mal auf die Nase gefallen ist und die Resonanz ziemlich eindeutig war. Sie mussten ja sogar Fehler eingestehen und das ist (vor allem bei einem solchen CEO) nicht gerade alltäglich.
 
Zuletzt bearbeitet:
@DvP:

Bezüglich niedriger Leistungsaufnahme sind meine Erwartungen an die Karten mit Cayman-GPU nicht sehr gross. Ich befürchte, dass die Karten ebensoviel Strom ziehen wie eine GTX 580 :rolleyes:

Bei der 3D-Performance/Watt wird AMD auch mit den HD 69xx weiterhin den Ton angeben :cool_alt:
 
Ich muss jetzt auch mal meine Glaskugel entstauben.

Wenn man mal versucht die Leistung der GTX580 und der AMD6970 anhand ihrer Effizienz und TDP zu vergleichen ergibt sich für mich Folgendes Bild.

GTX580 TDP ca 250Watt u. 20% effizienter bzw. schneller als GTX480

5870 TDP 181Watt u. 15% langsamer als GTX480

6970 angeblich unter 300Watt TDP das macht maximal satte 65% mehr Abwärme/Leistung als ne 5870 :evillol:
selbst bei 250Watt wären es immenoch 38% mehr Abwärme/Leistung

Wenn sich AMD´s Effizienz mit den 4D Shadern nicht verschlechtert hat (angeblich ja eher bessere Effizienz als 5D) gibt es alleine durch die höhere TDP einen möglichen Leistungsschub von 65% zur alten Generation

Daher gehe ich davon aus das die 6970 die schnellste Single GPU Karte 2010 wird.

Natürlich kann das auch absoluter Müll sein aber das ist ja das schöne an den Gerüchten.

Übrigens gibt es bei Intel ja so eine Philosophie das pro 1% gesteigertem verbrauch die Leistung um mindestens 2% steigen muss. Dem sollten sich die GPU Entwickler auch mal anschließen.
 
Bei der 3D-Performance/Watt wird AMD auch mit den HD 69xx weiterhin den Ton angeben

Man vergisst ab und zu, dass die GTX480 doch 10-15% schneller als eine 5870 ist

CB:Angaben in Prozent
Rating - DirectX 11 2560x1600
ATi Radeon HD 5970 145%

Nvidia GeForce GTX 480 124%

ATi Radeon HD 5870 • 100%

Nvidia GeForce GTX 470 98%

AMD Radeon HD 6870 91%

Das ist die Abteilung die einen GTX580 Käufer warscheinlich am ehesten interessiert (stellt auch 1:1 die Anforderungen an 3D in FullHD dar).

Sollte man die Tess. Leistung der 6970 noch ein bißchen angehoben haben, im Gegensatz zur 68xxer Reihe, dann kann AMD sogar mal mitspielen !
 
Zuletzt bearbeitet:
immer das gleiche Gelaber... und am Ende?

8800 GTX > HD 2900XT + 3870
GTX280 > 4870
GTX 480 > 5870
GTX 580 > 6890

So war es, so ist es, so wird es immer sein. Dualkarten interessieren mich nicht, wenn Hersteller nach mittlerweile 6? Jahren µRucklern das nicht beheben, sind diese Karten weder leistungstechnisch noch preislich relevant - für mich.
Das rumgehampel um Bildqualität, 0,1W TDP, Lüfter, Treiber ist so langweilig. Die 4870 und die 5870 hatte ich jeweils selber, Top Karten! Alle dieser Highendkarten beider Hersteller sind Top. Aber die letzten Fünkchen holt halt NVidia, verstehe die Problematik nicht.

Ich warte wieder brav auf die 580 Zotac Amp mit leise und kalt konkret und dann ist gut.
 
es geht einfach darum wenn ich eine tabelle erstelle dann richtig.
es ist einfach das verfälschen von daten zu gunsten eines produktes, sei es cpu übertaktet inklusice gpu.
es geht hier nicht um das wohl der user/käufer sondern um das des verkäufers der versucht extrem zu blenden.
klar ist die ati 5870 bei 100% und die anderen drüber aber es ist verar.... für mich und irre führung wie es ati mit der namens gebung macht, pkt und aus.

der käufer ist der leidtragende beim ganzen hin und her, es geht nur ums geld.

zitat: wer weiß wie weit die schon vorraus sind und wir wissen es nicht
 
Mephisto2022 schrieb:
...
6970 angeblich unter 300Watt TDP .......

bwaaaaaaaaaaaaaaaaaaaaaaah! :hammer_alt:

Die Folie zur HD6970 sagt nichts über die TDP aus, sondern lediglich das das PCB für <300W ausgegelegt ist, sprich die Stromversorgung kann bis zu 300W (genau genommen wenn man es korrekt deutet müsste man 299,99W sagen) liefern , das heißt aber keineswegs das die TDP des Chips im Bereich von 300W liegt. ;)
Man muss ja auch noch neben dem Verbrauch des Chips Sachen abziehen wie z.B.

- Verbrauch anderer Komponenten wie dem VRAM
- die Effizienz der Spannungswandler

Dazu muss man vom Worst Case Szenario ausgehen für die TDP Angaben.
Ich glaube nicht daran das AMD den Fehler macht und uns mit der 6970 ein Monster vor die Tür stellt. Einige vergessen anscheinend das AMD offenbar auch eine Dual Lösung mit der 6990 bringen will und die muss sich genauso an die PCIe Spezifikationen halten.
 
ich habe noch die Diagramme ~ Dez. 2009 über GTX480
da waren die auch 30-50% schneller als die 5870..
und was kam raus ?

Nvidia ist in der Lage 20% die Leistung zu steigern, glaube aber nicht das sie auch 20% die Leistungsaufnahme senken..

Im Text steht dazu 10%, daher gehe ich von 10-15% Leistungssteigerung
und max. 10% Minderung der Leistungsaufnahme aus.

Und so würde sie die ATI nicht schlagen, aber wir werden es ja in einigen Wochen spätestens sehen.
 
Es geht nur um's Geschäft.

Wer glaubt dem Bankangestellten, der auch nur seine Quote erfüllen muss, wenn man eine Anlage tätigen möchte? Immer schön den Verstand einschalten und die Ruhe bewahren. Ich freue mich schon auf die ersten Tests und Benchmarks. Namen sind nicht so wichtig... Produkte vergleichen und sich dann entscheiden, von daher bleibt es spannend was vor bzw. nach Weihnachten so auf den kommt und verfügbar (oder auch nicht) ist.
 
Dai6oro schrieb:
sollte ja nicht sonderlich schwer sein. Die GTX480 war nun mal Bahnbrechend in dieser Hinsicht.

Also mich hauen die Benches jetzt nicht vom Hocker. Nichts was man mit einer GTX480 OC nicht hinbekommen würde.
vor allem sollte man in zusammenhang mit einem besseren kühler bedenken, dass auch der g100 schon ausgezeichnet skaliert, wenn er kühler läuft. in der letzten/aktuellen pcgh wurde das beschrieben. die haben einfach eine paar monsterkühler auf die 480 gepackt und dann noch mal den stromverbrauch vermessen. der verbrauch der 480 viel dabei um bis zu 70W und damit in regionen einer 5870. die aussage kommt nicht von mir sondern von kasmopaya. sollte der kühler der 580 besser skalieren und effizienter sein, dann sehe ich kein problem mit mehr leistung und weniger verbauch. muss das post noch mal raus suchen.

€dit: habs gefunden: https://www.computerbase.de/forum/t...tzen-auf-4d-shader.808384/page-5#post-8737600
 
Zuletzt bearbeitet:
Zurück
Oben