News Neuer GeForce-Treiber enthüllt GTX 550 Ti und GTX 590

Lass uns das Thema mal beenden.
Ich bin gespannt wie NV die Stromversorgung mit zwei GF110-Grafikchips im Vollausbau sicherstellen wird.
 
DVD_ schrieb:
Die PCIe 2.0 Specs und damit die Erhöhung von 150W auf 225W / 300W,
waren zu diesem Zeitpunkt des Release der 8800 GTX, schon in Sack und Tüten.
Da lagen grad mal 2 Monate zwischen.
Na und? Die 8800GTX ist nun mal PCIe 1.1, ganz egal ob kurz danach schon PCIe 2.0 vor der Tür Stand. Die Spezifikation hat man nicht beachtet. Also wäre es nichts neues wenn man sie jetzt auch nicht beachtet.
 
Ich denke die GTX590 wird alles was wir bisher kennen in Grund und Boden rapen
Wenn da wirklich 2xGTX580 drauf ist.. alter :)^^
 
Genau so ein preiswerter "Superrechner", ist in meinen Augen auch die einzige Darseinsberechtigung für MGPU Karten allgemein.
Wenn das stimmt mit den limitierten Stückzahlen dann hat NV nur ein Ziel -> Leistungskrone in den Balken um jeden Preis. Deswegen auch GF 110 alles andere währe zu langsam.

Dann muss ich aber auch sagen das es keinen Fastra III geben wird. Ohne Stückzahlen keine Personal Supercomputer.(schade Intel Server CPUs ungespitzt in den Boden rammen ist immer äußerst interessant) Wäre äußerst armselig von NV nur wegen der Balkenlänge den GF110 zu nehmen anstatt machbare 2x GF114 Chips. Die Karte ist sowieso schon vorher eine Enttäuschung wegen der langen Tradition des Vram Krüppel der multi -GPU Karten. 2x1,5GB. Wenn stimmt sind 2x GTX 580 3GB sogar dann preiswerter und haus hoch überlegen: http://www.evga.com/forums/tm.aspx?m=833917&mpage=1

PS: Direkt über mir haben wir auch gleich die Zielgruppe. Immer sehr lustig diese "Grafikkarten" im Doppelpack.
 
Zuletzt bearbeitet:
bensen schrieb:
Na und? Die 8800GTX ist nun mal PCIe 1.1, ganz egal ob kurz danach schon PCIe 2.0 vor der Tür Stand. Die Spezifikation hat man nicht beachtet. Also wäre es nichts neues wenn man sie jetzt auch nicht beachtet.

Moment mal ...
Nvidia hätte damals also noch zwei Monate mit der Vermarktung ihrer 8800 GTX warten sollen, um nicht eine Specs vorwegzunehmen, die zwei Monate später sowieso veröffentlicht wurde?

Das ist mir zu dünn, um hier gleich einen latenten Wiederholungtäter in Nvidia zusehen, grade weil die Rahmenbedingungen völlig verschieden sind, damals und heute.

Würde PCIe 3.0 jetzt die Grenze auf 375W angeheben, also 2*8 Pin, dann würde ich ja auch davon ausgehen, dass sie das Spiel wiederholen, wäre ja auch legitim, denn die Spec ist ja mittlerweile final.

Aber PCIe 3.0 ändert nichts an der 300W Grenze.

Und seit diese Grenze besteht, hat weder AMD noch Nvidia mehr als 6+8Pin auf ihren Ref.Designs verbaut.
Und das obwohl es bei der HD 4870 X2 damals Pflicht gewesen wäre, mit 370W Verbrauch.
 
DVD_ schrieb:
@Irreversible
Auf 1000 Stück Limitierte Boardpartner Designs, sind in meinen Augen nunmal kein Argument dafür das Nvidia selber die Specs spengen wird, mit einem Ref.Design.

Das hat bisher noch keiner der beiden gemacht, obwohl es schon min. je ein Ref.Designs gab in der Vergangenheit, dass die 300W Grenze (deutlich) überschritten hat.

HD 4870 X2 = 370W
GTX 295 = 315W
fürs gesamtsystem. die karten selber liegen nochmal deutlich drunter, die gtx480 mit ihren 260watt+ ist da immer noch unschlagbar, aber die 4870x2 ist auch sehr nah dran.
 
Zuletzt bearbeitet:
davidzo schrieb:
fürs gesamtsystem. die karten selber liegen nochmal deutlich drunter, die gtx480 mit ihren 260watt+ ist da vergleichbar mit der 4870x2.

Ähm nö.
Die 4870 X2 hat 373W für sich ganz allein gesaugt.

- http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index28.php
- http://www.pcgameshardware.de/aid,6...en-gegenueber-Lastmessungen/Grafikkarte/Test/

Das hier war der Gesamtsystemverbrauch unter Furmark, der lag bei 500W.
power-consumption-graphics-full-load-jpg.221622
 

Anhänge

  • Power-Consumption-Graphics-Full-Load.jpg
    Power-Consumption-Graphics-Full-Load.jpg
    38 KB · Aufrufe: 904
DVD_ schrieb:
Ähm nö.
Die 4870 X2 hat 373W für sich ganz allein gesaugt.

- http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index28.php
- http://www.pcgameshardware.de/aid,6...en-gegenueber-Lastmessungen/Grafikkarte/Test/

Das hier war der Gesamtsystemverbrauch unter Furmark, der lag bei 500W.
power-consumption-graphics-full-load-jpg.221622

Toll, ich spiel auch immer furmark. nur blöd das mittlerweile beide IHVs den Furmark bei aktuellen karten stark ausbremsen. Dass die 4870x2 ein furmarkmonster ist wissen wir auch und die gtx295 von der performce im furmark her ne gurke im vergleich dazu ist, denn AMD kann da ausnahmsweise mal die 5D shaderarchitektur voll auslasten. Ist doch alles fernab der realität.

Die gtx480 und 4870x2 liegen ziemlich gleichauf in spieleszenarien wenn ich mich nicht irre:
https://www.computerbase.de/artikel...est.1201/seite-26#abschnitt_leistungsaufnahme
https://www.computerbase.de/artikel...test.761/seite-24#abschnitt_leistungsaufnahme
 
Zuletzt bearbeitet:
@davidzo

Wenn du dir alle meine Beiträge zu diesem Thema hier durchlesen würdest, wäre dir aufgefallen, dass ich die Fallbeispiele bringe, um aufzuzeigen, dass die spekulierten 2*8 Pin für die GTX 590, von dennen hier scheinbar eine Reihe von Leuten überzeugt ist, dass es so kommen wird, nicht zwangläufig der Fall sein müssen.
 
Zuletzt bearbeitet:
Fleshed schrieb:
@ buntstift

Hat ein bisschen von was von einer Milchmädchen Rechnung

System 150 - 200 Watt je nach Komponenten
Geforce 580 300 Watt x 2 = 600 Watt

=> 800 Watt je nach Netzteil Wirkungsgrad von 85 - 87 %
Bei Starken Netzteilen sind die Wirkungsgrade nicht so hoch wie bei einem 400 Watt Netzteil

Bis dahin geht es, bis auf das umgekehrte Verhältnis, denn stärkere Netzteile sind prozentual effektiver. 80plus Gold 250W NT gibt es wegen der absoluten Verluste nicht.
Und bei 800W hättest du schließen können, die 9xxW zieht das NT zwar aus der Steckdose, ein Netzteil mit 800W auf der 12V Schiene reicht aber aus, denn es gibt die bereitgestellte Leistung an.

Ps. Die allgemeine Wattangabe auf dem Netzteil hat nahezu keine Bedeutung, daher greifen die Grafikhersteller bei einer 75W Karte auch auf Empfehlungen von 500W+ Netzteilen zurück, um auf Nummer sicher zu gehen.
 
Die GTX 550 Ti soll unter DX11 35% bzw. unter DX10 20% schneller sein als die Radeon HD 5770.
Und das bei einer TDP von 110 Watt? :eek:
Quelle

Klingt stark nach 1 PCIe, Ui Ui Ui. :D
 
Zuletzt bearbeitet:
Ich bin sehr gespannt wie man die 590 umgesetzt hat.
Wäre eine interresante Option wenn sie im Vollausbau erscheint.
 
Nein, leider noch nicht. Der neue Treiber wurde zuerst über das EVGA Forum verbreitet.
Vermutlich wurden sie da aufgrund der *inf, in der die GTX 590/550 vor kam von Nvidia zurück gepfiffen.
Erste User berichten über Performancesteigerungen in Crysis Warhead, sowie in einigen anderen Games.
Ich persönlich habe nur 3dmark11 vorher und nachher laufen lassen. Die Steigerung belief sich auf 0.6%, also noch im Bereich der Messungenauigkeit.
Mehr zu dem Thema, womöglich in Verbindung mit den neuesten Nvidia Karten, werden wir sicher bald erleben.
 
DVD_ schrieb:
Moment mal ...
Nvidia hätte damals also noch zwei Monate mit der Vermarktung ihrer 8800 GTX warten sollen, um nicht eine Specs vorwegzunehmen, die zwei Monate später sowieso veröffentlicht wurde?
Hä? Wieso das denn?
Das ist lediglich ne Spezifikation und keine Richtlinie mit gesetzlichem Charakter. Ob die Karte nun PCIe konform ist oder nicht ist relativ egal.
Und für ein PCie 1.1 Device gelten nun mal die 1.1-Spezifikationen und nicht 2.0 oder sonst was.
Bei neuen USB 2.0 Geräte kannst du auch nicht einfach kommen und die USB 3.0 Specs zur Hand nehmen. Trotzdem verbraten alle USB 2.0 2,5"-HDDs mehr als die USB 2.0-Spezifikation zulässt.

Und das obwohl es bei der HD 4870 X2 damals Pflicht gewesen wäre, mit 370W Verbrauch.
Unter Furmark. Der typische Verbauch lag drunter.
Wenn du nach Furmark gehst, braucht ne GTX580 schon mehr als die 300W. Ich frag mich wie du da noch nen 2. Chip versorgen willst. Es ist nen Unterschied ob ich 70W drüber liege oder gleich 150-200 W.

Mal ganz von der Diskussion abgesehen ob denn nun ein 8pin Stecker wirklich eine Verbesserung gegenüber dem 6 Pin Stecker darstellt.
Aber ich würde lieber die Spezifikation dahingehend verletzen dass ich mehr Stecker auflöte, als dass ich die einzelnen Limits für die Stecker überschreite. Einhalten kann man die Spezifikation eh nicht, da man mehr als 300W brauchen wird, wenn man 2 GF110 verbauen will.
 
Zuletzt bearbeitet:
Theoretisch liegt der Verbrauch bei 500-600Watt. Das haben Karten wie die Asus Ares gezeigt. In der kompakten Form werden Spannungswandler und andere Komponenten ungewöhnlich heiß und darum steigt der Verbrauch nochmal ein gutes Stück. 2xGF110 mit 512Kernen ist der Absolute Wahnsinn. PCIe 2.0 wird da auf jeden Fall bei weitem gesprengt. Chip selektieren hin oder hier. Einzig die Auslastungs Drossel kann hier noch was reißen. Aber 500Watt wird man wohl erreichen.
 
Zurück
Oben