Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNeuer GeForce-Treiber enthüllt GTX 550 Ti und GTX 590
Die PCIe 2.0 Specs und damit die Erhöhung von 150W auf 225W / 300W,
waren zu diesem Zeitpunkt des Release der 8800 GTX, schon in Sack und Tüten.
Da lagen grad mal 2 Monate zwischen.
Na und? Die 8800GTX ist nun mal PCIe 1.1, ganz egal ob kurz danach schon PCIe 2.0 vor der Tür Stand. Die Spezifikation hat man nicht beachtet. Also wäre es nichts neues wenn man sie jetzt auch nicht beachtet.
Wenn das stimmt mit den limitierten Stückzahlen dann hat NV nur ein Ziel -> Leistungskrone in den Balken um jeden Preis. Deswegen auch GF 110 alles andere währe zu langsam.
Dann muss ich aber auch sagen das es keinen Fastra III geben wird. Ohne Stückzahlen keine Personal Supercomputer.(schade Intel Server CPUs ungespitzt in den Boden rammen ist immer äußerst interessant) Wäre äußerst armselig von NV nur wegen der Balkenlänge den GF110 zu nehmen anstatt machbare 2x GF114 Chips. Die Karte ist sowieso schon vorher eine Enttäuschung wegen der langen Tradition des Vram Krüppel der multi -GPU Karten. 2x1,5GB. Wenn stimmt sind 2x GTX 580 3GB sogar dann preiswerter und haus hoch überlegen: http://www.evga.com/forums/tm.aspx?m=833917&mpage=1
PS: Direkt über mir haben wir auch gleich die Zielgruppe. Immer sehr lustig diese "Grafikkarten" im Doppelpack.
Na und? Die 8800GTX ist nun mal PCIe 1.1, ganz egal ob kurz danach schon PCIe 2.0 vor der Tür Stand. Die Spezifikation hat man nicht beachtet. Also wäre es nichts neues wenn man sie jetzt auch nicht beachtet.
Moment mal ...
Nvidia hätte damals also noch zwei Monate mit der Vermarktung ihrer 8800 GTX warten sollen, um nicht eine Specs vorwegzunehmen, die zwei Monate später sowieso veröffentlicht wurde?
Das ist mir zu dünn, um hier gleich einen latenten Wiederholungtäter in Nvidia zusehen, grade weil die Rahmenbedingungen völlig verschieden sind, damals und heute.
Würde PCIe 3.0 jetzt die Grenze auf 375W angeheben, also 2*8 Pin, dann würde ich ja auch davon ausgehen, dass sie das Spiel wiederholen, wäre ja auch legitim, denn die Spec ist ja mittlerweile final.
Aber PCIe 3.0 ändert nichts an der 300W Grenze.
Und seit diese Grenze besteht, hat weder AMD noch Nvidia mehr als 6+8Pin auf ihren Ref.Designs verbaut.
Und das obwohl es bei der HD 4870 X2 damals Pflicht gewesen wäre, mit 370W Verbrauch.
@Irreversible
Auf 1000 Stück Limitierte Boardpartner Designs, sind in meinen Augen nunmal kein Argument dafür das Nvidia selber die Specs spengen wird, mit einem Ref.Design.
Das hat bisher noch keiner der beiden gemacht, obwohl es schon min. je ein Ref.Designs gab in der Vergangenheit, dass die 300W Grenze (deutlich) überschritten hat.
fürs gesamtsystem. die karten selber liegen nochmal deutlich drunter, die gtx480 mit ihren 260watt+ ist da immer noch unschlagbar, aber die 4870x2 ist auch sehr nah dran.
Toll, ich spiel auch immer furmark. nur blöd das mittlerweile beide IHVs den Furmark bei aktuellen karten stark ausbremsen. Dass die 4870x2 ein furmarkmonster ist wissen wir auch und die gtx295 von der performce im furmark her ne gurke im vergleich dazu ist, denn AMD kann da ausnahmsweise mal die 5D shaderarchitektur voll auslasten. Ist doch alles fernab der realität.
Wenn du dir alle meine Beiträge zu diesem Thema hier durchlesen würdest, wäre dir aufgefallen, dass ich die Fallbeispiele bringe, um aufzuzeigen, dass die spekulierten 2*8 Pin für die GTX 590, von dennen hier scheinbar eine Reihe von Leuten überzeugt ist, dass es so kommen wird, nicht zwangläufig der Fall sein müssen.
Bis dahin geht es, bis auf das umgekehrte Verhältnis, denn stärkere Netzteile sind prozentual effektiver. 80plus Gold 250W NT gibt es wegen der absoluten Verluste nicht.
Und bei 800W hättest du schließen können, die 9xxW zieht das NT zwar aus der Steckdose, ein Netzteil mit 800W auf der 12V Schiene reicht aber aus, denn es gibt die bereitgestellte Leistung an.
Ps. Die allgemeine Wattangabe auf dem Netzteil hat nahezu keine Bedeutung, daher greifen die Grafikhersteller bei einer 75W Karte auch auf Empfehlungen von 500W+ Netzteilen zurück, um auf Nummer sicher zu gehen.
Nein, leider noch nicht. Der neue Treiber wurde zuerst über das EVGA Forum verbreitet.
Vermutlich wurden sie da aufgrund der *inf, in der die GTX 590/550 vor kam von Nvidia zurück gepfiffen.
Erste User berichten über Performancesteigerungen in Crysis Warhead, sowie in einigen anderen Games.
Ich persönlich habe nur 3dmark11 vorher und nachher laufen lassen. Die Steigerung belief sich auf 0.6%, also noch im Bereich der Messungenauigkeit.
Mehr zu dem Thema, womöglich in Verbindung mit den neuesten Nvidia Karten, werden wir sicher bald erleben.
Moment mal ...
Nvidia hätte damals also noch zwei Monate mit der Vermarktung ihrer 8800 GTX warten sollen, um nicht eine Specs vorwegzunehmen, die zwei Monate später sowieso veröffentlicht wurde?
Hä? Wieso das denn?
Das ist lediglich ne Spezifikation und keine Richtlinie mit gesetzlichem Charakter. Ob die Karte nun PCIe konform ist oder nicht ist relativ egal.
Und für ein PCie 1.1 Device gelten nun mal die 1.1-Spezifikationen und nicht 2.0 oder sonst was.
Bei neuen USB 2.0 Geräte kannst du auch nicht einfach kommen und die USB 3.0 Specs zur Hand nehmen. Trotzdem verbraten alle USB 2.0 2,5"-HDDs mehr als die USB 2.0-Spezifikation zulässt.
Und das obwohl es bei der HD 4870 X2 damals Pflicht gewesen wäre, mit 370W Verbrauch.
Unter Furmark. Der typische Verbauch lag drunter.
Wenn du nach Furmark gehst, braucht ne GTX580 schon mehr als die 300W. Ich frag mich wie du da noch nen 2. Chip versorgen willst. Es ist nen Unterschied ob ich 70W drüber liege oder gleich 150-200 W.
Mal ganz von der Diskussion abgesehen ob denn nun ein 8pin Stecker wirklich eine Verbesserung gegenüber dem 6 Pin Stecker darstellt.
Aber ich würde lieber die Spezifikation dahingehend verletzen dass ich mehr Stecker auflöte, als dass ich die einzelnen Limits für die Stecker überschreite. Einhalten kann man die Spezifikation eh nicht, da man mehr als 300W brauchen wird, wenn man 2 GF110 verbauen will.
Theoretisch liegt der Verbrauch bei 500-600Watt. Das haben Karten wie die Asus Ares gezeigt. In der kompakten Form werden Spannungswandler und andere Komponenten ungewöhnlich heiß und darum steigt der Verbrauch nochmal ein gutes Stück. 2xGF110 mit 512Kernen ist der Absolute Wahnsinn. PCIe 2.0 wird da auf jeden Fall bei weitem gesprengt. Chip selektieren hin oder hier. Einzig die Auslastungs Drossel kann hier noch was reißen. Aber 500Watt wird man wohl erreichen.