News Nvidias GT200 noch in 65 nm?

Vielleicht hat man die 200 genommen weil man sich am Stromverbrauch orientieren will ;)
 
Oje noch mehr Temperatur das ist nicht gut, und mehr Stromverbrauch ist auch nicht akteptabel trotz warscheinlich Doppelter Leistung. Aber mal abwarten vielleicht holen die noch was raus aus den 65nm.
 
Für mich sind diese möglicherweise zutreffenden News nur ein Grund mehr, wieder auf ein passives Netzteil und ultra-silent zu gehen.

Da man scheinbar(!) nicht gewillt ist einen vernünftigen Leistungs - Verbrauchindex bereit zu stellen, werde ich mir das eben erst mal überlegen mit Aufrüsten.
Ist ja nicht so, dass mich die Spiele umhauen die da in der letzten Zeit so vermarktet werden.

Wie gesagt das trifft nur zu, wenn die Gpus tatsächlich noch heißer und noch hungriger werden. Mal angenommen es wäre so und EINE Ultra verbraucht jetzt schon ca. 330 Watt mit einem guten System und eine "Hd3870 x2" ca. 360 Watt - dann nährten wir uns bei der nächsten Generation der 400 Watt Marke - trotzdem sparsameren Cpus. Das kann es für mich nicht sein.
Denke mal die Meisten hoffen, dass das nicht so kommt. Ich gehöre nicht zu denen, die ihren Strom gezahlt bekommen.


@Drago
Gegen eine Verdopplung der Leistung bei moderater Erhöhung des Verbrauchs wäre ja noch fast nichts einzuwenden, aber ob es so kommt?
 
Zuletzt bearbeitet:
Mal angenommen es wäre so und EINE Ultra verbraucht jetzt schon ca. 330 Watt mit einem guten System und eine Hd3870 ca. 360 Watt

Die Ultra braucht unter Last 80Watt mehr als ne 3870HD, im idle ist der Unterschied sogar noch grösste. Genau deshalb wird meine nächste Karte auch ne 3870er!
 
Danke für den Hinweis, Mücke.

Bin da aber genau deiner Meinung wie man auch hoffentlich trotzdem rauslesen konnte. Habe es editiert.

AMD hat das realistischere Konzept derzeit.
 
AMD hat das realistischere Konzept derzeit.

Jep, die HD3XXX-Karten sind vermutlich auch die ersten, bei denen auch AMD drin ist, vorher war das ja Entwicklung von ATI. Was mich bei den neuen Karten besonders beeindruckt ist, wie sehr die Leistungsaufnahme mit der Nutzung skaliert; wenn die Karte nix zu tun hat, braucht sie um Längen weniger Saft -- und das ist mir viel wichtiger, als die Leistungsaufnahme unter Last. Schade, dass die passiv gekühlten 3870er nicht verfügbar sind...
 
Habt ihr zwei mal den CB test gesehen, wenn ja wo verbraucht da die 3870 unter last weniger strom?
unter idle verbraucht sie zwar 40 watt weniger, aber dafür unter last 40 watt mehr.
und sich in dieser performence klasse um den stromverbrauch zu unterhalten ist ja wohl ein witz, oder achtet ihr wenn ihr nen porsche kauft auch auf den sprit verbrauch?
wenn euch der stromverbrauch so wichtig ist schaltet den pc einfach mal früher ab oder nützt ne onbordgrafik?!
und außerdem wird die ultra noch im 90 nm prozess gefertig und es kann durch auch möglich sein das die neue geforce 9 serie weniger strom verbraucht oder habt ihr für eure behauptungen beweise?
Also wartet einfach mal ab bis die karte draußen ist, dann sieht man ja wie hoch der stromverbrauch und die leistung wirklich ist!!!!
mfg
 
amd hats mit cpus vorgemacht: die EE-cpus fanden anklang. wieso also nicht auch rv670s selektieren und mit gesenkter spannung verkaufen?

@the witcher: wovon redest du? nenn das kind beim namen: 3870 X2. die normale verbrauch satte 80W weniger als eine ultra...
die schätzungen zum verbrauch der geforce 9 basieren auf den bisherigen informationen, dass es sich dabei einfach um diverse g92/4/6-modelle handeln wird.
und was soll der blödsinn vonwegen pc ausmachen... es gibt leute die benutzen den pc für mehr als unterhaltung. möchte man trotzdem gerne zocken und hat sich eine ultra angeschafft bläst die karte fürs nichts tun mal eben über 100W in die luft. findest du das etwa ok?
 
Zuletzt bearbeitet:
Diese Kommentare mit Porsche nehm ich ohnehin nicht ernst. Zum einen fahr ich Rad und zum anderen brauche ich für schnelles Fahren keinen Porsche. Denn es gibt auch Autos mit <= 2 Liter Maschinen und weniger als 1 Tonnen gewicht und guter Strömungsform, die dann trotzdem schnell sind.
Naja, ich glaube er wollte ohnehin bloß ein wenig Druck loswerden :evillol:

Ich weiß, was mir wichtig ist - darunter fällt auch ein leises System, das aber trotzdem mit 2 handgriffen was leistet. Eine Karte vom Schlage "Ultra" oder noch aggressiver bekomme ich aber im Idle nicht still bzw. nicht sparsam.
Wären die Karten moderat hätte ich längst eine Hd3870 x2 verbaut. Schade, dass sich manche mit "weniger" zufrieden geben.

oder habt ihr für eure behauptungen beweise?
Nö, brauche ich die? Behauptet habe ich schon mal gar nix.
 
Hm...wir brauchen nicht unbedingt einen schnelleren Chip, sondern ein wesentlich schnelleres Speicherinterface, das limitiert momentan in hohen Auflösungen mit FSAA (also gerade da wo man mehr Leistung braucht) wohl am meisten.
 
Zuletzt bearbeitet:
Also wenn eine 3870X2 ein 8800 Ultra bei 2560x1600 8xAA/16xAF wegfährt und das mit einem 256Bit Speicher Interface, dann mkannmir keiner sagen, dass da irgendwas limitiert.
 
Aber die Kühler bei den G80 und G92 Karten sind schon ganz gut (von der Singleslot GT abgesehen), beim G70 ging es auch. Ich glaub mit der Wärme das wird nicht so das Problem.

Die neuen Karten werden weder eine G80/G92, noch eine G70. Sowas kann man nicht ableiten. Einfach überarraschen lassen und nicht schon wieder Monate zuvor wilde Spekulation betreiben.

mfg
 
Sgt.Speirs schrieb:
Also wenn eine 3870X2 ein 8800 Ultra bei 2560x1600 8xAA/16xAF wegfährt und das mit einem 256Bit Speicher Interface, dann mkannmir keiner sagen, dass da irgendwas limitiert.

exakt

genau wie Leute die 1gb Vram auf ner 8800GT wollen :evillol:
 
Bin gespannt, die würd mich schon interessieren.

Solange muss meine "alte" Karte noch halten, im Herbst wärens dann schon fast 2 Jahre,
dann würd ich mir einen Wechsel überlegen.

Gruss Seft
 
das die Grafikkarte heutzutage tatsaechlich der limitierende Faktor ist , sieht man gérade in hohen Aufloesungen mit AA/AF . Fuer die CPU aendern sich dann am Rechenaufwand nichts , aber die Grafikkarte hat erheblich mehr Berechnungen zu machen.

Allein die Anzahl der Bildpunkte verdreifacht sich beim Sprung von 1280x1024 zu 2560x1600. Die Graka kann die Daten gar nicht so schnell verarbeiten wie die CPU sie schicken koennte.Es spielt dann auch keine Rolle mehr ob man die CPU
ein paar Hundert MHz hoch oder runtertaktet,sie ist auf jeden Fall schnell genug und die Graka laeuft am Anschlag durch die begrenzte Speichermenge und deren Anbindung.
 
Zuletzt bearbeitet:
Nvidia
GT200 mit 250 Watt TDP?


Wie Fudzilla meldet, soll der neue Grafikchip von Nvidia, der den Codenamen GT200 trägt, extrem heiss werden und mit einer TDP von 250W sogar den R600 von ATI übertreffen. Damit muss Nvidia wohl wieder eine Kühlung einsetzen, die zwei Slots im PC belegt. Der GT200 soll in 65nm-Bauweise hergestellt werden und über eine Milliarde Transistoren besitzen. Erste Karten werden in der zweiten Jahreshälfte erwartet.

Quelle: Gamestar
 
Zurück
Oben