Aha, sehr informativ!Ycon schrieb:Der G92 is wesentlich (OK, vielleicht auch nur etwas, wer weiß) schneller als der G80
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidias GT200 noch in 65 nm?
- Ersteller Parwez
- Erstellt am
- Zur News: Nvidias GT200 noch in 65 nm?
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
Wenn G100 ein DX11-Chip ist, dann wäre doch G90 für einen aufgebohrten G92 mit einem kleinen update auf DX10.1 auch nicht verkehrt gewesen^^
Blutschlumpf
Fleet Admiral
- Registriert
- März 2001
- Beiträge
- 20.406
Vielleicht hat man die 200 genommen weil man sich am Stromverbrauch orientieren will
drago-museweni
Admiral Pro
- Registriert
- März 2004
- Beiträge
- 9.266
Oje noch mehr Temperatur das ist nicht gut, und mehr Stromverbrauch ist auch nicht akteptabel trotz warscheinlich Doppelter Leistung. Aber mal abwarten vielleicht holen die noch was raus aus den 65nm.
- Registriert
- Juni 2006
- Beiträge
- 44.444
Für mich sind diese möglicherweise zutreffenden News nur ein Grund mehr, wieder auf ein passives Netzteil und ultra-silent zu gehen.
Da man scheinbar(!) nicht gewillt ist einen vernünftigen Leistungs - Verbrauchindex bereit zu stellen, werde ich mir das eben erst mal überlegen mit Aufrüsten.
Ist ja nicht so, dass mich die Spiele umhauen die da in der letzten Zeit so vermarktet werden.
Wie gesagt das trifft nur zu, wenn die Gpus tatsächlich noch heißer und noch hungriger werden. Mal angenommen es wäre so und EINE Ultra verbraucht jetzt schon ca. 330 Watt mit einem guten System und eine "Hd3870 x2" ca. 360 Watt - dann nährten wir uns bei der nächsten Generation der 400 Watt Marke - trotzdem sparsameren Cpus. Das kann es für mich nicht sein.
Denke mal die Meisten hoffen, dass das nicht so kommt. Ich gehöre nicht zu denen, die ihren Strom gezahlt bekommen.
@Drago
Gegen eine Verdopplung der Leistung bei moderater Erhöhung des Verbrauchs wäre ja noch fast nichts einzuwenden, aber ob es so kommt?
Da man scheinbar(!) nicht gewillt ist einen vernünftigen Leistungs - Verbrauchindex bereit zu stellen, werde ich mir das eben erst mal überlegen mit Aufrüsten.
Ist ja nicht so, dass mich die Spiele umhauen die da in der letzten Zeit so vermarktet werden.
Wie gesagt das trifft nur zu, wenn die Gpus tatsächlich noch heißer und noch hungriger werden. Mal angenommen es wäre so und EINE Ultra verbraucht jetzt schon ca. 330 Watt mit einem guten System und eine "Hd3870 x2" ca. 360 Watt - dann nährten wir uns bei der nächsten Generation der 400 Watt Marke - trotzdem sparsameren Cpus. Das kann es für mich nicht sein.
Denke mal die Meisten hoffen, dass das nicht so kommt. Ich gehöre nicht zu denen, die ihren Strom gezahlt bekommen.
@Drago
Gegen eine Verdopplung der Leistung bei moderater Erhöhung des Verbrauchs wäre ja noch fast nichts einzuwenden, aber ob es so kommt?
Zuletzt bearbeitet:
Killermuecke
Captain
- Registriert
- Jan. 2007
- Beiträge
- 3.265
Mal angenommen es wäre so und EINE Ultra verbraucht jetzt schon ca. 330 Watt mit einem guten System und eine Hd3870 ca. 360 Watt
Die Ultra braucht unter Last 80Watt mehr als ne 3870HD, im idle ist der Unterschied sogar noch grösste. Genau deshalb wird meine nächste Karte auch ne 3870er!
- Registriert
- Juni 2006
- Beiträge
- 44.444
Danke für den Hinweis, Mücke.
Bin da aber genau deiner Meinung wie man auch hoffentlich trotzdem rauslesen konnte. Habe es editiert.
AMD hat das realistischere Konzept derzeit.
Bin da aber genau deiner Meinung wie man auch hoffentlich trotzdem rauslesen konnte. Habe es editiert.
AMD hat das realistischere Konzept derzeit.
Killermuecke
Captain
- Registriert
- Jan. 2007
- Beiträge
- 3.265
AMD hat das realistischere Konzept derzeit.
Jep, die HD3XXX-Karten sind vermutlich auch die ersten, bei denen auch AMD drin ist, vorher war das ja Entwicklung von ATI. Was mich bei den neuen Karten besonders beeindruckt ist, wie sehr die Leistungsaufnahme mit der Nutzung skaliert; wenn die Karte nix zu tun hat, braucht sie um Längen weniger Saft -- und das ist mir viel wichtiger, als die Leistungsaufnahme unter Last. Schade, dass die passiv gekühlten 3870er nicht verfügbar sind...
the witcher
Commander
- Registriert
- Dez. 2007
- Beiträge
- 2.312
Habt ihr zwei mal den CB test gesehen, wenn ja wo verbraucht da die 3870 unter last weniger strom?
unter idle verbraucht sie zwar 40 watt weniger, aber dafür unter last 40 watt mehr.
und sich in dieser performence klasse um den stromverbrauch zu unterhalten ist ja wohl ein witz, oder achtet ihr wenn ihr nen porsche kauft auch auf den sprit verbrauch?
wenn euch der stromverbrauch so wichtig ist schaltet den pc einfach mal früher ab oder nützt ne onbordgrafik?!
und außerdem wird die ultra noch im 90 nm prozess gefertig und es kann durch auch möglich sein das die neue geforce 9 serie weniger strom verbraucht oder habt ihr für eure behauptungen beweise?
Also wartet einfach mal ab bis die karte draußen ist, dann sieht man ja wie hoch der stromverbrauch und die leistung wirklich ist!!!!
mfg
unter idle verbraucht sie zwar 40 watt weniger, aber dafür unter last 40 watt mehr.
und sich in dieser performence klasse um den stromverbrauch zu unterhalten ist ja wohl ein witz, oder achtet ihr wenn ihr nen porsche kauft auch auf den sprit verbrauch?
wenn euch der stromverbrauch so wichtig ist schaltet den pc einfach mal früher ab oder nützt ne onbordgrafik?!
und außerdem wird die ultra noch im 90 nm prozess gefertig und es kann durch auch möglich sein das die neue geforce 9 serie weniger strom verbraucht oder habt ihr für eure behauptungen beweise?
Also wartet einfach mal ab bis die karte draußen ist, dann sieht man ja wie hoch der stromverbrauch und die leistung wirklich ist!!!!
mfg
riDDi
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 7.562
amd hats mit cpus vorgemacht: die EE-cpus fanden anklang. wieso also nicht auch rv670s selektieren und mit gesenkter spannung verkaufen?
@the witcher: wovon redest du? nenn das kind beim namen: 3870 X2. die normale verbrauch satte 80W weniger als eine ultra...
die schätzungen zum verbrauch der geforce 9 basieren auf den bisherigen informationen, dass es sich dabei einfach um diverse g92/4/6-modelle handeln wird.
und was soll der blödsinn vonwegen pc ausmachen... es gibt leute die benutzen den pc für mehr als unterhaltung. möchte man trotzdem gerne zocken und hat sich eine ultra angeschafft bläst die karte fürs nichts tun mal eben über 100W in die luft. findest du das etwa ok?
@the witcher: wovon redest du? nenn das kind beim namen: 3870 X2. die normale verbrauch satte 80W weniger als eine ultra...
die schätzungen zum verbrauch der geforce 9 basieren auf den bisherigen informationen, dass es sich dabei einfach um diverse g92/4/6-modelle handeln wird.
und was soll der blödsinn vonwegen pc ausmachen... es gibt leute die benutzen den pc für mehr als unterhaltung. möchte man trotzdem gerne zocken und hat sich eine ultra angeschafft bläst die karte fürs nichts tun mal eben über 100W in die luft. findest du das etwa ok?
Zuletzt bearbeitet:
- Registriert
- Juni 2006
- Beiträge
- 44.444
Diese Kommentare mit Porsche nehm ich ohnehin nicht ernst. Zum einen fahr ich Rad und zum anderen brauche ich für schnelles Fahren keinen Porsche. Denn es gibt auch Autos mit <= 2 Liter Maschinen und weniger als 1 Tonnen gewicht und guter Strömungsform, die dann trotzdem schnell sind.
Naja, ich glaube er wollte ohnehin bloß ein wenig Druck loswerden
Ich weiß, was mir wichtig ist - darunter fällt auch ein leises System, das aber trotzdem mit 2 handgriffen was leistet. Eine Karte vom Schlage "Ultra" oder noch aggressiver bekomme ich aber im Idle nicht still bzw. nicht sparsam.
Wären die Karten moderat hätte ich längst eine Hd3870 x2 verbaut. Schade, dass sich manche mit "weniger" zufrieden geben.
Naja, ich glaube er wollte ohnehin bloß ein wenig Druck loswerden
Ich weiß, was mir wichtig ist - darunter fällt auch ein leises System, das aber trotzdem mit 2 handgriffen was leistet. Eine Karte vom Schlage "Ultra" oder noch aggressiver bekomme ich aber im Idle nicht still bzw. nicht sparsam.
Wären die Karten moderat hätte ich längst eine Hd3870 x2 verbaut. Schade, dass sich manche mit "weniger" zufrieden geben.
Nö, brauche ich die? Behauptet habe ich schon mal gar nix.oder habt ihr für eure behauptungen beweise?
digitalangel18
Vice Admiral
- Registriert
- Mai 2005
- Beiträge
- 6.584
Hm...wir brauchen nicht unbedingt einen schnelleren Chip, sondern ein wesentlich schnelleres Speicherinterface, das limitiert momentan in hohen Auflösungen mit FSAA (also gerade da wo man mehr Leistung braucht) wohl am meisten.
Zuletzt bearbeitet:
Sgt.Speirs
Commander
- Registriert
- Mai 2007
- Beiträge
- 2.415
Also wenn eine 3870X2 ein 8800 Ultra bei 2560x1600 8xAA/16xAF wegfährt und das mit einem 256Bit Speicher Interface, dann mkannmir keiner sagen, dass da irgendwas limitiert.
FaZe
Lt. Junior Grade
- Registriert
- Okt. 2006
- Beiträge
- 416
Aber die Kühler bei den G80 und G92 Karten sind schon ganz gut (von der Singleslot GT abgesehen), beim G70 ging es auch. Ich glaub mit der Wärme das wird nicht so das Problem.
Die neuen Karten werden weder eine G80/G92, noch eine G70. Sowas kann man nicht ableiten. Einfach überarraschen lassen und nicht schon wieder Monate zuvor wilde Spekulation betreiben.
mfg
ryuko
Banned
- Registriert
- Juli 2005
- Beiträge
- 484
Sgt.Speirs schrieb:Also wenn eine 3870X2 ein 8800 Ultra bei 2560x1600 8xAA/16xAF wegfährt und das mit einem 256Bit Speicher Interface, dann mkannmir keiner sagen, dass da irgendwas limitiert.
exakt
genau wie Leute die 1gb Vram auf ner 8800GT wollen
Calvin-De-Luxe
Banned
- Registriert
- Apr. 2007
- Beiträge
- 1.972
Jo sehe ich auch so ... naja - lassen wir uns überraschen.
BullRun
Lt. Junior Grade
- Registriert
- Aug. 2004
- Beiträge
- 406
das die Grafikkarte heutzutage tatsaechlich der limitierende Faktor ist , sieht man gérade in hohen Aufloesungen mit AA/AF . Fuer die CPU aendern sich dann am Rechenaufwand nichts , aber die Grafikkarte hat erheblich mehr Berechnungen zu machen.
Allein die Anzahl der Bildpunkte verdreifacht sich beim Sprung von 1280x1024 zu 2560x1600. Die Graka kann die Daten gar nicht so schnell verarbeiten wie die CPU sie schicken koennte.Es spielt dann auch keine Rolle mehr ob man die CPU
ein paar Hundert MHz hoch oder runtertaktet,sie ist auf jeden Fall schnell genug und die Graka laeuft am Anschlag durch die begrenzte Speichermenge und deren Anbindung.
Allein die Anzahl der Bildpunkte verdreifacht sich beim Sprung von 1280x1024 zu 2560x1600. Die Graka kann die Daten gar nicht so schnell verarbeiten wie die CPU sie schicken koennte.Es spielt dann auch keine Rolle mehr ob man die CPU
ein paar Hundert MHz hoch oder runtertaktet,sie ist auf jeden Fall schnell genug und die Graka laeuft am Anschlag durch die begrenzte Speichermenge und deren Anbindung.
Zuletzt bearbeitet:
eXdeath
Lt. Commander
- Registriert
- Jan. 2006
- Beiträge
- 1.032
Nvidia
GT200 mit 250 Watt TDP?
Wie Fudzilla meldet, soll der neue Grafikchip von Nvidia, der den Codenamen GT200 trägt, extrem heiss werden und mit einer TDP von 250W sogar den R600 von ATI übertreffen. Damit muss Nvidia wohl wieder eine Kühlung einsetzen, die zwei Slots im PC belegt. Der GT200 soll in 65nm-Bauweise hergestellt werden und über eine Milliarde Transistoren besitzen. Erste Karten werden in der zweiten Jahreshälfte erwartet.
Quelle: Gamestar
GT200 mit 250 Watt TDP?
Wie Fudzilla meldet, soll der neue Grafikchip von Nvidia, der den Codenamen GT200 trägt, extrem heiss werden und mit einer TDP von 250W sogar den R600 von ATI übertreffen. Damit muss Nvidia wohl wieder eine Kühlung einsetzen, die zwei Slots im PC belegt. Der GT200 soll in 65nm-Bauweise hergestellt werden und über eine Milliarde Transistoren besitzen. Erste Karten werden in der zweiten Jahreshälfte erwartet.
Quelle: Gamestar
Ähnliche Themen
- Antworten
- 58
- Aufrufe
- 11.176
- Antworten
- 27
- Aufrufe
- 6.288
- Antworten
- 45
- Aufrufe
- 6.582
- Antworten
- 118
- Aufrufe
- 20.325
- Antworten
- 105
- Aufrufe
- 7.919