Geforce GX2 280 Oktober

  • Ersteller Ersteller Intel@freak
  • Erstellt am Erstellt am
Bei der Voodoo 5 wurde die Frage definitiv nicht gestellt, damals gab es noch kein Temperaturproblem bei Grafikchips. ;) Das begann erst mit der heissen GeForce FX.

Die Frage ist aber aktuell durchaus berechtigt, schon die 9800 GX2 hat ein nicht unerhebliches Temperaturproblem; ein einzelner G92 lässt sich aber noch recht gut kühlen. Ein einzelner GT200 hat auch ein nicht wegzudiskutierendes Temperaturproblem, selbst bei einem DIE-Shrink auf 55nm bleibt das bestehen. Zwei GT200 auf einem PCB (oder wahrscheinlicher auf zwei PCB im Sandwich) lassen sich nur über Wasser kühlen... oder mit nem Gebläse das so kräftig ist, daß man den PC im Boden festdübeln darf. :D
 
Ich weiß ja nicht, seit wann Du Dich mit PC's beschäftigst, aber lange kann es nicht sein, bei der Voodoo 5 6000 hat sich alle Welt sehr wohl gefragt, wie deren Wärme abtransportiert werden soll, niemand lonnte sich nach der Ankündigung vorstellen, daß das funktioniert. Jeder, der lange genug dabei ist, kann sich noch gut an die Heizplatte Banshee erinnern, und an deren Probleme mit Überhitzung.
Ob eine 280GX2 nun auf 1 oder 2 PCB's setzt, ist auch reine Spekulation, aber egal, wie das Ganze ausgeht, interessant wird es. Und wer sich eine solche Karte zulegt, wird wohl auch noch das geld für eine wasserkühlung haben, wenn sie nicht schon sowieso verbaut ist.
 
Zuletzt bearbeitet:
ok ich habe nochmal nachgehackt da mich das in den fingern juckt mehr zu dieser karte bzw. gerücht zu erfahren.
es handelt sich definitiv um eine pcb mit zwei lüfter und einer hybrid kühlung wie die aussieht und funktioniert und realisiert wird ist mir leider nichts näheres gesagt worden bzw. konnte auch nicht richtig bestätigt werden.
auf jedenfall sollen es zwei lüfter mit hybrid kühlung werden.

die temperaturen sollen sich stark nach der 8800GTS G92 richten heißt es.

auch hier keine garantie zu den angaben. wobei NVIDIA sich bei der kühlung wirklich was neues einfallen lassen hat könnte es hier recht nahe kommen.
 
Ich beschäftige mich lange genug mit Rechnern, um eine Voodoo 5 5500 als damaligen Neukauf mein Eigen zu nennen. :D Und nein, ich kann mich nicht entsinnen, daß damals nach Temperaturproblemen gefragt wurde, schließlich reichten sehr kleine Kühlkörper mit kleinen Lüftern damals locker aus, um die Temperatur je Kern im Griff zu halten. Die meisten Karten waren derzeit sogar noch ganz locker passiv gekühlt (Savage, ATi Rage, SiS 305/315, Matrox Millennium; letztere sogar ganz ohne Kühlung).

Was sich hingegen jeder gefragt hat war, wie zum Teufel man das Ding mit Strom versorgen sollte. Die Antwort war bei der Voodoo 5 6000 (die nur in homöopathischen Dosen verkauft wurde) ein externes Netzteil, das sogenannte Voodoo Volts.


Edit @Intelfreak: ...dann frage ich mich, warum die Herren in Grün dann dieses Brüllschwein von Lüfter auf die GTX280 gepflanzt haben. Eine solche "Hybridkühlung" stünde dem bisherigen ü-500-€-Flaggschiff gut zu Gesicht.
 
Zuletzt bearbeitet:
Dass eine Dual-GPU-Karte auf GT200-Basis kommen wird, ist mehr als wahrscheinlich, da der Abstand der GTX280 zur HD4870 wohl längst nicht so groß ausfallen wird, wie vorher befürchtet.
Andererseits bin ich schon sehr gespannt auf die Kühlung, denn bei dieser Abwärme wird der Referenzkühler hoffentlich hochwertiger sein als es vorher immer der Fall war. Wenigstens soll es keine fetten Wärmeleitpads mehr geben, die mehr den Chip isolieren als die Wärme zu leiten...
 
@FortissimoIV

deine frage ist absolut berechtigt, vielleicht wegen den kosten, da würde die GTx280 noch teurer sein als wie sie jetzt schon ist.

1.vieleicht sparen sie durch die nm fertigung um dann so ein hybridkühler zu nutzen, und es gleich sich vielleicht dadurch wieder aus.

2.oder nm fertigung DDR5 Ram macht die sache etwas mehr guenstiger,da kann mann vielleicht etwas teurere kühlkonstruktion einsetzten.

ich weiß es auch nicht was die nvidia leute sich denken.

jedenfalls ist deine frage berechtigt.
 
Also ich halte das schon für möglich, der Preis wird sich dann wahrscheinlich um die 750 € bewegen. Allerdings, kommt davor iirc ein Shrink der GTX 280 mit dem GT200 in 55 nm raus... und dann mit höheren taktraten, weniger stromverbrauch und geringerer Wärmeentwicklung :freaky:
 
Kostenpunkt ist dann 1k euro oder was? Völlig uninteressant, Nvidia ist halt geliefert sobald AMD die 4870X2 rausbringt(für ca. 400 euro denke ich) können sie ihre 280GTX verschrotten, wird keiner mehr kaufen, die wenigsten leute stören sich an Micro Rucklern und werden dank 40-50% mehrleistung zur GTX280 zuschlagen ;)
 
Ich frage mich, was diese Microruckler sein sollen. Ich habe ein SLI-System (*auf sig deut*), habe aber noch keine bemerkt...
 
also das mit der kühlung finde ich auch interessant nur glaube ich nicht das nvidia wenn die karte nun rauskommt die gpu´s auf ein pcb pflanzt da sie das noch nie gemacht haben und warum sollten die jetzt was daran ändern?
denn die kennen sich doch mittlerweile doch gut aus mit der kühlung von 2 pcb´s!
 
Eine Geforce 280 GX2 zu kaufen wäre nur mehr krank, wenn sie die Leistungsaufnahme nicht drastisch reduzieren. Ansonsten würde sie 460W unter Vollast saugen.

mfg

a-b-d
 
Die müsste dann von Hausauf mit einer Wakü ausgerüstet sein.

Soweit ich mich erinner kann hat doch Nvidia mal selbst Stellung genommen und gesagt das es keine DualGPUkarte von der 200er Serie geben wird oder haben sie es wider überdacht weil die ATI so schnell sind ^^
 
ich kann mir 2 GTX 260er in 55nm gut vorstellen, probleme bei der kühlung sollte es keine geben, wenn nvidia in den kühler statt 3€ vllt. mal 6€ investiert :)
 
@Commander Alex:
lol ;)

Die GX2 280 wäre gar nicht so unwahrscheinlich. Durch das 55 nm-Verfahren kann der Stromverbrauch des Chips um ca. 30 bis 35 % gesenkt werden. Der Verbrauch der anderen Teile bleibt jedoch leider gleich, sodass der Verbrauch insgesamt vielleicht um 20% gesenkt werden könnte. Dann würde die Katre bei gleichem Takt "nur" noch ca. 190 Watt fressen.

Bei einer Dual-Chip-Karte kann man mit ca. 80% mehr Stromverbrauch rechnen. Das wären also ca. 340 Watt. Wenn man dann noch die Taktraten leicht senkt, kann man auf 300 Watt kommen.

Ich würde es nVidia zumindest zutrauen, dass sie 300 Watt Verbrauch in Kauf nehmen würden, um ATi mal wieder in den Boden zu stampfen, allerdings glaube ich trotzdem nicht wirklich an die Karte sondern eher an eine schnelle vorgezogene neue Serie. Ich denke, die GTX 280 wurde extra so gebaut, dass eine GX2 gar nicht mehr nötig ist. Sonst hätten sie den Chip Karte von Anfang an etwas kleiner gemacht, um mit einer kommenden GX2 keine Stromprobleme zu bekommen.

Aber falls nVidia diesen Schritt wirklich wagt, kann ich für ATi nur hoffen, dass bis dahin die 5000er Serie fertig ist und man dort auf eine sehr schnelle One-Chip-Karte setzt.

Diese GX2- und X2-Karten sind meiner Meinung nach nur Notlösungen, um die Konkurrenz noch schnell zu besiegen. Ich hoffe, dass man in Zukunft wieder auf schnelle 1-Chip-Karten setzt. Lieber ein doppelt so großer Chip als 2 Kleine. Dann hat man mehr Leistung, keine Mikroruckler und zudem einen geringeren Stromverbrauch, weil man die restliche Hardware der Karte (Speicher etc.) nicht verdoppeln bzw. doppelt so schnell machen muss.

Ist bei den CPUs doch teilweise das gleiche Problem, allerdings werden die ja meist für viele verschiedene Aufgaben gleichzeitig gebraucht, sodass es dort noch recht gut funktioniert. Das Bild kann aber nicht (gut) geteilt werden, sodass Mehr-GPU-Lösungen dort keine wirklichen Vorteile gegenüber einem größeren Chip bieten. Der Stromverbrauch wird bei Dual-Chip-Karten fast verdoppelt, die Leistung in den meisten Fällen aber nicht einmal veranderthalbfacht...

MfG
Sascha
 
Zuletzt bearbeitet:
2 260er wären thermisch drin, werden aber hoffentlich nie erscheinen.

Die 280 zieht ~ 165W, die 4870 ~ 152W, die 260 zieht ~130W, bereits weniger als die 4870, die es angeblich als X2 Version geben wird.
So jetzt noch 55nm....
 
mal ganz ehrlich für mich persönlich klingt es so als möchte sich hier einer aufmerksam machen
sonst gar nix!
bevor nvidia eine GTX280 gx2 in 55nm rausbringt sollten sie erst mal nur die GTX280 in 55nm bringen bevor man schon an die GX2 denkt
und die kühllösung möchte ich auch erst mal gerne sehen!
 
vielleicht bringen die so ein ekühllösung wie Sapphire bei der HD3870X2 Atomic, irgendwie mit wasser oder so, so ganz kapiert hab ich das damals nicht:)

Greetz
 
Zurück
Oben