News GeForce 9800 GX2 des Kühlers entledigt

BrOokLyN R!ot ³ schrieb:
.... Also die X2 von ATi ist ja schon fett und lang, ....

Die Hd 3870 X2 ist sogar einen Zentimeter kürzer als eine Geforce 8800 GTX :rolleyes:

43760_1b.jpg
 
Sgt.Speirs schrieb:
Hab ich den Teil nur nicht richtig verstanden oder hat die Karte wirklich 2 Kühler. Auf den Bildern sieht es eher wie ein Dual-Slot-Kühler der GTS aus, an den von beiden Seiten ein PCB drangeklatscht wird...

He stimmt! Ich war wohl halb blind. Fixed! ;)
 
also nochmal als kleine Skizze, wie die PCBs der karte verteilt sind:

={/////////////_CHIP_KARTE_1_\\\\\\\\\\\\\\\\\\}
<---Kühler für beide Chips in der Mitte -->
={/////////////_CHIP_KARTE_2_\\\\\\\\\\\\\\\\\\}

Ich hoffe nun, dies klärt in etwa das Bauprinzip der Karte.

Kann sich einer dieses komisch angeklebt blaue Kabel in Bild 8 (und folgende) erklären, dies sieht ziemlich unfertig aus?

Grüße,
franeklevy
 
hat die karte jetzt also nicht wie die 3870x2 einen plx chip, sondern lediglich eine halbgare sli-brücke ?
 
@Realsmasher. Richtig, sie haben quasi zwei einzelne Karten genommen, die mit mit etwas Klebstoff zusammengekittet und einen Draht zum verlöten verwendet, einen Kühler dazwischengeklatscht und sagen hier bitte. Nach dem Motto "Hält schon irgendwie zusammen". Diese Sandwich Idee (so wie RubyRhod sie nennt) sie überhaupt nicht genial. Merken wir uns: MacGyver arbeitet jetzt bei nvidia, vielleicht wird mit der 9800 GX2 auch eine Rolle Klebeband mitgeliefert.
 
Zuletzt bearbeitet:
Wow! Es wird immer besser...
Die Konstruktionen werden immer abenteurlicher,
sprich - gigantisch und instabil!

Respekt NVidia.
Goldmedaille für die Dümmste Idee und hässlichste Dual-GPU-Lösung des Jahres!
Zumindest in der Hinsicht muss man ATI eindeutig mehr Kompetenz zusprechen...

Nächstes Jahr stecken wir dann alle unsere Mainboards auf die Grafikkarte!
Juchuuu! :daumen:
 
HisN

Da muß ich Dir vollkommen recht geben. Sieht aus wie eine selbstgebaute Notlösung. Die Verarsche auf dem Grafiksektor geht weiter. Für die Preise gehören längst zwei leistungsstarke GPU's auf eine Karte. Die packen doch nur immer bissel mehr RAM rauf, dann drehen sie noch an der Taktung rum und schon gibts wieder ne angeblich "neue" »Pseudokarte«. Von den Stromverbräuchen mal ganz zu schweigen...

Was die alles machen um dem Kunden zu suggerieren sie seinen noch in führender Entwicklungsposition.
 
Naja,
da find ich die idee von ati wesentlich besser. Des schaut wirklich aus wie von MacGyver :D

als ob sie beim Design besoffen wären. naja. Von der Leistung wird sie wahrscheinlich 3 - 4% schneller als die ati sein, jedoch wieder mal enorm stromhungrig (verrückte welt).

während die CPU´s zur zeit auf sparflamme getrimmt werden, werden GPU´s immer stromhungriger.

MfG
Rolf
 
Interessant ist, dass die Karte nur einen PCIe Stromanschluss hat, obwohl auf dieser gleich zwei G92 arbeiten.

Bei der GTS mit G92 war man ja schon wieder vom Stromverbrauch um einiges höher gekommen wie dies bei der GT mit G92 war, offenbar hat es NVidia mit der neuen Revision geschafft den Verbrauch noch mal etwas zu senken.

Naja, für mich kommt so eine Dualchip Lösung aber nicht in Frage. Ich finde dass da einfach zu viel Leistung verpufft, lieber einen guten dicken Chip mit höhere Effizienz.
 
@Turbostaat
MacGyver arbeitet jetzt bei nvidia? IööI :lol:

warten wir doch ab bis das fertige modell draußen ist oder? ;)

@Realsmasher
ich denke nVidia wird sie so vertigen wie sie es bei der siebener reihe gemacht haben.
Aber warten wir erst mal ab, am ende ist es doch wieder anders :)
 
@Realsmasher

SLI scheint anderst geloest zu sein als bei ATI , aber ob das was Halbgares ist moechte ich bezweifeln.So ne Karte wird nicht zwischen Fruehstueck und Mittag entwickelt.Da machen sich haufenweise Experten ueber Monate einen Kopf wie etwas geloest wird.Die kriegen das schon hin und machen das auch nicht erst seit vorgestern .Egal wie das geloest wurde, die Karte funktioniert zum Schluss und wird dann die Spitze wieder uebernehmen.

ATI macht eher einen halbgaren Anschein .Die Praesentation vorzuziehen und dann wieder abzusagen , Treiber Bereitstellung "5 _nach_ 12" usw usw ... da nuetzt auch kein PLX Chip mehr :) Hole mir aber trotzdem die X2 von Asus ,such schon lange ne Gamer-Karte mit 4x DVI... normalerweise nur im Profi Bereich zu finden sowas.Von meiner 8800GTX wird sie sich nicht absetzen koennen, aber der Treiber fuer die Karte ist noch jung und garantiert zu verbessern:)

Seit ner Radeon 128 meine erste ATI Karte wieder, hoffentlich bereue ich es nicht ....:O)
 
Ok dann muss man wohl die Benchmarks von 8800 GTS 512 (G92) SLI als Richtwert hernehmen.

http://www.ht4u.net/reviews/2007/msi_8800gts_sli/

Man bedenke, dass Crysis wohl noch ohne Multi-GPU Patch gelaufen ist. Sonst siehts gut aus :-) Aber der Stromverbrauch ist der blanke Horror! 40 Watt mehr als eine Ultra in Idle! Hoffen wir, dass sich bei der GX2 durch die neue Revision der GPUs einiges geändert hat.
 
Realsmasher schrieb:
hat die karte jetzt also nicht wie die 3870x2 einen plx chip, sondern lediglich eine halbgare sli-brücke ?

Auch die ATI ist eine halbgare Crossfire-Lösung^^
 
Rache Klos schrieb:
Interessant ist, dass die Karte nur einen PCIe Stromanschluss hat, obwohl auf dieser gleich zwei G92 arbeiten.
Also auf Bild 1 (Hauptkarte ) ist ein 3-poliger, auf dem Bild 2 (Tochterkarte) ein 4-poliger PCIe-Stecker zu sehen. 1+1=2:D

EDIT: @DvP:
Das macht die Karte von ATI auch interessanter. Mehr Leistung und mehr Verbrauch bei Last, aber bei Idle "relativ" genügsam [im Verhältnis zu älteren Karten].
 
Zuletzt bearbeitet:
Ich finde den das Kühlprinzip ansich ganz gut, nur ist es schwer den Kühler auszuwechseln:rolleyes::
 
Sgt.Speirs schrieb:
@DvP:
Das macht die Karte von ATI auch interessanter. Mehr Leistung und mehr Verbrauch bei Last, aber bei Idle "relativ" genügsam.

Naja die Performance ist Spekulation, sollte aber bei ähnliche Taktraten schon sehr nahe dran sein. Der Stromverbrauch hingegen ist noch nicht wirklich abzusehen, jedoch lassen die Stromanschlüssen nichts gutes vermuten.
Optimisten könnten zwar behaupten, dass nicht beide Anschlüsse voll belastet werden sondern nur wegen 2 PCBs nötig sind, aber wer weiß das schon!?
 
Zurück
Oben