9800GX2 vs. 3870X2 wie funktionierts

8MiLe schrieb:
ATi zeigt sich innovativ, schraubt nicht einfach 2PCB's zusammen und wirft die Karte auf den Markt.

Zur Nvidias "Ehrenrettung" muss man aber sagen das es schon mal eine Dual GPU Karte auf einem PCB gab, die Asus EN7800GT Dual.
Zwar war hier wahrscheinlich maßgeblich Asus beteiligt, jedoch zeigt es das solche ansätze bei Nvdia schon vorhanden waren. Jetzt kann man sich natürlich fragen warum 7800GT Dual und zb die 7900GX2 sich so enorm unterscheiden obwohl sich die Chips doch kaum unterscheiden.
Ich denke da spielt dein Aspekt rein das es sich größtenteils nur um Marketing handelt, wobei ich sagen muss das so ein "Doppeldecker" garnicht mal schlecht ausschaut.
 
@bensen: Die Busbreite ja, aber wo ist hier die Busbreite rauszulesen: "Also wenn jeder chip 256Bit kann/hat"? Musste erst mal wissen welchen Chip er meint (klar, die GPU)...
 
aber son doppeldecker nicht das ware
im grunde sind es 2 karten die über einen PCIe 16x Steckplatz ins sys eingespeiste werden

@bensen für mich ist ein anzeichen das es einen gemeinsamen speicher geben wird, schon die tatsache, das beide chips auf einer pcb sitzen. Warum sollte sich ATI sonst die mühe machen alles so zu quetschen und nicht einfach bei nvidia klauen und eine Doppel-pcb verwenden

@Sugave7 hab ich weiter vorne schon geschrieben aber extra für dich nochmal^^ https://www.computerbase.de/forum/threads/nvidia-roadmap-umriss-fuer-1h-2008.363015/ und http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1476666/nvidia.html

mfg hncam
 
Zuletzt bearbeitet:
Ja, auf der 9800GX2 kommen wahrscheinlich 2 vollständig laufende G92 zum Einsatz.
Also 2x8800GTS sozusagen.

Auch die anderen GF9 Karten scheinen nicht viel besser bestückt zu sein. Gerüchten zufolge sollen auch hier nur G92 zum Einsatz kommen.

Die 9800GX2 soll ca 30% über der aktuellen Ultra liegen und die schnellste Karte der 9er Reihe sein.
Sowas als neue Generation verkaufen zu wollen. Da regen sich atm viele drüber auf.

Der G100 wird wohl Mitte-Ende des Jahres kommen. Vll zusammen mit AMDs R700.
 
frechheit sowas 9800 GTX oder 9800GX2 zu nennen

Passender wär 8800GTX refresh oder 8800 GTX (g92) oder wegen mir auch noch 8900GTX aber das als neue Generation zu verticken

Und wie sollen dann die G100 basierten heißen? 10800 GTX oder 9800 GTX refresh oder was
Da blick dann bald keiner mehr durch

na ja wayne ich bin sowieso viel gespannter auf die 3870X2 oder wie die heißt

so isses :D:D:D
 
Zuletzt bearbeitet:
Naja, warum ein teures PCB herstellen und entwerfen, wenn es auch 2 einfache sein können?

Ich denke/hoffe, dass die beiden GPUs sich den Speicher teilen, weil das ein richtiger Fortschritt wäre (Bei CF/SLi werden ja alle Texturen doppelt abgespeichert). Die gemeinsame Nutzung vom Speicher würde also (verbessert mich wenn ich falsch liege) in einer Grafikkarte resultieren, die doppelt so viele Shader und doppelt so viel Rechenleistung wie eine einfache hätte.
 
hncam schrieb:
für mich ist ein anzeichen das es einen gemeinsamen speicher geben wird, schon die tatsache, das beide chips auf einer pcb sitzen. Warum sollte sich ATI sonst die mühe machen alles so zu quetschen und nicht einfach bei nvidia klauen
1 PCB = günstiger herzustellen als 2 PCBs...
Für mich ist es ein Anzeichen, dass es kein gemeinsamer Speicher geben wird, schon die Tatsache, dass sich die Speicher-Chips schön um die GPUs verteilen.

Stats-Paddi schrieb:
Naja, warum ein teures PCB herstellen und entwerfen, wenn es auch 2 einfache sein können?
Steht überhaupt fest ob das Single-PCB so viel mehr kostet als 2 einzelne?
 
na gut kann auch sein aber ich hoffe weiter auf nen gemeinsamen speicher

die hoffnung stirbt zuletzt:D

sicher das die 1 pcb soviel günstiger is das es die ganzen ingenieurs-kosten oder wie das heißt wieder reinzuholen?:rolleyes:

ich glaub das irgendwie nicht

mfg hncam
 
Zuletzt bearbeitet:
Ich bin überzeugt, dass es insgesamt günstiger ist 1 PCB zu verwenden... warum? Ganz einfach: Weil es ATI macht.
Wenn es günstiger wäre 2 PCBs zu verwenden oder wieso denn auch nicht gleich 20 und davon 18 brach liegen zu lassen, hey, wenn's billiger wäre, würden sie es ja wohl machen.

Nun kommt sicher gleich "aber wieso macht NVIDIA dann 2 PCBs"... nun ja... wahrscheinlich, weil sie nicht genug Platz auf einem PCB haben oder es für sie dann eben nicht billiger wäre.

Man kann schon davon ausgehen dass eine Firma da den Weg einschlägt, der für sie der mittel- und langfristig günstigere Weg ist.

Stats-Paddi schrieb:
Die gemeinsame Nutzung vom Speicher würde also (verbessert mich wenn ich falsch liege) in einer Grafikkarte resultieren, die doppelt so viele Shader und doppelt so viel Rechenleistung wie eine einfache hätte.
Packt man einfach noch doppelt so viel Speicher drauf hat man das auch ohne gemeinsame Speichernutzung erreicht... und ist wohl genau das, was hier gemacht wird... Zudem kommen sich die Chips beim Speicherzugriff dann eben nicht in die Quere...
 
Zuletzt bearbeitet:
....ich hoffe jedenfalls das Ati mal wieder nen richtigen Treffer landen kann und besonders das sich der Termin (denke an den R600) nicht wieder so extrem veschiebt dann haben nähmlich alle schon ne 9800 im Case sitzen....
 
Vll ist ATI einfach schon weiter was die Entwicklung einer Dual-GPU Karte auf einem PCB angeht. Auf der HD2600 X2 haben sie es ja schonmal gemacht.

Und Entwicklungskosten sind nunmal recht hoch, deshalb klatscht nVidia halt einfach 2 Stück zusammen :p

Vll funktioniert die Komunikation bei ATI ja auch besser zwischen den beiden Chips als bei nVidia, wer weiß.
Wir werden es sehen, wenn die Benchmarks der beiden Karten kommen.

Von der Rechenleistung ist die nVidia Karte schneller -> 2xG92
Mal sehen, wessen Dual-GPU Konzept das Bessere ist.
 
Also ich versuche mal zu erklären wieso sie den Speicher nicht teilen.

Der RV670 hat ein 256bit Interface das heißt der Speicher ist mit 256 Leitungen angeschlossen. Wenn bei der 3870 X2 die Karte den vollen Speicher nutzen will muss der speicher mit jeweils 256 leitungen an die beiden Chips angeschlossen werden.
Das wäre theoretisch ohne Probleme möglich.

Ein 512 bit Bus macht keinen Sinn das dürfte euch durch ein bischen nachdennken auch auffallen. Ich würde das euch gerne erklären ist aber nicht einfach zu erklären bzw. mir fällt nicht ein wie ich das einfach erklären könnte warum das nicht machbar ist.


Wir haben also in diesem Fall ein 256 bit interface an dem der Speicher hängt, der chip 1 und der chip 2.

Wenn jetzt der Chip 1 aus dem 1 GB Speicher die "Textur 1" haben will kann der chip 2 nicht auf den Speicher zugreifen weil der Speicher gerade die Textur 1 an den Chip 1 schickt. Das heißt die Speicherbandbreite halbiert sich und entspricht dann praktisch einem 128 bit Interface.

Genau aus diesem Grund macht ATI das nicht weil die Karte wesentlich mehr unter dem "128bit" Speicherinterface leiden würde als ihr der 1gb Speicher nutzen würde.
 
hier wird aber echt viel gehofft^^

@VAP7985: äh ja mh ja bin sicher das du recht hast, versteh nur irgendwie nix warum macht der 512 bit kein sinn?
wenn man das mit nem 512 macht was du mit dem 256 erklärt hast is doch alles im günen bereich

mfg hncam
 
Zuletzt bearbeitet:
Ich bin erstmal nur gespannt WANN und vor allem wie teuer die 3870x2 sein wird.Ich hoffe auf 250-300€,aber das ist wohl utopisch.Von daher wirds auf ne 8800GT auslaufen.Schade :(
Hoffe aber für Ati das die Karte mal wieder nen echter Kracher wird.Vor allem vom P/L her
 
Zuletzt bearbeitet:
Lar337 schrieb:
Vll ist ATI einfach schon weiter was die Entwicklung einer Dual-GPU Karte auf einem PCB angeht. [...]
Und Entwicklungskosten sind nunmal recht hoch, deshalb klatscht nVidia halt einfach 2 Stück zusammen :p
Keine Ahnung, wenn Asus mal kurz eine Dual-GPU-Karte mit NVIDIA-Chips auf den Markt bringt geh ich davon aus, dass die Entwicklungskosten hier eine untergeordnetere Rolle spielen und die potentielle Kostenersparnis von zwei PCBs auf einen als das deutlich stärkere Argument betrachte. Oder hast du etwa Einblick wie hoch die Entwicklungskosten sind? Ich hab sie ehrlich gesagt nicht...

Warum es NVIDIA nicht macht sehe ich nicht als Entwicklungsrückstand an, sondern vermute eher Platzprobleme... Die Zwei-PCB-Lösung ist ja nicht die erste unpopuläre Entscheidung seitens NVIDIA, man denke nur mal an die Kühllösungen der GeForce FX-Reihe zurück...

warum macht der 512 bit kein sinn? wenn man das mit nem 512 macht was du mit dem 256 erklärt hast is doch alles im günen bereich
1. Je breiter das Speicherinterface, desto teurer...
2. Nicht jede GPU skaliert wirklich mit der Breite des Speicherinterface. Das Speicherinterface muss zur GPU passen, eine alte Voodoo 1 mit einem 512-Bit-Speicherinterface hätte wohl keinen nennenswerte Mehrleistung erzielt, genauso würde eine GeForce 8800 GTX bei nem 64-Bit-Speicherinterface zur Lachnummer werden. Es muss halt passen. Wenn die potentielle Mehrleistung den Aufpreis (1.) nicht rechtfertigt, dann lässt man es halt beim kleineren...
3. Wenn man nun ein vollständiges 512 Bit-Speicherinterface machen würde, was teurer wäre, dann würde das nur in extrem seltenen Fällen Vorteile bringen, nämlich nur dann, wenn nur ein Chip genutzt würde - aber das ist ja nicht der Sinn der Karte. Wenn nun beide Chips ausgelastet sind dann werden die sich nur gegenseitig bei den Speicherzugriffen stören... deshalb ist es der logische Schritt, beiden eben einen gleichgroßen eigenen Speicher zu geben...
das ist günstiger, und höchstwahrscheinlich eben nicht mal langsamer, es sei denn für den höchst unwahrscheinlichen Fall dass nur eine GPU genutzt wird... aber selbst dann ist es fraglich, ob es einen messbaren Vorteil bei einem 512 Bit-Speicherinterface geben würde. Zudem hoffe ich jetzt mal dass diese Multi-GPU-Karten eben nicht die selben Probleme haben wie normale CF/SLI-Lösungen... bisherige Mutli-GPU-Lösungen funktionierten doch auch bei jeder Anwendung... bleibt zu hoffen dass es bei diesen Multi-GPU-Karten auch der Fall ist...
 
Zuletzt bearbeitet:
Ok also versuch ich das zu erklären also ein Speicher hatt immer ne gewisse "Wortbreite" nehmen wir mal 32 bit an. wenn man dann 4 Speicher zusammenfasst kommt man auf 128bit. Bei 8 Chips auf 256bit.

D.h. in dem Speicher werden immer 32bit aufeinmal gespeichert. bzw. 128 oder 256 bit.

Um die Daten wieder rauszuholen legt man an den Adressleitungen ne gewisse Adresse an und der Speicher gibt dann die gespeicherten 32bit aus.

Du schlägst jetzt vor den Speicher mit 512 bit zu verbauen also z.b. 16 chips mit 32 bit.

Der Chip schafft aber nur 256 bit. Das heißt du kannst nur die hälfte des Speichers nutzen da du ja nur 256 Leitungen hast d.h. Du hättest effektiv nur den halben Speicher zur verfügung.

Also hätte z.B. Chip 1 die Leitungen 1...256 und Chip 2 die Leitungen 256..512 dann kannst du aber von den 1 GB pro Grafikkarte wieder nur 512 nutzen.

Die einzige Möglichkeit wäre einen externen Speichercontroller zu verbauen der dann mit 512 bit an den Speicher angeschlossen wird und mit doppeltem Speichertakt und 256bit an die beiden Chips dann könntest du den ganzen Speicher nutzen und hättest keine Performance Probleme. Aber dafür müsste man den RV670 Chip komplett neu entwickeln.

Ich hoffe es ist dir nun klar.
 
kA. War nur eine Vermutung.

Wobei Platzprobleme auch durchaus sein könnten, die ATI Karte wird in die meisten Gehäuse wohl auch geradenoch so rein passen.

EDIT: Wieso skalieren DualGPU Karten eigentlich so viel besser als normale SLI/CF? Btw, warum funktionieren sie im Gegensatz zu CF/SLI fast bei allen Spielen?
 
Zuletzt bearbeitet:
Zurück
Oben