9800GX2 vs. 3870X2 wie funktionierts

Wie ist das eigentlich geregelt bei diesen GX2 und X2 Karten, muss ich dann für eine GX2 zwingend ein SLI Board haben und für die X2 ein CF Board? Oder spielt das bei diesen Karten keine Rolle, sonlange man keine zweite Karte davon für Quad SLI und/oder Quad CF in Betrieb nimmt?
 
Also die ATI-Karte wird 100%ig nicht auf den vollen 1gb Speicher zugreifen können. Da die Chips jeweils per 256bit Interface an den Speicher angeschlossen sind. Sollten beide GPUs auf den Speicher zugreifen wollen würde sich die Speicherbandbreite halbieren, da immer nur eine GPU auf den speicher zugreifen kann (Bus lässt grüßen).

@cyrezz
Nein du brauchst weder ein CF noch ein SLI Mainboard erst wenn du 2 der Monster einsetzen will brauchst du ein SLI bzw. Crossfire Mainboard.
 
Zuletzt bearbeitet:
cyrezz schrieb:
Wie ist das eigentlich geregelt bei diesen GX2 und X2 Karten, muss ich dann für eine GX2 zwingend ein SLI Board haben und für die X2 ein CF Board? Oder spielt das bei diesen Karten keine Rolle, sonlange man keine zweite Karte davon für Quad SLI und/oder Quad CF in Betrieb nimmt?
Das ist noch nicht klar. Bei der 7950 GX2 damals sowie bei der HD 2600 X2 gings auch ohne SLI/CF Board, also ist es theoretisch möglich, aber wird man warten müssen.
 
@ VAP7985

Da die GPU aber auf einem PCB untergebracht sind werden sie höchstwahrscheinlich über den RingBus kommunizieren und dadurch auch auf den _gemeinsamen_ RAM zugreifen können.
 
Soweit ich weiß , werden bei ATI die beiden GPUs über einen 512 bit-Ringbus an den Speicher angeschlossen , was auch eine Veränderung im Vergleich zu NV darstellen würde.
 
Der Chip hat nur 256bit Anschluss und kann deshalb nix mit nem 512bit Bus anfangen. Sag mal habt ihr noch nie von Bus Systemen gehört?
 
Die 9800GX2 läuft auf jedem board des einen 16x PCIe Steckplatz hat

Damit hättest du auf jedem board SLI (lol)

Aber ich hoff lieber auf ATI. Deren lösung scheint durchdachter zu sein

ähm ring bus heißt das das beide mit ihren 256bit interface an das 512bit interface des speichers "anliegen" oder wie was :confused_alt:
 
Zuletzt bearbeitet:
cyrezz schrieb:
Wie ist das eigentlich geregelt bei diesen GX2 und X2 Karten, muss ich dann für eine GX2 zwingend ein SLI Board haben und für die X2 ein CF Board? Oder spielt das bei diesen Karten keine Rolle, sonlange man keine zweite Karte davon für Quad SLI und/oder Quad CF in Betrieb nimmt?

Ich meine ursprünglich wurde die 7950GX2 extra entwickelt um SLi auf Non-SLi Boards zu realisieren, jedoch gibt es da bei bestimmten Non-SLi Boards trotzdem probleme.
Jedenfalls war es damals so, vielleicht funktionieren die Karten heutzutage einwandfrei auch auf Non-SLi bzw Non-CF Boards.
 
Gut zu wissen, danke an alle ;)

Hmm, also mir persölich sagt die Lösung von ATi mit einem PCB auch mehr zu. Bei den 2 PCBs ist ja ein Hitzestau vorprogrammiert, da ist es sauberer, die beiden GPUs auf einem PCB unterzubringen. Da bin ich ja mal echt gespannt, wie sich die neue ATi X2 denn so schlagen wird. Die GX2 aus quasie 2 GTS G92 sieht nicht so nach der Performancerakete aus. Verstehen kann ich aber diesen Schritt jetzt nicht mehr, denn mit der GT und GTS 512 hat man ja den G92 bei der GF8 Serie eingeführt und nun als GX2 Lösung bei der 9800 Serie mit angefangen? Ich glaube nur nVidia weiß warum die da so rumspringen. Transparenz ist etwas anderes... ;)
 
@25/26
Der Ringbus hat überhaupt nichts damit zu tun. Der ist einzig zu dem Zweck konstruiert worden, Transistoren zu sparen, wurde dann aber zum Marketing-Instrument.
 
Zuletzt bearbeitet:
hncam schrieb:
Warum gibts eigentlich noch keine Dual-GPUs? wie Dualcores.
würde sich doch anbieten,



Wie man in diesem Artikel lesen kann, arbeitet Ati mit dem R700 gerade an der Multi-GPU-Core-Lösung. Man darf gespannt sein wie effizient das am Ende wird.
 
Absolut übertrieben. Braucht kein Mensch.
Höher, schneller, teurer....
 
Was heißt hier brauch keine Mensch? Die Spiele brauchen immer mehr Performance also brauch man zwangläufig auch schnellere Karten.
Schließlich möchte ich irgendwann Crysis auf Ultra High spielen können. :D
 
Im Grunde sollte eine solche Karte in jedem System funktionieren, man denke nur mal an die Voodoos und die Rage Fury MAXX-Karten, da kamen auch schon mehrere GPUs auf einem PCB zum Einsatz. Das Rad wurde hier also nicht neu erfunden.
Einen logischen Grund, warum es nicht gehen sollte, konnte mir noch keiner verraten. Auch als damals die ATI-Dual-GPU-Karte auf einem SLI-System bei ComputerBase als Sensation hingestellt wurde, dass sie auf einem SLI-Board doch mit CF läuft, hab ich mehr beschmunzelt und mich gefragt "warum denn auch nicht" - auch wenn Sapphire da wohl meinte es sei ein CF-Board notwendig (vielleicht hat jemand da was verwechselt und die Antwort gilt eben für ein Dual-System mit den Dual-GPU-Karten).

Dass eine GPU bei diesen Grafikkarten den vollen Speicher für sich nutzen kann würde ich auch ausschließen, da reicht ja schon ein Blick auf das Bild der Platine und man sieht, dass die Speicher-Chips schön um die GPUs verteilt sind (GPU-nah, um die Latenzen gering zu halten). Wie auch schon gesagt würden in einem anderen Falle die GPUs eh selbst beim Speicherzugriff behindern...

Zudem glaube ich, dass sich mit einer Single-PCB-Dual-GPU-Karte durchaus bessere Ergebnisse erzielen lassen können als mit zwei separaten Karten, wobei das eben von der Implementierung des Herstellers abhängt. Dass für eine Multi-GPU-Karte eigentlich keine Notwendigkeit herrscht, dass die Spiele damit zurecht kommen, hatten ja die Voodoos gezeigt, und ich denke die Karte hat sehr gut mit der Zahl der Chips skaliert (was man bei SLI/CF heute noch nicht so sagen kann). Vernünftig implementiert könnte man vielleicht eine ähnlich gute Skalierung erzielen, und was bisherige Benchmarks von ATI-Multi-GPU-Karten gezeigt haben sieht es mal nicht schlecht aus.

Und zu der Frage bzgl Multi-Core-GPUs... Informiert euch doch vorher mal, wie eine CPU arbeitet und wie eine GPU. Eine CPU ist vereinfacht gesagt wie ein Fließbandarbeiter, früher wurde versucht das Fließband immer schneller laufen zu lassen (Takt erhöhen) bzw die Arbeitsschritte zu verkürzen (Leistung pro Takt erhöhen). Sie kann aber kaum mehrere Dinge gleichzeitig machen (gut, sie kann durchaus mehrere Befehle gleichzeitig abarbeiten wenn die Ergebnisse nicht voneinander abhängen usw).
Durch weitere CPUs (egal ob nun über zweiten Sockel, auf selben Die als Multi-Core oder als virtuelle Einheit im Sinne von HT, welches allerdings nicht wirklich an reales Dual-CPU rankommt) werden zusätzliche Fließbänder dazu geholt, und nun kann man durchaus viele Dinge - sofern es möglich ist! - gleichzeit ausführen. Allerdings ist es nicht möglich alles beliebig zu parallelisieren, so dass häufig CPU-Leistung brach liegt...

So... GPUs haben schon lange eine deutlich höhere Leistungsfähigkeit als CPUs - zumindest in dem was sie tun. GPUs arbeiten schon lange parallel, weil sich der Bildaufbau eben gut parallelisieren lässt. Man muss ja nur mal sehen wieviele Shader-Einheiten heutige GPUs haben, welche alle parallel arbeiten. GPUs bekommen immer mehr parallel arbeitende Einheiten spendiert...
Welchen Sinn macht denn da eine Multi-Core-GPU? Ob man nun einfach alles verdoppelt bei der GPU (doppelt so viele Shader-Einheiten, etc) oder ne zweite GPU dranhängt - ist kein großer Unterschied und dennoch macht kaum Sinn einen zweiten GPU-Kern auf den Die einer anderen zu kleben oder gar einen nativen Multi-Core-GPU-Chip zu entwickeln, denn im Grunde haben wir ja heute schon gar nichts anderes...

Edit: Hmm vielleicht wird der R700 ja auf Multi-Core setzen, aber ich bin dennoch gespannt, ob es wirklich so kommen wird (würde ich eher bezweifeln). Selbst im CB-Artikel wird dies ja auch wieder etwas bezweifelt..
 
Zuletzt bearbeitet:
ATi zeigt sich innovativ, schraubt nicht einfach 2PCB's zusammen und wirft die Karte auf den Markt. Der PowerPlay Modus bei den HD38x0er Karten zeigt auch die Entwicklung in die richtige Richtung - Stromverbrauch einer Low-End Karte im Windowsbetrieb. Das was Nvidia mit der 9800GX2 macht ist doch reines Marketing, genau wie bei der 7950GX2 gehts nur darum die Performancekrone zu besitzen.

Die HD 2900er Reihe hatte einige Fehler, die bei den HD3er Karten ausgemerzt wurden. Der G92 hat immer noch einen VRam Bug, aber hauptsache schnell was auf den Markt werfen und verkaufen. Sicherlich sind die NV Karten im moment noch die schnelleren, aber ich bin mal gespannt wie das zukünftig aussehen wird, bisher sieht man ja kaum neue Ideen bei NV. Das bald wieder ein absoluter High End Chip (G100) kommen wird, kann ich mir auch schwer vorstellen, wenn jetzt schon die GF9 Reihe (auf alter Basis) engeführt wird.
 
Zuletzt bearbeitet:
Auch Grafikkarten haben doch bis zur aktuellen Generation noch mit Pipelines gearbeitet.
Jetzt wurden die Pipelines halt aufbebrochen, da die Shader-Einheiten alles können und daher keine feste Reihenfolge mehr nötig ist.

Nun frage ich mich aber irgendwie, warum man bei GPUs immer mehr Shader (btw früher Pipelines) intregrieren kann, man bei CPUs aber einen 2. Kern braucht :rolleyes:

Kann das jemand beantworten?
 
können wir nochmal zu speicheranbundung kommen?

Also wenn jeder chip 256Bit kann/hat und der speicher mit 512 angebunden ist, dann kann es doch sein das es sozusagen ein globaler memory is
 
@Lar337: Schon mal die Komplexität einer Shader-Einheit mit einer CISC-CPU verglichen?

@hncam:
Edit: Also zudem ist es halt so, dass du nicht sagen kannst "der Speicher ist mit einem 512 Bit breiten Interface angebunden". In der Summe mag das richtig sein, aber wahrscheinlich verteilt sich das eben auf die beiden Chips, so dass beide Chips ihren Speicher über ein 256 Bit breites Interface anbinden. Vermutlich bestehen die 512 MB RAM pro GPU aus jeweils 8 Chips zu je 64 MB, welche wahrscheinlich jeweils eine 32-Bit breite Schnittstelle haben (8x32 = 256).
Wichtig ist also die Frage: Ist der Speicher pro Chip mit einem 512 Bit-Interface angebunden oder kommt doch nur ein 256 Bit-Interface zum Einsatz, welches eben bei 2 GPUs auf die marketingträchtige Aussage eines 512-Bit-Interfaces hochstilisiert werden kann...
 
Zuletzt bearbeitet:
8MiLe schrieb:
ATi zeigt sich innovativ, schraubt nicht einfach 2PCB's zusammen und wirft die Karte auf den Markt.
ne? was machen sie denn anders?
ok sie nehmen nur ein pcb, aber das macht ja nicht wirklich nen unterschied

weiss auhc gar nicht was alle mit ihrem gemeinsamen speicher haben
ich seh da bisher noch keine anzeichen das es so ist


@1686mib
die busbreite wird in bit angegeben, was soll er da ändern?
 
Zurück
Oben