News Sonntagsfrage: Habt ihr mal eine Grafikkarte mit einer Dual-GPU besessen?

Der Chiplet Ansatz mit einigen GPU Kernen erscheint mir da sinnvoller. Weder Multi-GPU noch SLI hat jemals ordentlich funktioniert.
 
Nun, die einzige die ich hatte war die ATI RAGE FURY MAXX, das war damals auch ein ziemlich zickiges Ding, mit brachialer Kraft. Lief aber bei den Sachen die ich machte damals echt gut. Aber sonderlich lang hab ich die nicht behalten, ich glaube das war damals meine Ablösung für die Matrox g400max, weil Q3 einfach mehr leistung wollte. Oder wars umgekehrt? Die Ablösung der G200? Es ist einfach so lange her. Mir war die 2d Qualität am Monito immer wichtig daher kamen die ganzen NVIDIA/3DFX Teile nicht in die Tüte. Danach hab ich ne Kyro2 gehabt, war auch was feines.
 
Lustig - ich wollte demnächst 2x HD 3870 mal testen. Just for Fun.

Heutzutage macht das gar keinen Sinn mehr.
Also die sollen bloß die Finger von lassen.

Man stelle sich vor man würde sich 2x eine High End Graka verbauen.
Also es gibt ja schon bei den heutigen Karten eine NT-Empfehlung von 700-800W

Das muss ja dann auch gekühlt werden xD

Sommer - Single GPU
Winter SLI/Crossfire oder wie ? xD
 
  • Gefällt mir
Reaktionen: andi_sco
GINAC schrieb:
Eigentlich waren doch die ersten Multi-GPUs von Voodoo oder irre ich mich?
Du irrst dich, weil die ATi Rage Fury MAXX ab 1999 tatsächlich früher war. Multi-GPu auf einem Brett gabs bei 3Dfx erst ab der Voodoo 5 ein Jahr später. Voodoo 2 (nicht-rush) hatte zwar zwei "Texturing Units" auf dem Board, aber ich würde das nicht als zwei GPUs werten - ist vielleicht eine Definitionsfrage.

("Multi-GPU" würde man vielleicht SLI von Voodoo II nennen können, aber das wäre dann auf zwei Boards.)
 
  • Gefällt mir
Reaktionen: DJMadMax
Hab noch eine 4870X2 im Regal stehen. Dual GPU war leider immer recht buggy egal ob von Team red oder green. Gleiches Gilt für CF/SLI mit einzelnen Karten, das war immer Glückssache das es anstandslos funktioniert hat.
 
HD 5970. Katastrophe wenns nicht funktioniert hat, brilliant wenns geklappt hat. Insgesamt nichts für mich, zu viel Spielerei.
 
Das einzige was ich Mal hatte war eine Voodoo und eine 2 D Grafikkarte.

Angesichts von kommenden 600 W Boliden sehe ich null Bedarf auch noch 2 Stück von den Dingern zu verbauen.
 
Ich habe eine 4870X2 im Einsatz gehabt, und diese habe ich immernoch hier liegen, allerdings fand ich zwei einzelne Karten besser, ich vermisse Crossfire schon, gerade als die 5700XT kam und nichts schnelleres, da hätte ich gerne zwei genommen, schade das man das System nicht verbessern konnte, das die Hardware als eine Einheit agiert und so die MR wegfallen.

Es kommt ja angeblich wieder eine Dualkarte von AMD denke aber das wird andere Technik sein, wär schon nice wenn man für Dualkarten keinen passenden Treiber bräuchte und die Hardware das alleine macht, falls möglich.

Schade um Club3D Grafikkarten. (Man beachte die Stromanschlüsse für eine Dualkarte)

4870X2.jpg
 
MountWalker schrieb:
Du irrst dich, weil die ATi Rage Fury MAXX ab 1999 tatsächlich früher war. Multi-GPu auf einem Brett gabs bei 3Dfx erst ab der Voodoo 5 ein Jahr später. Voodoo 2 (nicht-rush) hatte zwar zwei "Texturing Units" auf dem Board, aber ich würde das nicht als zwei GPUs werten - ist vielleicht eine Definitionsfrage.

("Multi-GPU" würde man vielleicht SLI von Voodoo II nennen können, aber das wäre dann auf zwei Boards.)
Quantum 3d Obsidian 2 X-24 war eine Dual-Voodoo2 und 1998 am Markt:
https://www.tomshardware.com/reviews/voodoo,85-17.html
 
  • Gefällt mir
Reaktionen: squeese, konkretor, andi_sco und 2 andere
Aktuell besitze ich noch 4 Dual GPU, 2 davon habe ich im Quad SLI Betrieb (2x GTX 690), 1 im SLI (7950 GX2) und eine liegt im Schrank (Gainward Rampage).

Das GTX 690 System will ich nicht einstampfen, läuft einfach noch sauber mit einem 3770k.
 

Anhänge

  • IMG_1049.JPG
    IMG_1049.JPG
    1,1 MB · Aufrufe: 215
  • IMG_3548.JPG
    IMG_3548.JPG
    1,7 MB · Aufrufe: 219
  • Clipboard03.jpg
    Clipboard03.jpg
    1,1 MB · Aufrufe: 213
  • Gefällt mir
Reaktionen: Mensor und konkretor
Grundsätzlich gibt es ja mit DX12 eine aktuelle Multi-GPU Lösung, nur die Unterstützung dafür ist praktisch nicht vorhanden. Eigentlich schade wenn man bedenkt wie ineffizient vor allem die High-End GPUs arbeiten.
 
  • Gefällt mir
Reaktionen: Aquilid
Hatte eine 3870X2. Mein größter Hardwarefehlkauf. Zu meiner Verteidigung sei gesagt, dass das Problem der Frametimes bei AFR erst kurz nach dem Kauf anfing, in den Medien publik zu werden.

Als Alternate Eye Rendering für VR wäre Multi-GPU vielleicht noch interessant, sonst eher nicht.
 
Ach da taucht ja plötzlich meine Leadtek Dual 6600GT wieder in den Bildern auf. :)

[x] Ja, ich habe bereits von 4 GPU-Herstellern eine Dual-GPU-Grafikkarte besessen
 
  • Gefällt mir
Reaktionen: andi_sco
ATi Rage Fury Maxx und die Voodoo 5 5500 besaß ich einst, hatte mich aber leider davon getrennt.
Jetzt habe ich nur noch die Geforce 7950 GX2, sowie ein SLI Gespann aus zwei passiven Asus 7600 GT und ein Crossfire Gespann aus zwei Sapphire Radeon HD 4850.
Wobei letzteres demnächst in Betrieb gehen soll. Die 7950 ist doch etwas zu laut, in dem Retro System.
 
GINAC schrieb:
Eigentlich waren doch die ersten Multi-GPUs von Voodoo oder irre ich mich?
Voodoo 4 war die erste Multi-GPU, SLI wiederum führte 3dfx mit der Voodoo 2 ein. Man muss an der Stelle aber aufpassen, weil man hier explizit zwischen DirectX <= 6 und eben so >= 7 unterscheiden muss.

Bei Voodoo2, 3 und auch später die VSA-100 auf Voodoo 4 und 5 wurden - stark vereinfacht - nur noch die Polygone mit Texel versehen und dann gerastert. Vieles andere war entweder vorberechnet oder wurde durch die CPU berechnet.

Mutli-GPU war damals deutlich einfacher, weil nichts an Daten synchronisiert werden musste. Mit der Aufweichung der Grafikpipeline mit DirectX 7 und später dann auch DirectX 8 sind die Grundsteine für moderne Grafikengines gelegt worden, darauf aufbauend ist aber die Kommunikation innerhalb des Chips auch wesentlich wichtiger geworden, weil viele zwischen Schritte auch weiterhin in einem Buffer aufbewahrt werden müssen, weil deren Daten für weitere Schritte in der Zukunft wichtig sind aber auch Daten in gewisse Buffer auch überschrieben werden müssen.

3dfx hatte dafür etwas "besonders" vorgesehen, löste sich aber auch im gewissen Sinn damals von Multi-GPU als Karten, die man zusammen steckt, die hatten ihre Multi-GPU auf einer Karte.

DBJ schrieb:
Mit genug Forschung und Aufwand würde man bestimmt auch irgendwann die Mikroruckler loswerden können, evtl. über die Displaytechnik wie Freesync und co.
Nein, man würde die Mikroruckler nicht loswerden, Mikroruckler sind heute ein Problem, dass man quasi auf jeder modernen Grafikkarte findet. Man kann die Auswirkungen von Mikrorucklern minimieren, aber man kann sie nicht verhindern und dabei würde auch G-Sync und auch Free-Sync nicht helfen.

Mikroruckler werden durch unterschiedliche Renderzeiten bei den Frames ausgelöst und Freesync kann nicht verhindern, dass die Frames bis zum Zeitpunkt mit 8 ms Abstand kommen - 120 Hz - und dann zwei Frames plötzlich 16 ms benötigen - 60 Hz - und dann alles Weitere wieder in 8 ms kommt. Freesync wird in dem Fall von 120 Hz auf 60 Hz springen und wieder zurück, dennoch wird man ein kurzer Stock wahrnehmen.

AMD und NVIDIA haben für diese Sprünge damals in CrossFire und eben SLI die Option geschaffen, dass Frames "zurück" gehalten werden und gleichmäßiger ans Display gesendet werden. Das hat Mirkoruckler minimiert, gleichzeitig wurden die Spiele schwammiger.

Eine weitere Methode wäre es, wenn man vom AFR auf ein SFR umstellt, dann braucht man aber eine sowohl sehr schnelle als auch reaktionsfreudige Verbindung der beiden GPUs, weil man sonst auf wichtige Informationen wartet, die ggf. in der anderen GPU liegen und damit geht Leistung verloren.

Und selbst AFR ist heute nicht mehr wirklich sinnvoll umsetzbar, da auch teilweise immer mehr Effekte auch auf temporale Komponenten zurückgreifen müssen und damit auch wieder eine schnelle Datenverbindung mit möglichst geringen Latenzen notwendig ist.

Und wir reden hier von Problemen, die die Welt der IT quasi seit über 30 Jahren bereits begleiten und bestimmte Probleme lassen sich nicht lösen, weil man die Physik nicht aushebeln kann. Spiele sind - wenn man denn die maximale FPS haben will - sehr empfindlich für Latenzen. Bei 120 Hz sollte ein Bild im Idealfall alle 8 ms bereit sein, bei 144 Hz sind es 7 ms, für 240 Hz und 300 Hz, die ja auch im Kommen sind, reden wir von 4 ms und 3 ms.

Egal wie man es an der Stelle dreht und wendet, die Kommunikation der beiden GPUs ist hier der entscheidende Punkt und selbst bei einem MCM-Ansatz - wie ihn AMD wohl für RDNA3 plant oder Apple bereits beim M1 Ultra fährt - muss bereits ein sehr hoher Aufwand getrieben werden und hier sind die Chips quasi direkte Nachbarn und auf einem möglichst kurzen Weg verbunden.

In einem "Multi-GPU"-Ansatz muss man erst aus dem einen Chip heraus - im Idealfall - eine Strecke über die Leiterplatte zurücklegen und in den anderen Chip hinein, im schlechtesten Fall aus dem Chip auf die Leiterbahn in einen Anschluss, über eine Bridge in einen anderen Anschluss, in die Leiterbahn und dann in die andere GPU und da lass ich bereits weg, dass die benötigen Daten ggf. noch im anderen RAM liegen.
ghecko schrieb:
Kommt drauf an, fällt darunter auch MCM?
Wenn man jetzt die hier getroffene Grundlage nimmt, dann wohl eher nein, weil ja sowohl Apple, AMD, Intel und auch NVIDIA bemüht sind, dass sich die Systeme nach außen hin wie ein monolithischer Block verhält.

Skidrow1988 schrieb:
Ich denke das Multi-GPU die Zukunft ist.
Multi-GPU ist - wenn wir jetzt von MCM ausgehen - ohne Frage die Zukunft, weil man gut skalierende GPUs bauen kann. Wenn wir nach der klassischen Ansicht dran gehen, also 2 "dedizierte" GPUs auf einer Karte oder gar in zwei Steckplätzen: Nein, dann ist das ganz sicher nicht die Lösung.

dasbene schrieb:
Interessant finde ich eher kommende Multi Die Lösungen wie AMD die in der Pipeline hat und Apple mit dem M1 Max jetzt auch auf dem Markt hat.
Du meinst den M1-Ultra. Aber ja, bei der Lösung wird es auch bleiben.

Multi-GPU in Form von SLI und CrossFire werden wir nicht mehr sehen, zu viele Probleme und zu aufwändig in so vielen Ebenen.
 
  • Gefällt mir
Reaktionen: ComputerJunge, tidus1979 und MountWalker
Nein wieso auch: kostentechnisch und leistungstechnisch hat das nie gelohnt.
 
Also ich würde eine 3090 GX2 sehr begrüßen. 2 Stück davon in die Workstation und ich bräuchte nicht mehr zwingend in die cloud auslagern.
 
Zurück
Oben