Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Sonntagsfrage: Habt ihr mal eine Grafikkarte mit einer Dual-GPU besessen?
- Ersteller SVΞN
- Erstellt am
- Zur News: Sonntagsfrage: Habt ihr mal eine Grafikkarte mit einer Dual-GPU besessen?
masakari666
Cadet 4th Year
- Registriert
- Nov. 2018
- Beiträge
- 80
Nun, die einzige die ich hatte war die ATI RAGE FURY MAXX, das war damals auch ein ziemlich zickiges Ding, mit brachialer Kraft. Lief aber bei den Sachen die ich machte damals echt gut. Aber sonderlich lang hab ich die nicht behalten, ich glaube das war damals meine Ablösung für die Matrox g400max, weil Q3 einfach mehr leistung wollte. Oder wars umgekehrt? Die Ablösung der G200? Es ist einfach so lange her. Mir war die 2d Qualität am Monito immer wichtig daher kamen die ganzen NVIDIA/3DFX Teile nicht in die Tüte. Danach hab ich ne Kyro2 gehabt, war auch was feines.
- Registriert
- Jan. 2006
- Beiträge
- 18.985
Lustig - ich wollte demnächst 2x HD 3870 mal testen. Just for Fun.
Heutzutage macht das gar keinen Sinn mehr.
Also die sollen bloß die Finger von lassen.
Man stelle sich vor man würde sich 2x eine High End Graka verbauen.
Also es gibt ja schon bei den heutigen Karten eine NT-Empfehlung von 700-800W
Das muss ja dann auch gekühlt werden xD
Sommer - Single GPU
Winter SLI/Crossfire oder wie ? xD
Heutzutage macht das gar keinen Sinn mehr.
Also die sollen bloß die Finger von lassen.
Man stelle sich vor man würde sich 2x eine High End Graka verbauen.
Also es gibt ja schon bei den heutigen Karten eine NT-Empfehlung von 700-800W
Das muss ja dann auch gekühlt werden xD
Sommer - Single GPU
Winter SLI/Crossfire oder wie ? xD
MountWalker
Fleet Admiral
- Registriert
- Juni 2004
- Beiträge
- 13.998
Du irrst dich, weil die ATi Rage Fury MAXX ab 1999 tatsächlich früher war. Multi-GPu auf einem Brett gabs bei 3Dfx erst ab der Voodoo 5 ein Jahr später. Voodoo 2 (nicht-rush) hatte zwar zwei "Texturing Units" auf dem Board, aber ich würde das nicht als zwei GPUs werten - ist vielleicht eine Definitionsfrage.GINAC schrieb:Eigentlich waren doch die ersten Multi-GPUs von Voodoo oder irre ich mich?
("Multi-GPU" würde man vielleicht SLI von Voodoo II nennen können, aber das wäre dann auf zwei Boards.)
drago-museweni
Admiral
- Registriert
- März 2004
- Beiträge
- 9.201
Ich habe eine 4870X2 im Einsatz gehabt, und diese habe ich immernoch hier liegen, allerdings fand ich zwei einzelne Karten besser, ich vermisse Crossfire schon, gerade als die 5700XT kam und nichts schnelleres, da hätte ich gerne zwei genommen, schade das man das System nicht verbessern konnte, das die Hardware als eine Einheit agiert und so die MR wegfallen.
Es kommt ja angeblich wieder eine Dualkarte von AMD denke aber das wird andere Technik sein, wär schon nice wenn man für Dualkarten keinen passenden Treiber bräuchte und die Hardware das alleine macht, falls möglich.
Schade um Club3D Grafikkarten. (Man beachte die Stromanschlüsse für eine Dualkarte)
Es kommt ja angeblich wieder eine Dualkarte von AMD denke aber das wird andere Technik sein, wär schon nice wenn man für Dualkarten keinen passenden Treiber bräuchte und die Hardware das alleine macht, falls möglich.
Schade um Club3D Grafikkarten. (Man beachte die Stromanschlüsse für eine Dualkarte)
Haggis
Lieutenant
- Registriert
- Juni 2017
- Beiträge
- 910
Quantum 3d Obsidian 2 X-24 war eine Dual-Voodoo2 und 1998 am Markt:MountWalker schrieb:Du irrst dich, weil die ATi Rage Fury MAXX ab 1999 tatsächlich früher war. Multi-GPu auf einem Brett gabs bei 3Dfx erst ab der Voodoo 5 ein Jahr später. Voodoo 2 (nicht-rush) hatte zwar zwei "Texturing Units" auf dem Board, aber ich würde das nicht als zwei GPUs werten - ist vielleicht eine Definitionsfrage.
("Multi-GPU" würde man vielleicht SLI von Voodoo II nennen können, aber das wäre dann auf zwei Boards.)
https://www.tomshardware.com/reviews/voodoo,85-17.html
wickedgonewild
Commander
- Registriert
- Sep. 2004
- Beiträge
- 2.727
Aktuell besitze ich noch 4 Dual GPU, 2 davon habe ich im Quad SLI Betrieb (2x GTX 690), 1 im SLI (7950 GX2) und eine liegt im Schrank (Gainward Rampage).
Das GTX 690 System will ich nicht einstampfen, läuft einfach noch sauber mit einem 3770k.
Das GTX 690 System will ich nicht einstampfen, läuft einfach noch sauber mit einem 3770k.
Anhänge
Hatte eine 3870X2. Mein größter Hardwarefehlkauf. Zu meiner Verteidigung sei gesagt, dass das Problem der Frametimes bei AFR erst kurz nach dem Kauf anfing, in den Medien publik zu werden.
Als Alternate Eye Rendering für VR wäre Multi-GPU vielleicht noch interessant, sonst eher nicht.
Als Alternate Eye Rendering für VR wäre Multi-GPU vielleicht noch interessant, sonst eher nicht.
0range
Ensign
- Registriert
- Juli 2016
- Beiträge
- 203
Same! Aber meine hatte noch PCI xDredjack1000 schrieb:Japp,
Bei mir war es eine 3dfx VOODOO 5 5500 AGP
CU
redjack
Irrlicht_01
Lieutenant
- Registriert
- Feb. 2013
- Beiträge
- 688
Ach da taucht ja plötzlich meine Leadtek Dual 6600GT wieder in den Bildern auf.
[x] Ja, ich habe bereits von 4 GPU-Herstellern eine Dual-GPU-Grafikkarte besessen
[x] Ja, ich habe bereits von 4 GPU-Herstellern eine Dual-GPU-Grafikkarte besessen
- Registriert
- Jan. 2018
- Beiträge
- 19.038
ATi Rage Fury Maxx und die Voodoo 5 5500 besaß ich einst, hatte mich aber leider davon getrennt.
Jetzt habe ich nur noch die Geforce 7950 GX2, sowie ein SLI Gespann aus zwei passiven Asus 7600 GT und ein Crossfire Gespann aus zwei Sapphire Radeon HD 4850.
Wobei letzteres demnächst in Betrieb gehen soll. Die 7950 ist doch etwas zu laut, in dem Retro System.
Jetzt habe ich nur noch die Geforce 7950 GX2, sowie ein SLI Gespann aus zwei passiven Asus 7600 GT und ein Crossfire Gespann aus zwei Sapphire Radeon HD 4850.
Wobei letzteres demnächst in Betrieb gehen soll. Die 7950 ist doch etwas zu laut, in dem Retro System.
- Registriert
- Juli 2021
- Beiträge
- 2.805
Voodoo 4 war die erste Multi-GPU, SLI wiederum führte 3dfx mit der Voodoo 2 ein. Man muss an der Stelle aber aufpassen, weil man hier explizit zwischen DirectX <= 6 und eben so >= 7 unterscheiden muss.GINAC schrieb:Eigentlich waren doch die ersten Multi-GPUs von Voodoo oder irre ich mich?
Bei Voodoo2, 3 und auch später die VSA-100 auf Voodoo 4 und 5 wurden - stark vereinfacht - nur noch die Polygone mit Texel versehen und dann gerastert. Vieles andere war entweder vorberechnet oder wurde durch die CPU berechnet.
Mutli-GPU war damals deutlich einfacher, weil nichts an Daten synchronisiert werden musste. Mit der Aufweichung der Grafikpipeline mit DirectX 7 und später dann auch DirectX 8 sind die Grundsteine für moderne Grafikengines gelegt worden, darauf aufbauend ist aber die Kommunikation innerhalb des Chips auch wesentlich wichtiger geworden, weil viele zwischen Schritte auch weiterhin in einem Buffer aufbewahrt werden müssen, weil deren Daten für weitere Schritte in der Zukunft wichtig sind aber auch Daten in gewisse Buffer auch überschrieben werden müssen.
3dfx hatte dafür etwas "besonders" vorgesehen, löste sich aber auch im gewissen Sinn damals von Multi-GPU als Karten, die man zusammen steckt, die hatten ihre Multi-GPU auf einer Karte.
Nein, man würde die Mikroruckler nicht loswerden, Mikroruckler sind heute ein Problem, dass man quasi auf jeder modernen Grafikkarte findet. Man kann die Auswirkungen von Mikrorucklern minimieren, aber man kann sie nicht verhindern und dabei würde auch G-Sync und auch Free-Sync nicht helfen.DBJ schrieb:Mit genug Forschung und Aufwand würde man bestimmt auch irgendwann die Mikroruckler loswerden können, evtl. über die Displaytechnik wie Freesync und co.
Mikroruckler werden durch unterschiedliche Renderzeiten bei den Frames ausgelöst und Freesync kann nicht verhindern, dass die Frames bis zum Zeitpunkt mit 8 ms Abstand kommen - 120 Hz - und dann zwei Frames plötzlich 16 ms benötigen - 60 Hz - und dann alles Weitere wieder in 8 ms kommt. Freesync wird in dem Fall von 120 Hz auf 60 Hz springen und wieder zurück, dennoch wird man ein kurzer Stock wahrnehmen.
AMD und NVIDIA haben für diese Sprünge damals in CrossFire und eben SLI die Option geschaffen, dass Frames "zurück" gehalten werden und gleichmäßiger ans Display gesendet werden. Das hat Mirkoruckler minimiert, gleichzeitig wurden die Spiele schwammiger.
Eine weitere Methode wäre es, wenn man vom AFR auf ein SFR umstellt, dann braucht man aber eine sowohl sehr schnelle als auch reaktionsfreudige Verbindung der beiden GPUs, weil man sonst auf wichtige Informationen wartet, die ggf. in der anderen GPU liegen und damit geht Leistung verloren.
Und selbst AFR ist heute nicht mehr wirklich sinnvoll umsetzbar, da auch teilweise immer mehr Effekte auch auf temporale Komponenten zurückgreifen müssen und damit auch wieder eine schnelle Datenverbindung mit möglichst geringen Latenzen notwendig ist.
Und wir reden hier von Problemen, die die Welt der IT quasi seit über 30 Jahren bereits begleiten und bestimmte Probleme lassen sich nicht lösen, weil man die Physik nicht aushebeln kann. Spiele sind - wenn man denn die maximale FPS haben will - sehr empfindlich für Latenzen. Bei 120 Hz sollte ein Bild im Idealfall alle 8 ms bereit sein, bei 144 Hz sind es 7 ms, für 240 Hz und 300 Hz, die ja auch im Kommen sind, reden wir von 4 ms und 3 ms.
Egal wie man es an der Stelle dreht und wendet, die Kommunikation der beiden GPUs ist hier der entscheidende Punkt und selbst bei einem MCM-Ansatz - wie ihn AMD wohl für RDNA3 plant oder Apple bereits beim M1 Ultra fährt - muss bereits ein sehr hoher Aufwand getrieben werden und hier sind die Chips quasi direkte Nachbarn und auf einem möglichst kurzen Weg verbunden.
In einem "Multi-GPU"-Ansatz muss man erst aus dem einen Chip heraus - im Idealfall - eine Strecke über die Leiterplatte zurücklegen und in den anderen Chip hinein, im schlechtesten Fall aus dem Chip auf die Leiterbahn in einen Anschluss, über eine Bridge in einen anderen Anschluss, in die Leiterbahn und dann in die andere GPU und da lass ich bereits weg, dass die benötigen Daten ggf. noch im anderen RAM liegen.
Wenn man jetzt die hier getroffene Grundlage nimmt, dann wohl eher nein, weil ja sowohl Apple, AMD, Intel und auch NVIDIA bemüht sind, dass sich die Systeme nach außen hin wie ein monolithischer Block verhält.ghecko schrieb:Kommt drauf an, fällt darunter auch MCM?
Multi-GPU ist - wenn wir jetzt von MCM ausgehen - ohne Frage die Zukunft, weil man gut skalierende GPUs bauen kann. Wenn wir nach der klassischen Ansicht dran gehen, also 2 "dedizierte" GPUs auf einer Karte oder gar in zwei Steckplätzen: Nein, dann ist das ganz sicher nicht die Lösung.Skidrow1988 schrieb:Ich denke das Multi-GPU die Zukunft ist.
Du meinst den M1-Ultra. Aber ja, bei der Lösung wird es auch bleiben.dasbene schrieb:Interessant finde ich eher kommende Multi Die Lösungen wie AMD die in der Pipeline hat und Apple mit dem M1 Max jetzt auch auf dem Markt hat.
Multi-GPU in Form von SLI und CrossFire werden wir nicht mehr sehen, zu viele Probleme und zu aufwändig in so vielen Ebenen.
Ähnliche Themen
- Antworten
- 28
- Aufrufe
- 3.146