Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test CrossFire & SLI: Früher meist schnell, heute meist schlecht
- Ersteller Wolfgang
- Erstellt am
- Zum Test: CrossFire & SLI: Früher meist schnell, heute meist schlecht
O
Oneplusfan
Gast
Schade, aber was soll man machen.
Hoffnungen, dass sich mit DX 12 sogar ne IGP mit ner GPU betreiben lassen, sind wohl dahin.
Hatte selbst mal 2 GTX 970 im SLI, lief auch ganz gut. War dennoch froh auf eine starke GPU gewechselt zu haben.
3D Vision wäre ein gutes Anwendungsgebiet (wie auch VR), aber das eine ist bereits so gut wie gestorben, das andere noch nicht richtig geboren
Hoffnungen, dass sich mit DX 12 sogar ne IGP mit ner GPU betreiben lassen, sind wohl dahin.
Hatte selbst mal 2 GTX 970 im SLI, lief auch ganz gut. War dennoch froh auf eine starke GPU gewechselt zu haben.
3D Vision wäre ein gutes Anwendungsgebiet (wie auch VR), aber das eine ist bereits so gut wie gestorben, das andere noch nicht richtig geboren
CastorTransport
Captain Pro
- Registriert
- Apr. 2017
- Beiträge
- 3.407
Bis zur R9 290 hatte ich auch immer wieder mal CF im Einsatz. Sobald die Treiber passend gemacht wurden, lief das auch bestens. Ich nahm das aber immer nur als Anlass, die Regler für Qualität hochzustellen, da mehr FPS eigentlich kaum zu erringen waren... Qualität schon.
Schade, das ihr mit dem toten SW:BF2 getestet habt und nicht mit BF1 - oder gibt es in letzterem keinen CF Support? Naja, 2x Vega64 sind auch immernoch mindestens 1.000€ Investition.
Und ja, für DX12 hiess es mal, das es genau diese Probleme nicht mehr geben sollte und dies im Idealfall sogar Kombinationen unter verschiedenen Grafikchips zuläßt.
Schade, das ihr mit dem toten SW:BF2 getestet habt und nicht mit BF1 - oder gibt es in letzterem keinen CF Support? Naja, 2x Vega64 sind auch immernoch mindestens 1.000€ Investition.
Und ja, für DX12 hiess es mal, das es genau diese Probleme nicht mehr geben sollte und dies im Idealfall sogar Kombinationen unter verschiedenen Grafikchips zuläßt.
Weder die Vive noch die Rift können aktuell etwas mit Dual-GPUs anfangen.xmarsx schrieb:Vorteile bei VR?
Wie sieht es denn aus, wenn es nicht um ein vergrößertes Bild geht, sondern wie bei VR benötigt ein Bild für das linke Auge und eines für das richte Auge (sprich HTC Vive pro und Oculus Rift)?
Jedenfalls nicht so, dass man ihnen eine Karte pro Auge zuweisen kann.
Nvidia wie AMD haben zwar angekündigt so etwas zu bringen, aber das Ergebnis lässt noch auf sich warten:
https://www.vrheads.com/sites/vrhea...7/01/amd-multi-gpu-graph-01.jpg?itok=JsqKeAyl
Hatsune_Miku
Rear Admiral
- Registriert
- Juli 2012
- Beiträge
- 5.383
Ansich sehr schade das SLI/CF so stiefmütterlich behandelt wurden. War aber vorauszusehen das es früher oder später eingestellt wird. Da die Nachteile ja doch überwiegen. Ich selber hatte 3 SLI Setups
9600 GT Goldensample 1024, lief damals an sich recht ordentlich, konnte in einigen Spielen mehr leistung rausholen als ein Kumpel der eine XFX 9800GTX+ 768 hatte, da wo der Karte der SPeicher ausging, ich noch ein bisschen Luft hatte.
GTX470 Goldensample 1280, war am anfang brauchbar, aber da die Karten totale Speicherkrüppel waren, wurde es mit ansteigender Vram auslastung nicht mehr brauchbar.
Dann mein letztes SLI Setup GTX670 4096 EVGA, das war mein bisher bestes SLI Setup, auch wenn viele spiele nicht optimal liefen war es aber brauchbar, da Leistung und Vram genug vorhanden war, jedoch der verbrauch etc für mich hinterher ein sehr großer Nachteil waren.
Die 2 670 4096 wurden dann kurzerhand durch eine Inno3D 770 4096 ersetzt, die auch ein gutes verhältnis zwischen Leistung und Vram hatte.
Aber ich selber würde einfach aus spass an der freude gerne nochmal ein aktuelles SLI setup ausprobieren.![Lächeln :) :)](/forum/styles/smilies/smile.gif)
9600 GT Goldensample 1024, lief damals an sich recht ordentlich, konnte in einigen Spielen mehr leistung rausholen als ein Kumpel der eine XFX 9800GTX+ 768 hatte, da wo der Karte der SPeicher ausging, ich noch ein bisschen Luft hatte.
GTX470 Goldensample 1280, war am anfang brauchbar, aber da die Karten totale Speicherkrüppel waren, wurde es mit ansteigender Vram auslastung nicht mehr brauchbar.
Dann mein letztes SLI Setup GTX670 4096 EVGA, das war mein bisher bestes SLI Setup, auch wenn viele spiele nicht optimal liefen war es aber brauchbar, da Leistung und Vram genug vorhanden war, jedoch der verbrauch etc für mich hinterher ein sehr großer Nachteil waren.
Die 2 670 4096 wurden dann kurzerhand durch eine Inno3D 770 4096 ersetzt, die auch ein gutes verhältnis zwischen Leistung und Vram hatte.
Aber ich selber würde einfach aus spass an der freude gerne nochmal ein aktuelles SLI setup ausprobieren.
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
W0lfenstein
Commander
- Registriert
- Apr. 2007
- Beiträge
- 3.066
Damals vor jahren wollte ich mal sli und auch crossfire probieren, aber das mit den microrucklern hatt mich immer abgehalten. Dann kam mir die idee das auch mit 2 1070ern probieren ,der Gedanke reizte mich arg. aber das microruckeln hielt mich weiterhin ab.
Bin echt froh das ich dieserm verlangen nicht nachgegeben habe![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Btw, wenn das wirklich soooo mieß leuft wie in dem test hier frag ich mich echt wie da das zocken noch spass machen kann wenn ich so oft sli lese in allen varianten.
Bin echt froh das ich dieserm verlangen nicht nachgegeben habe
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Btw, wenn das wirklich soooo mieß leuft wie in dem test hier frag ich mich echt wie da das zocken noch spass machen kann wenn ich so oft sli lese in allen varianten.
projectneo
Lt. Commander
- Registriert
- Juli 2010
- Beiträge
- 1.147
Xeelee schrieb:Weder die Vive noch die Rift können aktuell etwas mit Dual-GPUs anfangen.
Jedenfalls nicht so, dass man ihnen eine Karte pro Auge zuweisen kann.
Bei VR dürfte das Timing und Min-FPS noch viel deutlicher spürbar sein als so schon. Selbst wenn je eine Grafikkarte pro Auge rendert, müssen auch die Bilder doch perfekt synchronisiert sein sonst wird einem doch übel.
Ich denke wenn es nicht irgendwann eine bessere Redermethode gibt die direkt im Chip ohne Software und Profile arbeitet wird das nichts mehr mit SLI/CF. Für mich würde das auch nur in Frage kommen, wenn ich im Durchschnitt immer 70% Mehrleistung haben ohne Microruckler und das in JEDEM Spiel. Mir bringen die Profile für AAA Spiele gar nichts ...
M.B.H.
Commander
- Registriert
- Dez. 2006
- Beiträge
- 2.216
Ich verstehe die Ergebnisse nicht. Rein von der Hardware müsste ein SLI-System GENAU doppelt so schnell sein / doppelt so viele FPS liefern, und zwar bei jedem Spiel. Die Spiele haben ja garnichts damit zu tun und müssen es auch nicht wissen ob sli oder nihct. also: Weil halt doppelte Power vorhanden ist und das was zu berechnen ist auf 2 Einheiten verteilt wird, so wie es bei mehreren Kernen bei CPUs der Fall ist, dort verdoppelt es sich auch 1:1. Verstehe nicht wo die Probleme sind. Kann doch nicht so schwierig sein in 10 Jahren das hinzubekommen.
Ich wünsche mir ein konfigurierbares System, wo ich je nach Lust und Laune 1 bis 10 Grafikeinheiten in nen extra Tower reinstecken kann, je nachdem wieviel Power ich benötige.
Ich wünsche mir ein konfigurierbares System, wo ich je nach Lust und Laune 1 bis 10 Grafikeinheiten in nen extra Tower reinstecken kann, je nachdem wieviel Power ich benötige.
BlackWidowmaker
Banned
- Registriert
- Dez. 2010
- Beiträge
- 4.476
DerVengeance schrieb:Damit fällt auch endgültig das "Killerargument" PCIe Lanes für die Intel 2011 Plattform weg. Denn 40 Lanes braucht man ja nur bei SLI oder Crossfire.
Aber nur wenn man geistloser ich-will-nur-zocken-und-sonst-nichts-Gamer ist.
![Evil LOL :evillol: :evillol:](/forum/styles/smilies/evillol.gif)
Was früher SLI/CF war ist heute PCIe-NVMe-RAID. Plus 10GBase-T. Plus nativer USB 3.1 Gen2 Support. Plus Thunderbold 3. Das können heute zwar auch alle Z370 bzw X370/X470 MBs, aber eben nur in der Theorie. Will man all diese Techniken gleichzeitig nutzen, gibt es eben ein massives Bandbreitenproblem. Bzw das eine (M.2 NVMe SSD) schließt das andere (SATA-Anschlüsse) aus.
Mein letztes "gute" MB, das bei richtiger Einstellung tatsächlich alle damals verfügbaren Komponenten problemlos und mit voller Geschwindigkeit kompromisslos unterstützte was mein gutes altes P2B, mit dem damals auch wirklich alle 7 Steckplätze belegt werden konnten, ohne IRQ-Konflikte, bzw IRQ-Sharing zu verursachen. Aber damals wusste auch ein Enthusiast sofort was man unter IRQ 7 Adresse 220 im BIOS einzurichten hat. Heute überlässt man alles dem MB/UEFI und denkt es kann es besser.
Botcruscher
Captain
- Registriert
- Aug. 2005
- Beiträge
- 4.027
Moep89 schrieb:Ziemlich erschreckend. An wem liegts jetzt? An den Treibern oder den Entwicklern der Spiele?
Das mGPU schlicht ganz offiziell tot ist und überhaupt nur noch die Reste unterstützt werden. Seine Marketingfunktion als Balkenbeschaffer mit miesen Einschränkungen hat es auch eingebüßt.
Low-Level hängt am Programmierer, kostet damit Zeit+Geld und ist somit erst recht tot. Für Minderheiten wird keine Tech in kauf genommen die von Anfang an implementiert werden muss sowie massive Einschränkungen in der Folge verursacht.Hylou schrieb:Sollte nicht DX12 sowas können?
Verwaltung der Daten plus totale Inkompatibilität zu bestimmten populären Technologien. Wenn du Daten von Frame X auf Grafikkarte Y eigentlich auf Z brauchst um A, B, C zu berechnen aber die Daten eigentlich von Shader 4092 verändert wurden und im L2 von Array 16 stecken...M.B.H. schrieb:Verstehe nicht wo die Probleme sind. Kann doch nicht so schwierig sein in 10 Jahren das hinzubekommen.
...
Dann dauert das ewig und mit einer Karte wäre es am Ende gleich schneller. Nichts ist so unendlich teuer wie externe Chipkommunikation.
Zuletzt bearbeitet:
Suito
Lt. Junior Grade
- Registriert
- Dez. 2011
- Beiträge
- 431
CastorTransport schrieb:Und ja, für DX12 hiess es mal, das es genau diese Probleme nicht mehr geben sollte und dies im Idealfall sogar Kombinationen unter verschiedenen Grafikchips zuläßt.
Geht doch auch wunderbar, siehe Ashes of Singularity.
@Wolfgang
Kann CB nicht auch dort noch einen Test einfügen für DX12 ich würde gerne mal DX12 vs SLI vs CF sehen.
DX12 kann Explicit-Multi-Adapter. Vereinfacht ausgedrückt: Der Programmierer kann explizit für mehrere GPUs programmieren. Macht aber keiner. Da müsste man wohl Geld und Support locker machen, um das direkt in die Enginges zu integrieren. Ist dann übrigens auch kein SLI/CF, sondern die Karten stecken einfach so drin.Hylou schrieb:Sollte nicht DX12 sowas können?
Die aktuelle heißt 2066. Und AMD hat auf TR4 sogar 64 und das wird (warum auch immerDerVengeance schrieb:Damit fällt auch endgültig das "Killerargument" PCIe Lanes für die Intel 2011 Plattform weg. Denn 40 Lanes braucht man ja nur bei SLI oder Crossfire.
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
Die Intel-GPUs sollen ja womöglich in Richtung Multi-Chip gehen. Wenn das stimmt, wird sich Intel ja vermutlich irgendwas in Richtung Skalierbarkeit einfallen lassen. Vielleicht wäre sowas dann auch über eine Karte hinaus skalierbar.projectneo schrieb:...
Ich denke wenn es nicht irgendwann eine bessere Redermethode gibt die direkt im Chip ohne Software und Profile arbeitet wird das nichts mehr mit SLI/CF. ...
Zuletzt bearbeitet:
Runaway-Fan
Lt. Commander
- Registriert
- Dez. 2006
- Beiträge
- 1.047
Das Hauptproblem dürfte das Timing sein. Diese beiden GPU so aufeinander abzustimmen, dass gleichmäßig von beiden immer ein Bild berechnet wird.M.B.H. schrieb:Rein von der Hardware müsste ein SLI-System GENAU doppelt so schnell sein / doppelt so viele FPS liefern, und zwar bei jedem Spiel. Die Spiele haben ja garnichts damit zu tun und müssen es auch nicht wissen ob sli oder nihct. also: Weil halt doppelte Power vorhanden ist und das was zu berechnen ist auf 2 Einheiten verteilt wird, so wie es bei mehreren Kernen bei CPUs der Fall ist, dort verdoppelt es sich auch 1:1.
Aber das jedes Bild unterschiedlich lange zur Berechnung braucht, ist das nicht so trivial.
Bei CPU-Berechnungen, die auf mehrere Kerne aufgeteilt werden, gibt es diese Abweichungen auch. Nur fällt es da nicht auf, weil es alles nicht sichtbar ist.
AoTs in DX12 kann multi-GPU:
Sogar als Kombo zwischen Fury und Titan
Sniper Elite offenbar auch:
http://www.pcgameshardware.de/Sniper-Elite-4-Spiel-56795/News/Multi-GPU-Modus-DirectX-12-1220948/
Gibt vielleicht doch einen Grund warum die Studios jetzt mehr auf DX12 umschwenken und dass damit AMD/nVidia den CF/SLI Support (für DX11 einstellen, denn unter DX12/Vulkan ist das "Problem" anders gelöst)
EDIT: Nachtrag, auch Vulkan kann dies mittlerweile, mittelfristig denke ich wird sich das viel eher durchsetzen als die Verbreitung über die Hersteller, wenn die API-Moden "gut funktionieren".
https://arstechnica.com/gadgets/201...compatibility-as-khronos-looks-to-the-future/
Sogar als Kombo zwischen Fury und Titan
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Sniper Elite offenbar auch:
http://www.pcgameshardware.de/Sniper-Elite-4-Spiel-56795/News/Multi-GPU-Modus-DirectX-12-1220948/
Gibt vielleicht doch einen Grund warum die Studios jetzt mehr auf DX12 umschwenken und dass damit AMD/nVidia den CF/SLI Support (für DX11 einstellen, denn unter DX12/Vulkan ist das "Problem" anders gelöst)
EDIT: Nachtrag, auch Vulkan kann dies mittlerweile, mittelfristig denke ich wird sich das viel eher durchsetzen als die Verbreitung über die Hersteller, wenn die API-Moden "gut funktionieren".
https://arstechnica.com/gadgets/201...compatibility-as-khronos-looks-to-the-future/
Zuletzt bearbeitet:
(Post aufgeräumt, Vergessenen Link hinzugefügt)
WulfmanGER
Commander
- Registriert
- Juli 2005
- Beiträge
- 2.325
sollte eigentlich der Support nicht bei den Grafikschnittstellen liegen? Also DX z.b.? War das nicht ursprünglich der Sinn der sich dahinter versteckte? Die Spieleentwickler müssen nicht auf Grafikkarten optimiert programmieren sondern auf die Schnittstelle. Die Idee hat sich aber ja scheinbar nicht durchgesetzt und sorgt jetzt dafür das CLI/CF quasi für die Tonne sind. Hätte sich die Idee durchgesetzt, würde DX das einfach handeln und es wäre egal ob 1,2,3 GPUs ...
@projectneo
Was speziell für die CPU ein Problem werden kann.
Denn:
1. Muss sie nun doppelte Anzahl von Draw Cells erzeugen und an die GPUs senden.
Und sein wir doch ehrlich - das man das über Multithread Rendering macht ist in 2018 immer noch nicht Standard. Speziell weil das Arbeit der Spieleentwickler ist und die weder das Knowhow noch die Manpower dafür haben.
2. Bei Muli-GPU Renderings die Ergebnisse theoretisch in schnellerer Abfolge zurück zur CPU kommen.
Sieht man in meiner verlinkten Grafik ja sehr schön.
Im Fall einer GPU hat die CPU u.U. sogar gar nichts zu tun weil sie auf das Ergebnis der beiden GPUs warten muss.
Im zweiten Fall mit 2 GPUs dagegen hat sie diesen "Luxus" nicht. Da muss sie auch doppelt so schnell auf die Antworten reagieren.
Man hat also doppelte Last weil man je 2 Draw Cells erzeugen muss. Und gleichzeitig hat man in gleicher Zeit die doppelte zahl Frames zur Verfügung die es dann auch noch zusammen zu setzen gilt.
Am ende macht man es mit dem System vielleicht sogar nur schlimmer weil die CPU plötzlich nicht mehr hinterher kommt - ein Problem das es aktuell bei VR überhaupt nicht gibt.
Was speziell für die CPU ein Problem werden kann.
Denn:
1. Muss sie nun doppelte Anzahl von Draw Cells erzeugen und an die GPUs senden.
Und sein wir doch ehrlich - das man das über Multithread Rendering macht ist in 2018 immer noch nicht Standard. Speziell weil das Arbeit der Spieleentwickler ist und die weder das Knowhow noch die Manpower dafür haben.
2. Bei Muli-GPU Renderings die Ergebnisse theoretisch in schnellerer Abfolge zurück zur CPU kommen.
Sieht man in meiner verlinkten Grafik ja sehr schön.
Im Fall einer GPU hat die CPU u.U. sogar gar nichts zu tun weil sie auf das Ergebnis der beiden GPUs warten muss.
Im zweiten Fall mit 2 GPUs dagegen hat sie diesen "Luxus" nicht. Da muss sie auch doppelt so schnell auf die Antworten reagieren.
Man hat also doppelte Last weil man je 2 Draw Cells erzeugen muss. Und gleichzeitig hat man in gleicher Zeit die doppelte zahl Frames zur Verfügung die es dann auch noch zusammen zu setzen gilt.
Am ende macht man es mit dem System vielleicht sogar nur schlimmer weil die CPU plötzlich nicht mehr hinterher kommt - ein Problem das es aktuell bei VR überhaupt nicht gibt.
exekuhtor
Lieutenant
- Registriert
- Juni 2011
- Beiträge
- 938
Verdammt.
Es war klar dass es soweit kommt.
SLI hatte ein wirkliches Hoch mit der GTX 690 (lest euch mal den Test von CB durch, das Teil war RICHTIG gut), welche ich mir damals geholt hab, die zweite GPU da drinne hat nahezu immer 70-100% mehr Frames gebracht und die Microstutter waren quasi nicht vorhanden.
Das war die letzte gute multi-GPU Zeit.
Ich bin dann auf eine 980 gewechselt (Speicher von 2GB VRAM war langsam knapp geworden) und weil ich zu wenig Leistung hatte in 1440p (und es noch keine 980ti gab) hab ich mir noch eine zweite 980 geholt, SLI, wassergekühlt -> sollte gut Frames bringen!
Meh, schon hier hab ich gemerkt dass die SLI Profile nicht mehr sauber aktualisiert wurden. Viel weniger Leistungsplus gegenüber der 690 durch die zweite GPU, teils musste ich die zweite Karte abschalten
.
Also später eine dicke 1080ti geholt, diese auf 2000/6000 hochgezogen und die beiden 980er verkauft.
Etwas schade ist es schon, allerdings bekomme ich mittlerweile die Leistung die ich will auch mit einer Karte, und es gibt weniger Abwärme und Stormverbrauch.
Zudem die 1080ti so teuer war wie die 690, DANKE NVIDIA ><
Es war klar dass es soweit kommt.
SLI hatte ein wirkliches Hoch mit der GTX 690 (lest euch mal den Test von CB durch, das Teil war RICHTIG gut), welche ich mir damals geholt hab, die zweite GPU da drinne hat nahezu immer 70-100% mehr Frames gebracht und die Microstutter waren quasi nicht vorhanden.
Das war die letzte gute multi-GPU Zeit.
Ich bin dann auf eine 980 gewechselt (Speicher von 2GB VRAM war langsam knapp geworden) und weil ich zu wenig Leistung hatte in 1440p (und es noch keine 980ti gab) hab ich mir noch eine zweite 980 geholt, SLI, wassergekühlt -> sollte gut Frames bringen!
Meh, schon hier hab ich gemerkt dass die SLI Profile nicht mehr sauber aktualisiert wurden. Viel weniger Leistungsplus gegenüber der 690 durch die zweite GPU, teils musste ich die zweite Karte abschalten
![Traurig :( :(](/forum/styles/smilies/frown.gif)
Also später eine dicke 1080ti geholt, diese auf 2000/6000 hochgezogen und die beiden 980er verkauft.
Etwas schade ist es schon, allerdings bekomme ich mittlerweile die Leistung die ich will auch mit einer Karte, und es gibt weniger Abwärme und Stormverbrauch.
Zudem die 1080ti so teuer war wie die 690, DANKE NVIDIA ><
R
Ron Reviewt
Gast
Schade dass die Multi GPU Sache fallen gelassen wurde.
Hatte Gtx480, 670 und 780 Sli @ 3D Vision Surround.
Wäre mit Single Gpu nie machbar gewesen. Skalierung damals in vielen Spielen 100%.
Hätte für VR gehofft dass sie dran bleiben. Jetzt muss man halt Single Gpus um knapp 1.000,- kaufen, damit halbwegs Leistung rumkommt. Für Enthusiasten sind die lauen GPU Aufgüsse von +20% schon seit Jahren ein Graus.
Hatte Gtx480, 670 und 780 Sli @ 3D Vision Surround.
Wäre mit Single Gpu nie machbar gewesen. Skalierung damals in vielen Spielen 100%.
Hätte für VR gehofft dass sie dran bleiben. Jetzt muss man halt Single Gpus um knapp 1.000,- kaufen, damit halbwegs Leistung rumkommt. Für Enthusiasten sind die lauen GPU Aufgüsse von +20% schon seit Jahren ein Graus.