Test CrossFire & SLI: Früher meist schnell, heute meist schlecht

Hatte auch zwei GeForce 470 Fermis im SLI-Betrieb, würd ich mir nicht mehr antun, aber damals wurde das auch gut unterstützt.

Einzig für VR würden 2 Gpus noch Sinn machen, aber da kommt irgendwie auch nix.
 
Schade, aber was soll man machen.
Hoffnungen, dass sich mit DX 12 sogar ne IGP mit ner GPU betreiben lassen, sind wohl dahin.
Hatte selbst mal 2 GTX 970 im SLI, lief auch ganz gut. War dennoch froh auf eine starke GPU gewechselt zu haben.

3D Vision wäre ein gutes Anwendungsgebiet (wie auch VR), aber das eine ist bereits so gut wie gestorben, das andere noch nicht richtig geboren
 
  • Gefällt mir
Reaktionen: Bairok
Bis zur R9 290 hatte ich auch immer wieder mal CF im Einsatz. Sobald die Treiber passend gemacht wurden, lief das auch bestens. Ich nahm das aber immer nur als Anlass, die Regler für Qualität hochzustellen, da mehr FPS eigentlich kaum zu erringen waren... Qualität schon.

Schade, das ihr mit dem toten SW:BF2 getestet habt und nicht mit BF1 - oder gibt es in letzterem keinen CF Support? Naja, 2x Vega64 sind auch immernoch mindestens 1.000€ Investition.

Und ja, für DX12 hiess es mal, das es genau diese Probleme nicht mehr geben sollte und dies im Idealfall sogar Kombinationen unter verschiedenen Grafikchips zuläßt.
 
  • Gefällt mir
Reaktionen: fox40phil
xmarsx schrieb:
Vorteile bei VR?
Wie sieht es denn aus, wenn es nicht um ein vergrößertes Bild geht, sondern wie bei VR benötigt ein Bild für das linke Auge und eines für das richte Auge (sprich HTC Vive pro und Oculus Rift)?
Weder die Vive noch die Rift können aktuell etwas mit Dual-GPUs anfangen.
Jedenfalls nicht so, dass man ihnen eine Karte pro Auge zuweisen kann.

Nvidia wie AMD haben zwar angekündigt so etwas zu bringen, aber das Ergebnis lässt noch auf sich warten:
https://www.vrheads.com/sites/vrhea...7/01/amd-multi-gpu-graph-01.jpg?itok=JsqKeAyl
 
Ansich sehr schade das SLI/CF so stiefmütterlich behandelt wurden. War aber vorauszusehen das es früher oder später eingestellt wird. Da die Nachteile ja doch überwiegen. Ich selber hatte 3 SLI Setups
9600 GT Goldensample 1024, lief damals an sich recht ordentlich, konnte in einigen Spielen mehr leistung rausholen als ein Kumpel der eine XFX 9800GTX+ 768 hatte, da wo der Karte der SPeicher ausging, ich noch ein bisschen Luft hatte.

GTX470 Goldensample 1280, war am anfang brauchbar, aber da die Karten totale Speicherkrüppel waren, wurde es mit ansteigender Vram auslastung nicht mehr brauchbar.

Dann mein letztes SLI Setup GTX670 4096 EVGA, das war mein bisher bestes SLI Setup, auch wenn viele spiele nicht optimal liefen war es aber brauchbar, da Leistung und Vram genug vorhanden war, jedoch der verbrauch etc für mich hinterher ein sehr großer Nachteil waren.

Die 2 670 4096 wurden dann kurzerhand durch eine Inno3D 770 4096 ersetzt, die auch ein gutes verhältnis zwischen Leistung und Vram hatte.

Aber ich selber würde einfach aus spass an der freude gerne nochmal ein aktuelles SLI setup ausprobieren. :)
 
  • Gefällt mir
Reaktionen: momobinks und oO_KIWI_Oo
Damals vor jahren wollte ich mal sli und auch crossfire probieren, aber das mit den microrucklern hatt mich immer abgehalten. Dann kam mir die idee das auch mit 2 1070ern probieren ,der Gedanke reizte mich arg. aber das microruckeln hielt mich weiterhin ab.
Bin echt froh das ich dieserm verlangen nicht nachgegeben habe :D

Btw, wenn das wirklich soooo mieß leuft wie in dem test hier frag ich mich echt wie da das zocken noch spass machen kann wenn ich so oft sli lese in allen varianten.
 
Xeelee schrieb:
Weder die Vive noch die Rift können aktuell etwas mit Dual-GPUs anfangen.
Jedenfalls nicht so, dass man ihnen eine Karte pro Auge zuweisen kann.

Bei VR dürfte das Timing und Min-FPS noch viel deutlicher spürbar sein als so schon. Selbst wenn je eine Grafikkarte pro Auge rendert, müssen auch die Bilder doch perfekt synchronisiert sein sonst wird einem doch übel.

Ich denke wenn es nicht irgendwann eine bessere Redermethode gibt die direkt im Chip ohne Software und Profile arbeitet wird das nichts mehr mit SLI/CF. Für mich würde das auch nur in Frage kommen, wenn ich im Durchschnitt immer 70% Mehrleistung haben ohne Microruckler und das in JEDEM Spiel. Mir bringen die Profile für AAA Spiele gar nichts ...
 
Ich verstehe die Ergebnisse nicht. Rein von der Hardware müsste ein SLI-System GENAU doppelt so schnell sein / doppelt so viele FPS liefern, und zwar bei jedem Spiel. Die Spiele haben ja garnichts damit zu tun und müssen es auch nicht wissen ob sli oder nihct. also: Weil halt doppelte Power vorhanden ist und das was zu berechnen ist auf 2 Einheiten verteilt wird, so wie es bei mehreren Kernen bei CPUs der Fall ist, dort verdoppelt es sich auch 1:1. Verstehe nicht wo die Probleme sind. Kann doch nicht so schwierig sein in 10 Jahren das hinzubekommen.
Ich wünsche mir ein konfigurierbares System, wo ich je nach Lust und Laune 1 bis 10 Grafikeinheiten in nen extra Tower reinstecken kann, je nachdem wieviel Power ich benötige.
 
DerVengeance schrieb:
Damit fällt auch endgültig das "Killerargument" PCIe Lanes für die Intel 2011 Plattform weg. Denn 40 Lanes braucht man ja nur bei SLI oder Crossfire.

Aber nur wenn man geistloser ich-will-nur-zocken-und-sonst-nichts-Gamer ist. :evillol:

Was früher SLI/CF war ist heute PCIe-NVMe-RAID. Plus 10GBase-T. Plus nativer USB 3.1 Gen2 Support. Plus Thunderbold 3. Das können heute zwar auch alle Z370 bzw X370/X470 MBs, aber eben nur in der Theorie. Will man all diese Techniken gleichzeitig nutzen, gibt es eben ein massives Bandbreitenproblem. Bzw das eine (M.2 NVMe SSD) schließt das andere (SATA-Anschlüsse) aus.

Mein letztes "gute" MB, das bei richtiger Einstellung tatsächlich alle damals verfügbaren Komponenten problemlos und mit voller Geschwindigkeit kompromisslos unterstützte was mein gutes altes P2B, mit dem damals auch wirklich alle 7 Steckplätze belegt werden konnten, ohne IRQ-Konflikte, bzw IRQ-Sharing zu verursachen. Aber damals wusste auch ein Enthusiast sofort was man unter IRQ 7 Adresse 220 im BIOS einzurichten hat. Heute überlässt man alles dem MB/UEFI und denkt es kann es besser.
 
  • Gefällt mir
Reaktionen: lord_mogul und Hatsune_Miku
Moep89 schrieb:
Ziemlich erschreckend. An wem liegts jetzt? An den Treibern oder den Entwicklern der Spiele?

Das mGPU schlicht ganz offiziell tot ist und überhaupt nur noch die Reste unterstützt werden. Seine Marketingfunktion als Balkenbeschaffer mit miesen Einschränkungen hat es auch eingebüßt.
Hylou schrieb:
Sollte nicht DX12 sowas können?
Low-Level hängt am Programmierer, kostet damit Zeit+Geld und ist somit erst recht tot. Für Minderheiten wird keine Tech in kauf genommen die von Anfang an implementiert werden muss sowie massive Einschränkungen in der Folge verursacht.
M.B.H. schrieb:
Verstehe nicht wo die Probleme sind. Kann doch nicht so schwierig sein in 10 Jahren das hinzubekommen.
Verwaltung der Daten plus totale Inkompatibilität zu bestimmten populären Technologien. Wenn du Daten von Frame X auf Grafikkarte Y eigentlich auf Z brauchst um A, B, C zu berechnen aber die Daten eigentlich von Shader 4092 verändert wurden und im L2 von Array 16 stecken...
...
Dann dauert das ewig und mit einer Karte wäre es am Ende gleich schneller. Nichts ist so unendlich teuer wie externe Chipkommunikation.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bairok, LingLing, Obvision und 3 andere
CastorTransport schrieb:
Und ja, für DX12 hiess es mal, das es genau diese Probleme nicht mehr geben sollte und dies im Idealfall sogar Kombinationen unter verschiedenen Grafikchips zuläßt.

Geht doch auch wunderbar, siehe Ashes of Singularity.

@Wolfgang
Kann CB nicht auch dort noch einen Test einfügen für DX12 ich würde gerne mal DX12 vs SLI vs CF sehen.
 
  • Gefällt mir
Reaktionen: KarlKarolinger
Es wird sich zeigen was Nvidia mit NV-Link anstellt und wie die höhere Bandbreite bei Microrucklern hilft.
 
Hylou schrieb:
Sollte nicht DX12 sowas können?
DX12 kann Explicit-Multi-Adapter. Vereinfacht ausgedrückt: Der Programmierer kann explizit für mehrere GPUs programmieren. Macht aber keiner. Da müsste man wohl Geld und Support locker machen, um das direkt in die Enginges zu integrieren. Ist dann übrigens auch kein SLI/CF, sondern die Karten stecken einfach so drin.

DerVengeance schrieb:
Damit fällt auch endgültig das "Killerargument" PCIe Lanes für die Intel 2011 Plattform weg. Denn 40 Lanes braucht man ja nur bei SLI oder Crossfire.
Die aktuelle heißt 2066. Und AMD hat auf TR4 sogar 64 und das wird (warum auch immer :rolleyes:) immer mal wieder als grandioser Vorteil beschrieen.

projectneo schrieb:
...
Ich denke wenn es nicht irgendwann eine bessere Redermethode gibt die direkt im Chip ohne Software und Profile arbeitet wird das nichts mehr mit SLI/CF. ...
Die Intel-GPUs sollen ja womöglich in Richtung Multi-Chip gehen. Wenn das stimmt, wird sich Intel ja vermutlich irgendwas in Richtung Skalierbarkeit einfallen lassen. Vielleicht wäre sowas dann auch über eine Karte hinaus skalierbar.
 
Zuletzt bearbeitet:
M.B.H. schrieb:
Rein von der Hardware müsste ein SLI-System GENAU doppelt so schnell sein / doppelt so viele FPS liefern, und zwar bei jedem Spiel. Die Spiele haben ja garnichts damit zu tun und müssen es auch nicht wissen ob sli oder nihct. also: Weil halt doppelte Power vorhanden ist und das was zu berechnen ist auf 2 Einheiten verteilt wird, so wie es bei mehreren Kernen bei CPUs der Fall ist, dort verdoppelt es sich auch 1:1.
Das Hauptproblem dürfte das Timing sein. Diese beiden GPU so aufeinander abzustimmen, dass gleichmäßig von beiden immer ein Bild berechnet wird.
Aber das jedes Bild unterschiedlich lange zur Berechnung braucht, ist das nicht so trivial.

Bei CPU-Berechnungen, die auf mehrere Kerne aufgeteilt werden, gibt es diese Abweichungen auch. Nur fällt es da nicht auf, weil es alles nicht sichtbar ist.
 
AoTs in DX12 kann multi-GPU:
Sogar als Kombo zwischen Fury und Titan

Sniper Elite offenbar auch:
http://www.pcgameshardware.de/Sniper-Elite-4-Spiel-56795/News/Multi-GPU-Modus-DirectX-12-1220948/

Gibt vielleicht doch einen Grund warum die Studios jetzt mehr auf DX12 umschwenken und dass damit AMD/nVidia den CF/SLI Support (für DX11 einstellen, denn unter DX12/Vulkan ist das "Problem" anders gelöst)

EDIT: Nachtrag, auch Vulkan kann dies mittlerweile, mittelfristig denke ich wird sich das viel eher durchsetzen als die Verbreitung über die Hersteller, wenn die API-Moden "gut funktionieren".
https://arstechnica.com/gadgets/201...compatibility-as-khronos-looks-to-the-future/
 
Zuletzt bearbeitet: (Post aufgeräumt, Vergessenen Link hinzugefügt)
  • Gefällt mir
Reaktionen: Ginmarr und lord_mogul
Hatte 2x 580 GTX im SLI und es war zu der Zeit einfach gut wobei es zum ende hin leider immer schlechter war.

Sofern die Leistung tatsächlich 70-80% plus wäre und es besser unterstützt würde würde ich es mir auch wieder antun.
 
sollte eigentlich der Support nicht bei den Grafikschnittstellen liegen? Also DX z.b.? War das nicht ursprünglich der Sinn der sich dahinter versteckte? Die Spieleentwickler müssen nicht auf Grafikkarten optimiert programmieren sondern auf die Schnittstelle. Die Idee hat sich aber ja scheinbar nicht durchgesetzt und sorgt jetzt dafür das CLI/CF quasi für die Tonne sind. Hätte sich die Idee durchgesetzt, würde DX das einfach handeln und es wäre egal ob 1,2,3 GPUs ...
 
  • Gefällt mir
Reaktionen: Iscaran
@projectneo
Was speziell für die CPU ein Problem werden kann.
Denn:
1. Muss sie nun doppelte Anzahl von Draw Cells erzeugen und an die GPUs senden.
Und sein wir doch ehrlich - das man das über Multithread Rendering macht ist in 2018 immer noch nicht Standard. Speziell weil das Arbeit der Spieleentwickler ist und die weder das Knowhow noch die Manpower dafür haben.

2. Bei Muli-GPU Renderings die Ergebnisse theoretisch in schnellerer Abfolge zurück zur CPU kommen.
Sieht man in meiner verlinkten Grafik ja sehr schön.
Im Fall einer GPU hat die CPU u.U. sogar gar nichts zu tun weil sie auf das Ergebnis der beiden GPUs warten muss.
Im zweiten Fall mit 2 GPUs dagegen hat sie diesen "Luxus" nicht. Da muss sie auch doppelt so schnell auf die Antworten reagieren.

Man hat also doppelte Last weil man je 2 Draw Cells erzeugen muss. Und gleichzeitig hat man in gleicher Zeit die doppelte zahl Frames zur Verfügung die es dann auch noch zusammen zu setzen gilt.

Am ende macht man es mit dem System vielleicht sogar nur schlimmer weil die CPU plötzlich nicht mehr hinterher kommt - ein Problem das es aktuell bei VR überhaupt nicht gibt.
 
Verdammt.
Es war klar dass es soweit kommt.
SLI hatte ein wirkliches Hoch mit der GTX 690 (lest euch mal den Test von CB durch, das Teil war RICHTIG gut), welche ich mir damals geholt hab, die zweite GPU da drinne hat nahezu immer 70-100% mehr Frames gebracht und die Microstutter waren quasi nicht vorhanden.
Das war die letzte gute multi-GPU Zeit.
Ich bin dann auf eine 980 gewechselt (Speicher von 2GB VRAM war langsam knapp geworden) und weil ich zu wenig Leistung hatte in 1440p (und es noch keine 980ti gab) hab ich mir noch eine zweite 980 geholt, SLI, wassergekühlt -> sollte gut Frames bringen!

Meh, schon hier hab ich gemerkt dass die SLI Profile nicht mehr sauber aktualisiert wurden. Viel weniger Leistungsplus gegenüber der 690 durch die zweite GPU, teils musste ich die zweite Karte abschalten :( .
Also später eine dicke 1080ti geholt, diese auf 2000/6000 hochgezogen und die beiden 980er verkauft.

Etwas schade ist es schon, allerdings bekomme ich mittlerweile die Leistung die ich will auch mit einer Karte, und es gibt weniger Abwärme und Stormverbrauch.
Zudem die 1080ti so teuer war wie die 690, DANKE NVIDIA ><
 
  • Gefällt mir
Reaktionen: cruse
Schade dass die Multi GPU Sache fallen gelassen wurde.

Hatte Gtx480, 670 und 780 Sli @ 3D Vision Surround.

Wäre mit Single Gpu nie machbar gewesen. Skalierung damals in vielen Spielen 100%.

Hätte für VR gehofft dass sie dran bleiben. Jetzt muss man halt Single Gpus um knapp 1.000,- kaufen, damit halbwegs Leistung rumkommt. Für Enthusiasten sind die lauen GPU Aufgüsse von +20% schon seit Jahren ein Graus.
 
Zurück
Oben