Test Multi-GPU in Spielen: Auch 2 × 16 PCIe-Lanes und NVLink retten SLI nicht

Das System das raucherdackel beschreibt wäre aber mal einen test wert... Klingt jetzt nicht ganz unlogisch.
 
  • Gefällt mir
Reaktionen: Dr. Chandra
BLACKDIAMONT schrieb:
Sobald ich Zeit dafür habe, mache ich das gerne :)

Ich hänge mal ein Screen vom letzten Shadow of the Tomb Raider Bench ran. Settings sind alles auf Max ohne AA auf 4k mit 3x 980Ti @1417mhz und 3930k@4ghz.
Anhang anzeigen 768533

Merci schon mal.
Du hängst aber massiv im CPU Limit laut dem Screenshot.
Hier wäre wirklich eine OCAT Aufnahme sehr interessant!
Hoffe du kannst diese bald machen.

Danke!
Vg
Ergänzung ()

Raucherdackel! schrieb:
Kurz und knapp: Nein, wurde nicht berücksichtigt. Weil Wolfgang entweder nicht richtig testen will oder er es einfach nicht besser weiß. SLI und Crossfire wird stets falsch konfiguriert getestet und dann wird munter drauf los geschimpft weil es ja so Kacke ist...

So konfiguriert man ein SLI/CF System:
  • Mainboard mit ganz vielen PCIe-Lanes
  • viel schnellem RAM
  • Grafikkarten mit massig VRAM
  • CPU so wählen, dass mit nachfolgendem Spiele-Settings nie ein CPU Limit anliegt
So konfiguriert man die Spiele:
  • nur eine Karte nutzen
  • sämtliche Kantenglättung ausschalten
  • die Grafiksettings so einstellen, dass das Spiel immer und überall absolut ruckelfrei läuft. Vergesst FPS Anzeigen, sauber laufen muss es! Manche Spiel laufen schon ab 35FPS sehr sauber (Crysis damals), manche brauchen mindestens 70 FPS.
  • CPU Limit stets vermeiden! Es darf nirgends ein CPU Limit vorhanden sein!
So nutzt man SLI/Crossfire:
  • zweite Karte rein bzw. aktivieren
  • Kantenglättung im Treiber aktivieren. Aber entweder 2x/4x Multi Sampling ohne temporale Komponente oder 2x Supersampling - je nachdem wie gut die Skalierung ist.
SLI/Crossfire ist eher schlecht geeignet, um Leistung zu steigern. Läufts mit einer Karte nicht richtig, läufts auch mit mehreren nicht gut. Aber zur Qualitätssteigerung des Bildes ist es hervorragend geeignet! Leider geht jeder Test hier auf Computerbase nur auf Leistungssteigerung ein.

Magst du mal eine OCAT Aufnahme von nem Bench dazu beisteuern?
Und/oder am Besten ein Video.
Hört sich sehr interessant an.

Hadere schon seit Jahren eine zweite Karte zu kaufen.

Wäre cool wenn du wie gesagt ein paar Frametimeverläufe und Videoaufnahmen bereitstellen könntest!

Merci!
 
Was soll denn aber eine OCAT Aufnahme am Ende wirklich bringen?
Das was er beschreibt, funktioniert so in der Praxis nicht... Entweder ein MGPU Gespann (egal ob SLI oder CF) skaliert wenigstens ansatzweise oder nicht. Wenn letzteres, was leider in der Form für die aller meisten Titel der Fall ist, vor allem abseits AAA, dann kann man da rumdrehen wie man lustig ist, es wird doch dran nichts ändern?

PS: ich verwende seit den Anfängen von Crossfire eben jene Setups und tätige das bis heute. Etwas, was nicht funktioniert lässt sich aber schwer beweisen, man kann eben idR nur benennen, dass es nicht geht. Wenn dann müsste der jenige, der meint dass es eben doch funktioniert das Gegenteil belegen ;)

Das größte Problem von MGPU Verfahren in der Praxis war schon immer, dass es eben abseits der paar Paradebeispiele wenig bis gar keinen Anklang fand. Gemessen am Ergebnis des Tests hier würde ich sogar sagen, dass SLI vergleichsweise gut skaliert -> aber in der Praxis gibts nicht mehr so viele andere aktuelle Titel, wo überhaupt eine Skalierung einsetzt.

@Esenel
Welche Titel würden dich denn interessieren?
Ich hab zwar nicht so sonderlich viele aktuelle Spiele, aber vllt ist ja eins dabei und ich kann entsprechend ne Messung beisteuern?
 
@fdsonne
OCAT würde mir zeigen ob Microruckler auftreten, oder nicht.
Eine Aufnahme mit MSI AB OSD wie gut die Auslastung und die Performance ist :-)

An sich alles an "neuen" Spielen.
Rise/Shadow of the Tomb Raider, BF V, Metro Exodus, Division 2, Assassins Creed Origin oder was du halt noch zu bieten hättest.

Merci schon mal.
Mich interessiert da jeder Beitrag :-)
 
Esenel schrieb:
Hadere schon seit Jahren eine zweite Karte zu kaufen.


Machs nicht..Hatte die idee auch ne Weile und war doch immer froh dem ganzen nicht nachgegeben zu haben.
Tests sprechen alle für sich..lass es dir, ich sag mal, nicht von 1-2 leuten schmackhaft machen.
 
  • Gefällt mir
Reaktionen: Dr. Chandra
Shadow of the Tomb Raider geht bei mir nicht. Das stürzt ab beim starten, wenn OCAT aktiv ist. Ein Gegentest mit Factorio hingegen funktioniert.
Bis auf Rise of the Tomb Raider hab ich leider nix anderes aus deiner Liste. Das könnte ich testen - skaliert auch ganz brauchbar mit SLI.

Ansonsten ja, Micrruckler hat es, mal mehr mal weniger stark bei Verwendung von AFR ja fast immer. Selten dass die Frametimes mal wirklich glatt sind, wenn man den Spaß nicht limitiert. Im CPU Limit sollen die Timings besser sein.
 
  • Gefällt mir
Reaktionen: Esenel
@Esenel
Also RotTR geht auch mit DX12 nicht - stürzt mit "ungenügend Ressourcen" ab. Scheint also ein DX12 Thema zu sein? Mit DX11 gehts. Dummerweise geht SotTR nicht im SLI mit DX11.
Bin grad am bauen von zwei Diagrammen zweier Messungen - mal gucken ob ich da was verwertbares rausbekomme. Muss grad schauen wie ich die Afterburner Werte da in die OCAT Werte zusammen gelegt bekomme. Leider scheint OCAT kein Datum/Uhrzeit zu speichern, sondern nur realitiv zum Startzeitpunkt. Das ist bisschen blöd bzgl. übereinander legen...
 
  • Gefällt mir
Reaktionen: Esenel
Danke schon mal.

Wennst mit Msi AB einfach ne Screenaufnahme nur machst und fix auf Youtube hochlädst?
Würde ja auch schon reichen.

Und die Werte von OCAT kannst easy mit CapframeX darstellen :-)

Also ich spiele Sottr und Rottr auf DX12. Komisch.

@W0lfenstein
Wie hat einer in der Kaufberatung mal geschrieben.
Es müssen zwei Grafikkarten rein.
Warum?
Wegen der Optik!
Aber wo er Recht hatte ;-)

Einfach mal schaun.
 
@Esenel
Das Spielen geht - das Aufnehmen geht nicht. Die Spieleexe crasht wenn OCAT aktiv ist. Wie bspw. der NVInspector auch crasht wenn OCAT aktiv ist. Keine Ahnung warum, will ich aber jetzt nicht troubleshooten...

Ich hab es jetzt in der Form:
export1.png

Das gleiche habe ich auch nochmal mit FHD und 4xSSAA anstatt UHD ohne AA durchgeführt. Die Leistung Last ist deutlich geringer.
Falls du da auch Interesse dran hast, mal ich dir auch dort das Diagramm.


EDIT:
Testszene war im Geothermalen Tal im Dorf, beginnend am Lagerfeuer (dort wo man ins Geothermale Tal rein kommt) -> durchs Dorf durch, dann am Dorfplatz links halten, nächste Abbiegung rechts, über die Holzkonstruktion balancieren, zur nächsten Holzkonstruktion springen, dann runter ins Wasser, paar Schritt links aufs User hoch, richtung Nebel sprinten und links um den Berg -> macht 60sec in Summe.
Video muss ich gucken ob ich das gecaptured bekomme. Kann man aber so denke ich gut ablaufen...

Die Szene ist extrem CPU lastig, wie man schön am GPU Load sieht ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Esenel
1stSlave schrieb:
und trotzdem gibt es Leute die sich an 160+ fps in BFV ergözen (2.5k mit 2x1080TI). anscheinend gibt es immer noch zu viele "ich hab mehr FPS als du" und "geld spielt keine rolle"

Gehörst du zu der Fraktion die nur Tomb Raider spielt und deshalb das ganze 60Hz+ Thema nicht versteht oder wie müssen wir das verstehen? In schnellen Spielen gibt es nämlich sehr wohl einen deutlichen Vorteil durch eine höhere Bildrate. Nur da du es nicht verstehst bzw. offensichtlich nie ein Spiel gespielt hast indem es Sinn machen würde, heißt das nicht, dass es keinen Nutzen hätte. In Tomb Raider würde ich vermutlich auch eher die bessere Optik den FPS vorziehen.

BFV spiele ich nicht, aber R6:Siege ist z.B. eines dieses Spiele indem es deutliche Vorteile durch eine höhere Bildrate gibt. Dort würde ich FPS immer der Optik vorziehen, deshalb, zwar nur mit einer 1080 Ti, stelle ich lieber ein paar Regler zurück um die 165Hz voll auszunutzen. SLI/CF würde ich aus offensichtlichen Gründen dennoch nicht nutzen.

Und nein, ich trage in der Stadt kein T-Shirt mit der Aufschrift „Ich habe mehr FPS als du“ ... Seit wann ist PC Gaming überhaupt zum Angeben geeignet? Ich kenne niemanden, der sich eine teure Grafikkarte etc. zum Angeben gekauft hat, das wäre auch absolut sinnfrei. Testbenches sind wieder etwas anderes, aber bis auf solche „Machbarkeitsstudien“ gibt es kaum noch jemanden, der SLI/CF nutzt.
 
@fdsonne
Merci :-)
Du kannst die Karten aber nicht voll auslasten in UHD?
Aber sie sind gleichmäßig ausgelastet.
Liegt es an DX11?
Oder welche CPU werkelt bei dir?

Der Frametime Graph sieht schon holprig aus, oder?
Wie wars zum spielen?

Die fhd Variante brauchst ned zeichnen, danke :-)
DX12 wäre halt no cool ;-)

Merci!
 
@Esenel
CPU war ein 5960X@4,5GHz Allcore auf Energieprofil Höchstleistung (Dauerhaft 4,5GHz)
Ausgelastet sind die beiden GPUs in UHD nicht. Zumindest nicht in der Szene, wie gesagt die Szene ist recht stark CPU lastig.
Die beiden TIs liefen ~1950MHz in der Szene, beide mit 16x PCIe 3.0. Da ich aber ein X99-E WS von Asus nutze hängen da noch PLX Brückenchips zwischen. Wird ggf. bisschen Leistung kosten. SLI Brücke ist ne EVGA LED. Also nicht die HB Bridge - soll aber gleiche Bandbreite bringen...


Ich bin halt persönlich bisschen ein schlechtes Beispiel zur Benennung von subjektivem Frametime-Empfinden, da ich MGPU seit >10 Jahren nutze. Man gewöhnt sich halt dran.
Das Spiel wird bisschen zäh, wenn die FPS unter 60 droppen, das merkt man. Aber ansonsten ist das gut (für meine Befinden) spielbar. Ich spiele aber auch an einem vergleichsweise Inputlag-lastigen TV.
Jemand der 144+Hz LowLag Gamermonitore gewöhnt ist, kommt mit meinem Setup wohl absolut überhaupt nich zurecht. -> für die Messungen ists ja egal ;)

Ansonsten, das FHD Diagramm ist übrigens interessant. FHD@4xSSAA = weniger FPS und weniger GPU Load. Hätte ich so nicht gedacht. Vor allem phasenweise richtig üble Frametimes. Das ist so der Gang durchs Dorf respektive knapp danach.
export2.png


@FCK-THIS
Mit SLI oder CF kommst du aber bei FPS wo es auf Reaktionszeit und Leistung ankommt, nicht wirklich ans Ziel. Das liegt einfach am Lag-geschuldeten Nachteil vom AFR Rendermodus.
Wenn du also deine FPS durch SLI/CF erzeugen würdest, hättest du bei gleicher FPS Rate einen prinzipbedingten Nachteilen gegenüber Spielern, die das mit einer SGPU spielen würden. Du hast einfach ein Frame mehr Lag. Bei 160 FPS sind das 6,25ms, die dir da fehlen. Dein Gegner sieht dich nach 6,25ms. Du ihn aber selbst unter 100% optimalen Bedingungen erst nach 12,5ms. Es bringt in dem Fall nichts ne zweite GPU zuzustecken um die FPS zu erhöhen. Dann lieber so wie du es schon selbst sagtest, Settings runter = mehr FPS.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Esenel
@fdsonne
Die HB bridge bringt schon was. Hat der8auer mal getestet.

Die Graphen sind heftig, ja :-D

Mein Verwendungszweck wäre halt dann 4k+ mit 144 fps +.
Das ist dann halt vielleicht nicht möglich.

Aktuell mit 1440p reicht eine 2080Ti locker.
 
Esenel schrieb:
Du hängst aber massiv im CPU Limit laut dem Screenshot.
Was ich so beobachte auf der Tastatur(AIDA64 Monitoring), ist eigentlich eher die GPU am Kotzen als die CPU die mit allen Threads ziemlich Schwankt. Im dritten Bench gehen alle Threads mal auf Anschlag, was ich ok finde weil die FPS ok sind. Klar könnte ich wieder auf 4,4ghz+ Takten aber bisher habe ich es nicht wirklich gebraucht ;)

Benches kommen im Laufe der Woche!!
 
  • Gefällt mir
Reaktionen: Esenel
Austrokraftwerk schrieb:
Multi GPU zum Gamen ist nicht mehr relevant.
Nachdem ich hier seit Jahren die Leute im Forum jammern höre, dass einzelne
GPUs zu teuer sind, stellt mir die Frage, warum der GPU- oder Spielehersteller
auch nur einen müden Cent auf Multi GPU Optimierung verwenden sollte ;)
 
@borizb
weil du genau 0 Ahnung hast ....
Multi GPU in einem MCM Package ist etwas woran AMD wie auch Nvidia arbeiten , das warum ist klar , nur dir sicherlich nicht ...
GPU Dies können nicht immer größer und größer werden , je größer der Die desto fehleranfälliger in der Herstellung = desto teurer

Da liegt es nah , zwei GPU Dies in einen MCM Package zu packen und diese über IF oder andere Interconnects miteinander zu verbinden , das Microruckler Problem lässt sich sicherlich in den Griff kriegen da nicht 2 PCIe Slots belegt werden sodern Package intern die Daten hin und her geschoben werden .

Es bleibt jedoch das Problem der 2 Herzen und das die Developer am besten selbst beim Game Design berücksichtigen müßten das quasi 2 GPUs vorhanden sind , nur selten tun sie das was man bei SLI oder Crossfire ja auch sieht , man könnte es , es gab durchaus einige Titel die echt gut mit Crossfire oder SLI liefen , jedoch war das eher die Ausnahme .

Ständig über den Treiber etwas ausgleichen zu müssen was die Game Developer verbockt haben ist nicht berauschend für AMD oder NV , jedoch wird etwas wie eine Chiplet GPU kommen , zwangsläufig ...
https://www.golem.de/news/multi-chip-module-nvidia-arbeitet-an-mcm-basierter-grafik-1707-128732.html
https://www.hardwareluxx.de/index.p...z-fuer-navi-alles-andere-als-trivial-ist.html

https://www.techpowerup.com/245521/on-the-coming-chiplet-revolution-and-amds-mcm-promise
 
Zuletzt bearbeitet:
MK one schrieb:
GPU Dies können nicht immer größer und größer werden , je größer der Die desto fehleranfälliger in der Herstellung = desto teurer

Da liegt es nah , zwei GPU Dies in einen MCM Package zu packen und diese über IF oder andere Interconnects miteinander zu verbinden , das Microruckler Problem lässt sich sicherlich in den Griff kriegen da nicht 2 PCIe Slots belegt werden sodern Package intern die Daten hin und her geschoben werden .

Ungeachtet der technischen Umsetzbarkeit, die ich durchaus als machbar ansehe - da einfach nichts gegen spricht wenn man den notwendigen Aufwand betreibt.
Das Problem was ich dabei sehe ist viel eher, wenn irgendwann der Punkt erreicht ist, dass ein Shrink in der Fertigung nichts mehr bringt oder so viel teurer ist, dass es nicht mehr lohnt, dann hat der Endkunde ein massives Problem ganz anderer Natur. Stackbare DIEs und/oder Skalierung in die Breite über MCM heist schlicht und ergreifend mehr Verbrauch und damit gesteigerte Anforderung an die Kühllösung.
Ne simple Verdopplung von aktuell 300W auf 600W (wer mal Fermi SLI unter Volllast hatte, weis denke ich was ich meine) ist alles andere als wünschenswert. Das lässt sich dann auch nicht mehr mit 3, 4 oder sonst wie vielen Slot-Kühlern kompensieren. Oder mit ner WaKü - die Hitze muss irgendwo hin -> und geht früher oder später in den Raum, wo der PC steht. 600W Heizleistung ist scheiße viel, 900W wird schon im Sommer richtig eklig.

MCM und/oder Stack-DIEs bringen demnach auch nur kurzfristig einen Fortschritt, bis eben der Verbrauch/die Temperaturen deckeln.
Und Kosten würde es wohl auch nicht sparen - vllt wenn man es sich schön redet zwischen unmöglich nativ diese DIE Size zu fertigen vs. der Mehraufwand das als MCM zu fabrizieren. Teuer für den Anwender, da kann man von ausgehen, wirds eh. Weil quasi alles im Preis steigt, was Halbleiter angeht. Waferflache kostet mit MCM auch nicht weniger.
 
Warum wurde bei 2 TitanRTX eigentlich nicht mal DSR anständig mitgetestet?

Das ist schon ziemlich genial und ich möchte wetten, dass SLI damit sehr viel besser skaliert als bei Auflösungen die selbst eine nicht Karte nicht mal interessieren.

So FC5 in 16k? Why not? :o
 
16k laufen selbst auf 2 T-REX nicht flüssig. 8k hingegen durchaus ;).
 
Ist und bleibt nur Geldverschwendung. Eine einzelne High-End Karte hat schon immer am besten funktioniert.
 
Zurück
Oben