Test CrossFire & SLI: Früher meist schnell, heute meist schlecht

M.B.H. schrieb:
Ich verstehe die Ergebnisse nicht. Rein von der Hardware müsste ein SLI-System GENAU doppelt so schnell sein / doppelt so viele FPS liefern, und zwar bei jedem Spiel. Die Spiele haben ja garnichts damit zu tun und müssen es auch nicht wissen ob sli oder nihct.

Das war bei der Voodoo 2 so. Damals hat der Hauptprozessor die Geometrie berechnet, und beide GPUs haben unabhängig voneinander Bilder mit halber Auflösung berechnet, eine die geraden, die andere die ungeraden Zeilen. Hinterher wurden beide nur noch zusammengesetzt.

Später klappte das nicht mehr, weil die GPU auch die Geometriedaten berechnete, die für beide Bilder vollständig gebraucht werden. Für Pixelshader/Postprocessing gilt das gleiche: beide GPUs brauchen ständigen Zugriff auf alle bisher berechneten Daten, und zwar am besten ohne bremsende Kabelverbindung. In der Praxis dürfte das darauf hinauslaufen, dass die GPUs vieles doppelt berechnen, weil es noch langsamer wäre, den Datenberg über PCIe und/oder die Kabelbrücke zur anderen Karte zu schieben.

Im Prinzip war jede SLI-/CF-Variante nach der Voodoo 2 eine Mogelpackung.
 
Ich denke mit den nächsten Engine Updates (Unreal,Unity) wird eine native DX12 mGPU Komponente mitkommen, wir sehen ja aktuell wie sehr sich die Grafikperfomance steigert (unendlich geht auch hier nicht) und werden in ein Paar Jahren sicher auch wieder Grafikkarten mit mehreren GPUs auf einen Board sehen.
 
  • Gefällt mir
Reaktionen: Unnu
Ein interessantes Verhalten zeigt zudem Final Fantasy XV. Das Spiel unterstützt weder CrossFire noch Multi-GPU. Aus unerklärlichen Gründen läuft es auf Multi-GPU-Systemen, egal ob mit AMD oder Nvidia ausgestattet, aber trotzdem langsamer als mit einer einzelnen Grafikkarte.

Ist da ein Fehler im Satz? Wieso ist es unerklärlich, dass es schlecht läuft wenn es Multi-GPU nicht unterstützt?
Oder ist mit "Multi-GPU" DX12 mGPU gemeint und es geht darum, dass auch SLI schlecht läuft?
 
Das Thema mGPU ist ja auch gefühlt seit Monaten eingeschlafen gewesen. Kann mich noch gut daran erinnern, als man von beiden Herstellern regelmäßig damit zugebombt wurde. Als ich letzt stark am Überlegen war, mir eine zweite RX580 zu holen, fand ich keine halbwegs aktuellen Tests.
Aber ich mag es den Herstellern auch nicht wirklich verübeln, DirectX 12 und Vulkan sollten es nativ als API unterstützen - und da mangelt es an den Entwicklern bzw. dem Markt dafür. Warum auch für einen Bruchteil Ressourcen aufbringen?

Hier wird man vielleicht was sehen, wenn sich VR in größerem Maße durchsetzt und entsprechend auch Anforderungen aufkommen. In Baden-Württemberg gibt es momentan ein Forschungsprojekt für eine VR-Arbeitsumgebung auf Basis von Unity. Mit mehreren solchen Projekten könnte die Forderung nach mGPU Support steigen...

Bis dahin bin ich froh, doch auf eine Vega64 umgestiegen zu sein
 
Eigentlich bräuchte man heutzutage SLI und Crossfire ja viel dringender als früher.

Vor ein paar Jahren konnte man noch sagen:
"Warte einfach 1 Jahr, dann gibt es eine neue High-End-Karte, die so schnell ist, wie jetzt zwei aktuelle High-Ends im Verbund."
Da war es einfach reiner Luxus für ungeduldige "Besserverdiener", bzw. der Ehrgeiz, für ein paar Monate einen synthetischen Benchmarkrekord zu halten.

Das trifft in den letzten Jahren leider nicht mehr zu. Weit und breit keine neuen GPU-Generationen in Sicht und wenn doch mal was kommt, dann mit eher überschaubarem Leistungszwachs oder es werden gar nur ein paar "neue" Mittelklassemodelle eingeschoben.

Dabei gäbe es dank VR und >144Hz-4K-Monitoren jetzt mehr Bedarf an brutaler GPU-Leistung, als jemals zuvor. Da wird so manchem eine 1080Ti nicht mehr ausreichen und die "Holzhammer-Lösung" für reiche Enthusiasten, einfach 2-4 davon zusammenzuschalten funktioniert nicht mehr.

Wer hätte gedacht, dass die "PC-Masterrace" mal so ausgebremst wird? ;)
 
  • Gefällt mir
Reaktionen: Unnu, Chismon, cruse und 2 andere
Deleo schrieb:
Ich sehe generell keinen Grund für mehr als 60 Stabile fps.
Woher kommt der Trend 100+ haben zu müssen ? Vor drei Jahren wurde man noch ausgelacht dafür weil es totaler Quatsch war ein Spiel auf 120 fps Laufen zu lassen ?
Klärt mich mal bitte auch, das ist mein ernst.

Wenn etwas ein Trend ist, dann sind es die magischen 60 FPS. Das wurde von Konsolen übernommen und hat im PC-Bereich nichts verloren.
 
  • Gefällt mir
Reaktionen: cruse
Deleo schrieb:
Ich sehe generell keinen Grund für mehr als 60 Stabile fps.
Woher kommt der Trend 100+ haben zu müssen? ...
Einfach mal einen PC mit 144Hz Monitor und 120fps+ ausprobieren? Z.B. eine Rennsim. Wenn Dir beim Zurückwechseln auf die 60fps/60Hz Maschine nix auffällt, dann schreib zurück.
Edit: Oder direkt Termin beim Ophthalmologen. :freak:

Holzinternet schrieb:
...
Wobei die Vorstellung zwei Karten zu nutzen schon verlockend ist. Allein aus technischer Sicht...
David Braben (Elite Dangerous) sprach bereits 2014 (?) von der optimalen VR-Lösung ohne visuelle Kompromisse in 2x4K. Gut funktionierendes SLI/Crossfire wäre da schon irgendwo willkommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu und Aninu
Bei Elite ist es ja auch so sehr gut umgesetzt und eine wenn nicht die beste Umsetzung von seated VR im Weltraum. Die Story und das Ringsum steht allerdings auf nem anderen Blatt 😀

Ich denke das größte Problem wird das synchronisieren der Frames sein. Sieht man ja anhand der Frametimes. Und das in VR... hui hui hui... da brauchste nen richtig guten Magen 😅

Wer weiß was die nächste Zeit noch bringt ?

Gruß Holzinternet
 
Wie sieht das ganze bei DX12 aus? Könnte man hier mal Ashes of the Benchmark testen?
 
Iscaran schrieb:
Nein Das zeug ist nicht "tot" - es ist nur in die API gewandert und damit lebendiger als je zuvor.
Damit ist es inzwischen töter als tot. Die gesamte Liste besteht aus dem DX12/Vulcan Hype durch MS/AMD/NV der ja inzwischen auf dem Boden der Tatsachen aufgeschlagen ist. Das sind die Demotitel mit Sponsor. Ohne fett Kohle durch die Hersteller machen die DEVs überhaupt nichts in der Richtung. Selbst AAA wie Fortnite mit EPIC als Engineentwickler halten sich nicht mit solchem Käse auf. Es gilt Geld zu verdienen. Das macht man mit billigen Designern für Skins und nicht mit teuren Code-Monkeys für mGPU. Weck mich wenn ein Titel ohne rotes/grünes Logo am Anfang Unterstützung bringt die nicht vom Marketing eingekauft wurde.
 
  • Gefällt mir
Reaktionen: demonicron
Groß waren die Ankündigungen von Vulcan und DX12 wegen Multi GPU Unterstützung...

Ich hatte mal zwei RX280 drinnen... aber habs nach 2 Wochen zurück geschickt wegen den unbrauchbaren Mikrorucklern und mir stattdessen ne Titan X (Maxwell) gekauft.
 
RiP SLI (leider)
Ergänzung ()

xmarsx schrieb:
Vorteile bei VR?
Wie sieht es denn aus, wenn es nicht um ein vergrößertes Bild geht, sondern wie bei VR benötigt ein Bild für das linke Auge und eines für das richte Auge (sprich HTC Vive pro und Oculus Rift)?

Gibt nur eine Hand voll Titel die Sli unterstuetzen. Gerade in vR kann man es ganz vergessen
Ergänzung ()

Suito schrieb:
Ich denke mit den nächsten Engine Updates (Unreal,Unity) wird eine native DX12 mGPU Komponente mitkommen, wir sehen ja aktuell wie sehr sich die Grafikperfomance steigert (unendlich geht auch hier nicht) und werden in ein Paar Jahren sicher auch wieder Grafikkarten mit mehreren GPUs auf einen Board sehen.

Jepp das hat auch Nvidia schonmal irgendwo angekuendigt.
 
Deleo schrieb:
Ich sehe generell keinen Grund für mehr als 60 Stabile fps.
Woher kommt der Trend 100+ haben zu müssen ? Vor drei Jahren wurde man noch ausgelacht dafür weil es totaler Quatsch war ein Spiel auf 120 fps Laufen zu lassen ?
Klärt mich mal bitte auch, das ist mein ernst.

Damit TFTs mit 144 Hz oder mehr optimal angesprochen werden in Bezug auf lag und Reaktionszeit des panels.

Gerade wer mit einer motion blur reduction Technik spielt sollte versuchen möglichst hohe fps zu bekommen um die Mikroruckler (ja auch abseits von Multi GPU gibt es sowas) so gering als möglich zu halten.
 
Deleo schrieb:
Ich sehe generell keinen Grund für mehr als 60 Stabile fps.
Woher kommt der Trend 100+ haben zu müssen ? Vor drei Jahren wurde man noch ausgelacht dafür weil es totaler Quatsch war ein Spiel auf 120 fps Laufen zu lassen ?
Klärt mich mal bitte auch, das ist mein ernst.

In 5 Jahren sind wir bei 240Hz...
Die Leute glauben immer, dass sie alles sehen.
Dabei haben sie die Augen dauernd zu...

Erst wollen sie einen 120Hz+ Monitor, damit ja alles viel besser läuft.
Dann heißt es wieder, bei CS sieht man auch die fps, wenn man keine 120Hz. Hauptsache viel fps.
Dann kommt die Frame-Time-Fraktion...

Ignorier die Leute einfach. Ist wie mit Megapixel bei Kameras oder TV...
 
sofern 8+8 getestet wurde ist das wirklich sehr zum Nachteil von AMD. Das ist sicher keine Absicht und es gibt auch wenig Tests im Netz dazu aber wenn man sich anschaut was für nen Unterschied die HB Bridge bei Nvidia macht sollte man sich auch überlegen dass bei AMD diese Kommunikation über PCIe stattfindet.

Oft testet man nur Nvidia SLI hinsichtlich PCIe Speed Scaling und spart sich das bei AMD Karten, aber gerade da dürfte 16+16 wegen dem Umstand der PCIe Kommunikation entscheidend sein.
 
  • Gefällt mir
Reaktionen: derSafran und Unnu
jo schade, aber schon lange absehbar :(
 
borizb schrieb:
...
Beim Ryzen stört das keinen Menschen, wenn man zwar reichlich CPU Kerne hat,
die dann aber nicht in jeder Anwendung nutzen kann, aber trotzdem bezahlt hat.
Wenn ich jetzt 2 Grafikchips habe, und die kann ich nicht in jeder Anwendung
voll ausnutzen, wird hier schon eine virtuelle Beerdigung abgehalten. Hä?
...
Theoretisch ja, praktisch muss man die Rechnung die du erwähntest einfach nur machen und wird sehen, dass sie quasi regelmäßig gegen Multi-GPU spricht.
Schau dir die 4K-Ergebnisse an: Die guten, mühsam rausgepickten Titel skalieren mit 50-70%. Man zahlt von einer 1080 (~500€) 100% Aufpreis für 50-70% Mehrleistung in ausgewählten Titeln incl. Herumgefummel wie Abschalten für Spiele, in denen es schadet, zzgl. spürbar schlechtere Frametimes, zzgl. doppeltem Stromverbrauch und teurerem Netzteil, zzgl. meist schlechter = lauter Kühlung ohne Wasser.
Für 50% Aufpreis gibt es eine 1080 Ti (~750€) mit laut CB-Ranking 32% mehr Leistung, die ziemlich solide in quasi allen Spielen zur Verfügung stehen, saubere Frametimes haben und mit einem beliebig großen Kühler angenehm vor sich her arbeiten kann.

Klar, wenn man schon eine 1080 Ti hat und einfach noch mehr will/braucht, dann geht es ja quasi gar nicht anders (Titan vllt?). Aber unter einer 1080 Ti ist es die Nachteile einfach nicht wert. Bei einer 1070 Ti ist man schon bei sicheren knapp 40% bei 150€ Preisvorteil. Mit normaler 1070 ist die 1080 Ti immer noch ~50€ günstiger als SLI und liefer sichere ~60%

Mit Ryzen-Reserven (von denen ich an sich nicht so richtig überzeugt bin, da mMn ein schneller Intel fürs Gaming quasi die 1080 Ti ist und viele sich die Mehrleistung nur mit GPU-Limits o.Ä. wegreden) ist das schon etwas anderes. Die Preisunterschiede sind kaum vorhanden, das Bild in welchen Anwendungen man etwas davon hat, ist ein viel klareres, und der Nachteil ist halt nur die geringere Gaming-Leistung, ohne irgendeinen Rattenschwanz an weiteren Nachteilen.
 
Zuletzt bearbeitet:
Dem Bericht entnehme ich, dass SLI /CrossFireX auch erst seit sehr kurzer Zeit negativ bewertet wird.
Denn ich hatte in der Vergangenheit, und dies heißt bei mir, bis vor einem Jahr, mit allen Spielen, die SLI /CrossfireX unterstützt haben, nur sehr positive Erfahrungen gemacht.
Auch Microruckler habe ich nie feststellen können.
Mein letztes CrossFireX waren zwei AMD 290x-8G.

Dann bin ich von SLI /CrossfireX auf "eine" GTX1080ti (siehe Signatur) gewechselt.
Aus heutiger Sicht, eine gute Entscheidung.
Aber aus anderen Gründen, nämlich Hitzeentwicklung und Lautstärke.

Was die SLI-Brücke betrifft, kommt eine 08/15 Brücke gar nicht mehr in Betracht.
Da muss es nun eine HB-Brücke sein, will man seine Freude am SLI haben.

Quelle: NVidia
2018-07-30_1519.png
 
Suito schrieb:
Geht doch auch wunderbar, siehe Ashes of Singularity.

@Wolfgang
Kann CB nicht auch dort noch einen Test einfügen für DX12 ich würde gerne mal DX12 vs SLI vs CF sehen.

Als Bonus kann man das sicher mal testen, ja. Ist ja auch durchaus interessant.
Nur rettet in der aktuellen Form (bzw. wie es umgesetzt wird), DirectX 12 oder Vulkan halt kein Multi-GPU. Dafür schafft sich das wohl keiner an bzw. behällt es.

Audi 80 schrieb:
Sorry aber dieser Test hier ist mal total albern und klar das die CF / SLI Systeme so schlecht darstehen.
Warum testet man solche Systeme bitte auf einem System welches keine 2X 16 Landes bereit stellt, dann ist klar das man so imense einbrüche hat. Allein der Fall das die HB Bridge von Nvidia hier soeinen gewaltigen Vorteil bringt zeigt das schon, das CF auf dem System nur schlecht sein kann, da die überhaupt keine Brücke mehr verwenden und alles durch den PCI-E Port muss.
.
Naja, 99,5 (oder mehr) Prozent aller kompatiblen Multi-GPU-Systeme sind aber nunmal x8/x8. Und das sind auch die beliebteren CPUs, die eine entsprechende Anbindung haben. Natürlich ist das umso ärgerlicher für AMD, weil es eben alles über den PCIe-Bus muss. Aber das haben sie sich so ja auch ausgesucht. Zudem ändert das halt auch nichts daran, dass CF/SLI in den meisten neuen Spielen ohnehin nicht funktioniert.
 
Zurück
Oben