Test CrossFire & SLI: Früher meist schnell, heute meist schlecht

@L
Falsche Testmethodik klingt zu hart. Aber man läuft in 4k schnell in irgendwelche Bandweitenlimits,
gerade wenn bei Vega in einem Game das DSBR nicht funzt. (Bsp. FinalFantasy Beta mit Rendern einer nicht
sichtbaren Kuh)
Vega hat ja viel weniger Speicherbandbreite als FuryX im Verhältnis zur Shaderleistung !
Da braucht man also dringend Einsparung per DSBR:
DSBR.jpg


Vllt. mal ganz interessant, wieviel bei Heaven tesselierter Kram ausgeblendet werden kann.
(sicherlich bei einigen GW-Geschichten extrem wichtig, die ja leider BLACKBOX sind)
Leider weiss man nicht, ob AMD das DSBR für alle Games einsetzt.(kann/funzt ?)
Am Anfang ging es auf jeden Fall nicht und wurde nach und nach bei einigen Games aktiviert.

Abschließend mein Rat:
Wenn man Cf/SLi nicht traut ist immer ein Kompromiss sinnvoll. Mit 1440p-Moni kann man auch mal ne Beta
oder W2 mit Single spielen.
Richtig Geld ausgeben und Spiel XYZ kaufen würde ich nur wenn die Patche draussen sind und Cf/SLi ordentlich funzt.
Leider sind die Dev´s teilweise gegen mGPU. Doom konnte SLI per OGL, aber W2 nicht.
Da wurden schlagartig die ganzen 1080SLi-Owner verarscht. Und dann gibt es im Forum dumme Kommentare von den Dev`s, das 4k-60fps mit ner Ti geht. Wer CF/SLi möchte will ja auch mal mehr als 60.
Zusätzlich wenn Papa, die Stromrechnung zahlt, kann man auch mal minen.
(oder als Grüner ne Solaranlage hat)
 
Als der "Trash Can" Mac Pro mit standardmäßig zwei Karten 2013 rauskam, dachte ich, demnächst erlebt die Technik ihren Durchbruch auch im PC-Bereich.
Mit den aufkommenden GPU-Computing-Anwendungen war das ein logischer Schritt.
Schade allerdings, dass Valve schon 2011 Multi-GPU-Informationen aus dem "Steam Hardware Survey" entfernt hat - angeblich, weil SLI so dominiert und AMD das nicht so gefallen hat. Sonst wüsste man heute besser, wie's mit der Verbreitung aussieht.
Aber die Äußerungen von AMD zu CrossFire beim Vega Launch klingen schon irgendwie so, als wäre das heute für sie nur noch eine Last.
Die Multi-GPU-Technik ist natürlich gerade dank der GPU-Computing-Anwendungen keinesfalls tot, mit NVLink & InfiniBand & besseren APIs hat sie im Gegenteil noch eine große Zukunft vor sich - beim Gaming allerdings: Schaun mer mal. ;)
Man müsste halt mehr über die Verbreitung wissen. Vielleicht kann ja CB mal eine Umfrage dazu starten.

Mich persönlich hat vom Kauf auch das Problem mit der Kühlung abgehalten: In den Foren wurde immer wieder empfohlen, entweder mit Wasser zu kühlen oder Karten mit DHE-Kühler zu verwenden. Beides wollte ich nicht.
Eventuell ist auch das einer der Gründe, die die Technik im privaten Umfeld unattraktiv gemacht haben.
 
Da gerade im High End berreich viel Marge ist verstehe ich eh nicht warum das nicht mehr supportet wird.. Gibt doch genug Gamer Rockability Kiddys die sich von den Eltern mal eben 3 Titan kaufen würden wenn es was bringt... oder nicht. ;D

Hab lange Dual GPU Systeme genutzt... und mit ein wenig arbeit kann man damit auch bisschen was machen... aber die Nachteile sind einfach zu enorm. Sobald die Games anfangen über DX12 das anständig zu unterstützen würde ich mir sofort wieder 2 GPUs einbauen.
 
Im Vorfeld einer neuen Graka -Gen. ist so ein Thema immer auf HOLD( *).
Bei Cf/SLi geht es daher momentan auch mehr um die vorh. Rechner.
Es gibt ne Menge SLi und auch noch viele GCN-Cf sowie Workstations, wo auch zwischendurch was geht.
Hinzu kommen diejenigen, die 2017 schon auf HDR+Vega-Cf umgestelllt haben.(für MEA etc.)
Da ist wie bereits gesagt oft DX11 am Besten nutzbar.

(*)Wie sich Gsync-HDR-Monis preislich im Midrange-Bereich(HDR600) entwickeln bleibt abzuwarten.
Evtl. kann Turing als Single im Paket mit Gsync-HDR überzeugen, dann wäre für Neueinsteiger eine Alternative da.
(mit weniger Limits)

Klarstellung: AMD hat sich nicht NEGATIV über Crossfire geäußert, sondern nur für DX12 die Bezeichnung Crossfire und das Logo inGame abgeschafft, bzw. gar nicht beibehalten, weil nicht zutreffend.
In den Treibern ist weiterhin volle Cf-Unterstützung für DX11 vorh. und wird gepflegt.
Bei DX12 ist mGPU ausschließlich eine Sache der Dev´s.
Wg. der Bandbreite macht Triple nur mit NV-Link etc. Sinn. Gibt es nur noch bei den Teslas + Profisoftware.
Bei Volta wurde zum Anfang auch gesagt, das der NV-Link nicht freigeschaltet ist - Stand ? .

Ansonsten ist Cf/Sli momentan halt was für Geniesser, die nicht jedes Spiel mitnehmen müssen sondern eher
nur Best Of. Da muss man halt wählen W2(ohne Cf/Sli) oder Destiny 2(mit HDR+CF/Sli).
Die Dev´s die nicht mitziehen sparen auf die Schnelle einige Entwicklungskosten und verlieren aber langfristig Kunden. - Jedem das Seine. -
UND
Wer sich von der 2. Vega trennen wollte, hatte ja alle Möglichkeiten während des Mining-Booms.
Das war garantiert kein Verlustgeschäft.

Schönes WE
 
@GerryB Selbst mit alles auf Minimum spielt sich das Game nicht gut. SMT habe ich bereits deaktiviert, wodurch ich die CPU userconfig nicht verwenden muss.


BF1 ist und bleibt unspielbar auf Vega CF: Check das hier, um mal einen Eindruck zu bekommen.

 
@df
Am Besten Du fragst im STEAM-Forum etc. . (habe das Game leider nicht)
Wiki empfiehlt: TAA will cause crossfire issues. Use FXAA or no AA.
Das kann auch bei anderen Games sein, weil TAA das vorherige mit dem jetzigen Bild vergleicht = mehr Traffic zw. beiden Grakas = Problem.
Danke für das Video, sitze leider hier auf A, wo der Admin yt sperrt, sorry.
Lt. GamGpu mit RX1600@DX11 keine Probs, aber leider nur FuryX(im 1. Bild 480x Cf supi)
https://gamegpu.com/action-/-fps-/-tps/battlefield-1-vo-imya-tsarya-test-gpu-cpu
BF1 Zar.gif

4k.gif


@L
Unterstützung von AMD: bei Gelegenheit mal im Wattman nachschauen = >>200 Profile


2x interessante Meldungen HEUTE:
Auf CB wurde die WX8200(aka RX56 für Workstation) vorgestellt mit ca. 975 HBM-Takt = mein Reden von Anfang an. HBM@Stock ist einfach zu wenig für gescheite Reviews.(und 4k+MSAA ist grenzwertig)
Und Spekulation zu NV (bei pcgh):
NVIDIA-RTX-Turing-Series-1000x139-pcgh.jpg

Da könnte u.U. eine Alternative zu HDR-Cf dabei sein. Gehe mal davon aus, das die Unterstützung von Raytracing auch gute HDR-Leistung bedeutet. Deswegen sagte ich bereits Diskussion auf HOLD.
Keiner wird derzeit High-End kaufen sondern Warten.


Back to Basic
Man könnte natürlich auch mal einen Blick zurückwerfen und schauen, was Vega so verbraucht,
im Vgl. zu 290X-Cf.
Letztens waren viele Reviews zu Crew 2, daher habe ich mal wieder Grid 2 gepielt:
Ultra + SoftAO-1440p-8xMSAA (da kämpft 290X-Cf mit 100 min fps = fps Limit bei mir)
mit moderatem GPU-Takt und HBM-OC = 2x 85W avg.:
g100fps-8xMSAA.gif

Da müsste man ne Single deutlich mehr stressen und wäre viel LAUTER .



Praktisch reicht bei meinem guten Moni aber auch 75fps-4xMSAA = 2x 50W avfg. für smooth:
min. Spannung 0,869V= min Takt(Bei 75fps nur 4x MSAA wg. dem HBM@Stock.)
g75fps-4xMSAA.gif

Das ist eigentlich schon HTPC-tauglich.

Die Lüfter und Temps sind so eingestellt, daß beim Rennstart kurz max. Lüfter 2200 bzw 2950 anliegt,
der dann schnell weiter runter fährt bei der geringen Last.
Der Verbrauch in GPU-Z ist ohne den HBM.
Die o.g. Bsp. sind eigentlich meine Linie = mehr UV statt grenzwertiges OC.(das bleibt h2o vorbehalten)

Zusätzlich noch mal mit max. Ausnutzung PT+50 (Bios 2 = 225W):
100fps-4xEQAA
g100fps-4xEQAA.gif

Das gleiche Setting verbrät mit Valley dann die vollen 225W.
Vermutlich werden bei Grid2 wg. der geringen Auslastung nicht benötigte Shader schlafen gelegt.
Daher ca. 1/3 weniger Verbrauch.

Schätze mal das Jeder mind.10..20 Games aus den letzten Jahren hat, die voll abgehen.
Da sind dann 10% Neuzukauf pro Jahr für Gelegenheitsspieler ausreichend und man
kann ja schauen, wo Cf/SLi funzt.
Damit ist aus meiner Sicht eigentlich Alles gesagt. Werde erstmal ne Gen auslassen und auf den Navi-Nachfolger warten. Natürlich kann man demnächst auch auf RTX wechseln, da hätte man aber im Frühjahr verkaufen müssen.
( RTX dann ähnlich Volta + 8-15% )
time-spy-titan-v-1.png
 
Zuletzt bearbeitet:
BF1 Single Player geht ganz gut, da muss man nicht viel optimieren, da haben sie drauf geachtet, damit man paar gute Charts produzieren kann. Diese Horror-Lags hat man im Multiplayer!
 
@df
Alternativ zu FXAA kann man auch SMAA per "Reshade2.03 mit SweetFX2.0" testen.(funzt bis DX11)
Vorher im game.exe -Verzeichnis die d3d und dxgi.dll kopieren unter .bak.
https://www.chip.de/downloads/-SweetFX-ReShade_89866787.html
z.Vgl. wieder bei Grid 2 mit 100fps:
g100fps-SMAA.gif


Ansonsten würde Ich an Deiner Stelle mal HT off bei der CPU testen in MP.
(im Bios deaktivieren ?) Du hast ja genug Kerne.
Mir persönlich wären 16 GB Ram etwas knapp, da kannst Du ja noch nicht die Auslagerungsdatei deaktivieren.
Der HBM-Takt sollte bei Dir mindestens 1080 sein, ab 1110 legt der Soc nochmal zu.
PCIe dürfte bei Dir u. U. auch etwas limitieren. Daher mal das fps -Limit etwas runternehmen.
 
Zuletzt bearbeitet:
NV-Link für Turing nur 79,- € = geht ja noch. (lt. guru3d)
So is SLI back? Well, SLI has never been gone. But it got limited towards two cards over the years, and driver optimization wise, things have not been optimal. If you have seen the leaked PCB shots, you will have noticed a new sort of SLI finger, that is actually an NVLINK interface, and it's hot stuff. In theory, you can combine two or more graphics cards, and the brilliance is that the GPUs can share and use each others memory, e.g direct memory access between cards. As to what extent this will work out for gaming, we'll have the learn just yet. Also, we cannot wait to hear what the NVLINK bridges are going to cost, of course. But if you look at the upper block-diagram, that a 100 GB/sec interface, which is huge in terms of interconnects. We can't compare it 1:1 like that, but SLI or SLI HB passed 1 or 2 GB/sec respectively. One PCIe Gen 3 single lane offer 1 Gb/s, that's 16 GB/sec or 32 GB/sec full duplex. So that one NVLINK between two cards is easily three times faster than a bi-directional PCIe Gen 3 x16 slot. NVIDIA will support 2-way NVLINK support on selected cards, The RTX 2070 lacks that option. The bridge to connect two cards is sold separately by Nvidia for € 79.
SLi.jpg
 
Mittlerweile kostet sie 84€ auf nvidia
( gestern morgen noch 40€ und vorgestern 50€ )
 
Bei der Einführung von Volta waren es noch 599,-. Von daher sind 84,- schon angemessen.
Man hat ja pro Leitung doch mehr Durchsatz als mit Riser.

@Häschen
Du hast ja ein feines Sys.
Wie sind eigentlich die Erfahrungen mit SLi, wenn TAA off ist in DX11?
(Hast Du die HB-Bridge ?)
 
Meine Erfahrungen bezüglich SLI sind eher positiv, SLI hat sich in den letzten Jahren nicht verschlechtert sondern verbessert.
Mit Fermi hatte ich oft game breaking bugs mit SLI, flickering, stuttering, artifacts usw, das mal als Beispiel.
Das ist seit Kepler aber nicht mehr der Fall und seitdem wurde SLI kontinuierlich verbessert.

Das spiele mies mit SLI Funktoniren oder gar kein Multi-GPU unterstützen gab es auch schon immer.

Spiele die keine Multi-GPU unterstützen sind eh meistens schlechte Konsolen Ports, die meide ich generell vor ab.
Vor allem Spiele die auf der UE4 engine basieren sind extrem CPU limitierend und nutzen meistens nur 4 Kerne.

Trotzdem finde ich es schade das in diesem Artikel nur spiele genommen wurden die schlecht mit SLI Funktoniren.
Man hätte auch zeigen können das SLI wirklich gut Funktoniren kann.

TAA nutze ich eigentlich nie weil glätten tut es meistens eh nichts.
Wenn möglich immer MSAA oder TXAA ansonsten DSR.

Nutze zurzeit die HB-Brücke, hatte Pascal aber auch noch nie mit einer "normalen" Brücke getestet.
Die HB Brücke lag ja bei meinem Mainboard dabei.

Mein Traum wäre natürlich das man keine SLI Profile mehr braucht und die GPUs nativ untereinander Daten austauschen können.
 
Zuletzt bearbeitet:
Mit welchen aktuellen Spielen läuft ein SLI Setup denn besser als mit den Titeln aus dem Artikel?
 
Project Cars 1&2
Call of duty ( egal welches )
Battlefield ( egal welches )
Crysis 123,
Shadow of Mordor,
Metro ( egal welches ),
Tomb raider
grand theft auto 5,
Wreckfest
watchdogs
trine
Saints row
max payne 3
Arma 3 ( single player 8k )
BioShock Infinite

usw.
Das sind die spiele die bei mir auf Anhieb bis zu 90% skalieren.
3dmark, heaven, valley skalieren sogar mehr als 90%

Glaub selbst cs:go läuft besser in SLI als die von CB getestet games
 
@Häschen
Danke für die Info, geht mir ähnlich, sprich früher mal mehr Zeit gehabt.
Daher reichen auch 1-2 neue Spiele pro Jahr. Ich kaufe eh erst ca. 1,5 Jahre nach Erscheinen, wenn alle
Patche und Treiber passen.(zum kleinen Preis - gebe lieber Geld für Hardware aus)

MEA+Destiny 2 finde ich wg. HDR nice. DEM+Prey wg. Beleuchtung.
Mit mehr Bums machen auch die alten Spiele auf nem ordentlichen Moni mehr Spass.
Gerade mit dem HDR-Moni ist Das echt ne Andere Sache als vorher mit 4k-SDR.
Es gibt auch genügend ältere Games, die tek9 in die Knie zwingen, daher muss man nicht nur nach vorne Schielen.
Unreifes UE4- Zeugs kommt mir nicht auf den Rechner.
Gerade bei pcgh ein Artikel zu PUBG über die Lags gelesen = grausam.
http://www.pcgameshardware.de/Playe...en-Netcode-Verbesserungen-und-Plaene-1263421/
Freue mich demnächst auf Prey-Nachfolger und FC5 Mars-Addon.

btw.
Der Vorteil der 20xx ggü- 10xx soll beim HDR liegen. (wie zu erwarten, wg. der geringen Pascal-Bandbreite ohne Farbkomprimierung)
Bei der neuen Kantenglättung muss man abwarten, in welchen Games.

Was interessant wäre, bei der Quadro wird per NV-Link quasi der Vram beim SLI addiert.
Ist zur Zeit nicht klar , ob es Das auch für Konsumer geben wird.
 
Zuletzt bearbeitet:
NVLink wird auf jeden Fall spannend. Wenn das so implementiert wird, dass der doppelte Speicher komplett nutzbar ist und das Gespann als eine einzige GPU wahrgenommen wird, dann ist das eine super Sache.
 
@HerrRossi

Die Frage ist doch ob es trotzdem zu Microrucklern kommt, wenn GPU A Bild 1 berechnet und dann GPU B Bild 2.
 
Ich hab genau die gegenteiligen Erfahrungen mit SLI gemacht (und ich habe SLI seit fast 10Jahren), ich werde jetzt endgültig auf Single GPU wechseln falls dann ne neue Titan kommt.
Die Frametimes mit SLI sind so grauenhaft das man mit 144Hz nicht zocken kann.

Singe GPU mit G-Sync besser kann ICH es gerade nicht haben, da ruckelt nichts.
 
Weil CB gerade vom Verzug der Monis berichtet und User im Forum auf TV wechseln wollen.
TV ist oft viel langsamer (Inputlag 20ms+), daher schlecht zu vergleichen.
Also wenn man mit 100fps spielt hat man 10ms Frametime.
Bei meinem Moni kommen dann noch 1-4ms dazu.
Dann spielt das Streamen der Engine noch eine Rolle.(DEM war anfangs eine Katastrophe)
Alle Multiplayer hängen extrem von der Responsezeit ab, bis der getroffene Gegner das auch mitkriegt.
(PUBG > 100ms wtf, so ein Crap)
Für mich als Gelegenheitsspieler sind daher AAA-Games mit gutem Singleplayer ein Must Have.
Nur da kann man mal ungebremst die tatsächliche Smoothness+Echtzeit geniessen.
Übrigens spiele ich meistens mit Freesync off und stattdessen low Inputlag - Mode beim Moni.
Mit fps -Limit wie angetackert = no Problem.
Von daher braucht man wahrscheinlich mit SLi auch nicht unbedingt Gsync.
Man sollte aber unbedingt zu jedem Game recherchieren wo es hakt.

DriveByFM : SLi/Cf ist halt nicht bei Allen Games gleich gut. Von daher verstehe ich Deinen Wechsel auf Single.
Und für Betas+MP ganz klar ein Vorteil. Bloß Titan Volta ist nicht soviel besser als RTX2080Ti.
(Ich finds nur für mich persönlich gut nochmal was drauflegen zu können durch Cf, wenn dann die Games ordentlich ausgepatched sind.)
 
Zuletzt bearbeitet:
Zurück
Oben