Test CrossFire & SLI: Früher meist schnell, heute meist schlecht

Danke für das Update. Hatte einmal ein SLI Setup. Nie wieder. Ist echt grausig was die Mikroruckler angeht.
 
Hatte nie SLI oder CF, jetzt wo man sichs leisten könnte ist es natürlich schon ausgestorben :daumen: - als ich 2 Rechner zusammen gestellt hatte war natürlich kurz mal die Überlegung beide 1080er reinzuklatschen und das mal kurz anzuschauen, aber der Gedanke verschwand so schnell wie die GPUs in ihren zugehörigen Rechnern ^^.

JMP $FCE2 schrieb:
Schon vor >10 Jahren haben Eingeweihte Quake 3, UT, CS oder dergleichen auf 120Hz-fähigen Röhrenmonitoren mit 120+ fps gespielt.



Nö. Ich ertrage nicht einmal Kinofilme/Serien mit absolut gleichmäßigen 24/25 fps, bei mir ist grundsätzlich die Zwischenbildberechnung auf Maximum. ...

So siehts bei mir auch aus, Zwischenbildberechnung auf Anschlag, ansonsten no Go - 48 FPS "Der Hobbit" war mal eine Begeisterung im Kino.
 
Warum nicht mit einer 1080ti? SLI mit einem Mittelklassekarte macht eh keinen Sinn!

greetz
hroessler
 
SLI:
7900GT - 8800GTX
CF:
4870 - 5870

Danach kam dann die 7970 und dann die GTX 1080. Bei der 7970 hatte ich kurzzeitig noch eine 2 Karte im Rechner (2 Matrix Platinum sahen schon geil aus) aber der Lärm, die Hitze und die zunehmenden Inkompatibilitäten waren dann der ausschlaggebende Punkt die 2. 7970 wieder zu verkaufen.
 
Ich habe damals, als NVidia die Technik bei der 6000er Serie wieder aufgegriffen hat, das ganze mit Spannung verfolgt. Habe noch die PCGamesHardware Zeitung von 2004, wo das ganze ausführlich erklärt wurde.
Schade, dass das ganze nie so seinen richtigen Start hinbekommen hat, weder bei NV noch bei ATI/AMD. Gleiches gilt für die allgemeine dynamische Zusammenarbeit von Grafikkarten mittels DX12.
 
ich fühle mich stark in die zeit zurück versetzt, als ein pentium D auf den markt kam und niemand es "leiden" konnte....

multi gpu systeme sind die zukunft, wir werden abwarten wie sie umgesetzt werden (wie z.b beim ryzen) und wie sie von der software unterstützt werden. aber über kurz oder lang wird dies für gpus die zukunft sein (sagt meine glasskugel)

als denkanstoß: kein mensch würde ein handy mit einem schnellem kern kaufen :D

mfg
 
  • Gefällt mir
Reaktionen: Unnu
Ich verstehe den Test mit FFXV nicht.
Gehe ich recht davon aus das FFXV hier im Performance Rating mit einbezogen wird? 43% mehr in SLI HB ist anders nicht zu erklären wenn die 3 anderen Bench 53 - 68% mehr zeigen.
Darf ich fragen warum das so gemacht wurde?

Ich frage weil:

Ein interessantes Verhalten zeigt zudem Final Fantasy XV. Das Spiel unterstützt weder CrossFire noch Multi-GPU. Aus unerklärlichen Gründen läuft es auf Multi-GPU-Systemen, egal ob mit AMD oder Nvidia ausgestattet, aber trotzdem langsamer als mit einer einzelnen Grafikkarte.

Wieso wird ein Spiel das kein mGPU unterstützt für einen mGPU Test verwendet und dann auch noch im Performance Rating einbezogen?
Auch ist nicht ersichtlich wie mGPU abgeschalten wurde. Z.b. wurde für SLI einfach das existierende Profil verwendet oder wurde SLI per Treiber komplett abgeschalten?
FFXV verwendet das 0x00000004 bit. Wurde der Test mit 0x00000000 bit wiederholt?
Ich Frage weil hier ein Treiber-Fehler vorliegen kann. Der 0x00000004 bit ist bei vielen Spielen die kein SLI haben eingetragen und schaltet SLI ab, das ist mir klar aber dennoch hinterlegt Nvidia hier einen bit und spielt wohl im Treiber rum. Der 0er bit schaltet SLI ebenfalls ab und afaik sind dann keine Settings verändert. Das wäre eine Analyse wert wenn man schon so einen Test macht.

Desweiteren finde ich wird das eigentlich Problem, gerade für SLI, zu kurz angegangen: Support.
Von 10 AAA-Spielen die Heute erscheinen werden 7 bis 8 vermutlich kein SLI-Profil erhalten bzw. wird Nvidia den 4er bit eintragen um wohl Bugs zu vermeiden.
Das ist der Grund warum SLI sich heute nicht mehr lohnt. Wenn SLI funktioniert dann skaliert es wie zu sehen ist zwischen 50 und 70% was okay ist (mit der besseren Brücke).
Kann man das Empfehlen? Nein, zumindest nicht für normal Verbraucher.
Natürlich ist das Preisleistungsverhältnis für den Arsch aber für Enthusiasten mag das immer noch eine Option sein wenn Geld keine große Spielt.
Das Problem ist und bleibt der derzeit und sehr wahrscheinlich auch zukünftige mangelnde Support.

Ich möchte euer Fazit also nicht Frage stellen, im Gegenteil ich stimme euch zu aber der FFXV Test macht für mich keinen Sinn und verfälscht das Performance Rating.
Des weiteren sollte man vor allem anderen wegen der Support-Lage davon abraten und nicht wegen der Leistung bzw. Preisleistung
Denn selbst zu besten Zeiten skalierten die meisten Spiele nur bei um die 70%. Aber damals eben auch die meisten (oder viele) Spiele.
Die 100% die ich hier gelesen habe halte ich mal für ein Märchen. Gab einige Ausnahmen mit 95% bis 98% aber die kannst vermutlich an einer Hand abzählen gemessen an dem was an Spielen erschienen ist.

Ich betreibe übrigens ein 1080 Ti SLI. Welches nicht mein erstes mGPU-System ist, ich bin quasi seit Voodoo dabei. Will sagen ich hab sei meine Erfahrungen mit mGPU und insbesondere SLI gemacht.
Von meinen derzeit 20 Spielen die ich installiert habe unterstützen nur 4 SLI von Haus aus und eines davon so fehlerhaft das ich selbst es deaktiviert habe (Armored Warfare) da kein Bit verfügbar ist welches SLI auch nur ansatzweise fehlerfrei erlauben würde.
Bei 4 weiteren habe ich selbst bits eingetragen da Nvidia niemals auf die Idee gekommen ist irgendwas zu tun.
Wer derzeit SLI verwendet hat quasi immer das gleiche Problem: Entweder kommt das bit wenn man das Spiel schon lange durch hat oder gar nicht bzw. bei langlebigen Online Spielen kann es auch sein das ein funktionierendes bit nach einem Update plötzlich Fehler verursacht und Nvidia es ignoriert, weil das Spiel für sie nicht mehr aktuell genug ist um irgendeinen Aufwand zu betreiben (WoWS, Armored Warfare).
Ein bit das Funktioniert, gut skaliert und bei Release verfügbar ist? Aktuell eine Seltenheit.

Werde mir kein SLI mehr anschaffen sofern sich die Lage nicht gravierend ändert.
Und ja ich überlege hin und wieder meine zweite 1080 Ti zu verkaufen.
 
  • Gefällt mir
Reaktionen: Iscaran und easy-max
Bißchen anderes Thema aber ein test zum auslagern der phsxy Effekte auf eine zweite nv Karte wäre auch ma interssant :D
 
Physx auf zweiter Karte war zur selben Zeit aktuell wie SLI, ich glaube kaum, dass das noch was bringt. Wahrscheinlich noch weniger als SLI mittlerweile.
 
nivida sind die größten faker...meist hilft es dem treiber vorzugaukeln, es wäre ein sli fähiges spiel (früher ging einfach die .exe umbenennen) aber mit dem gamework mist, sollte das ja jetzt auch kein größeres problem sein...

bei 50-70% sli gewinn sind wir im normalen bereich, was du als unzureichend ansiehst ist das, was man erwarten kann. und ganz ehrlich, mit sli 1080ti hast du echt spass an deinem hobby. da darf man dann auch nicht mehr so rational argumentieren wie du es hier versuchst

ich sag ja auch nicht mein lambo muss fliegen können, zu dem preis. es bleibt ein auto :D

*edit* und nur damit wir uns richtig verstehen: ich mag die 1080ti käufer. so war ich auch mal, die sorgen dafür das meine hardware in 2jahren das kostet, was ich mitlerweile bezahlen will, da dies nicht mehr mein primäres "hobby" ist. und in 5-10 jahren dreht sich das rad weiter mit gtxsdrölf und viele von euch haben dann auch andere "hobbys"

mfg
 
Zuletzt bearbeitet:
Die Ergebnisse dieses Tests kann ich nahezu kaum glauben, dass sowohl Nvidia als auch AMD ihre einstigen Prestigeträger SLI und Crossfire in nur 3 Jahren so dermassen haben verkommen lassen, dass die meisten Spiele gar nicht mehr damit funktionieren und wenn dann nur noch 50% Mehrleistung im Bestfall liefern.

Anfang der 2010'er Jahre wurden von beiden Firmen noch Millionen in die Multi GPU Entwicklung gesteckt und die absoluten High End Karten waren immer Multi GPU Lösungen.
Noch dazu hat zumindest Nvidia SLI in allen AAA Spielen mindestens 80% Mehrleistung gebracht, in Titeln mit Cryengine und Frostbite Engine waren es sogar 90-95% Mehrleistung.

Nutzte Nvidia SLI bisher immer mit 2 GPU's:
Von 2008 bis 2011 hatte ich eine Nvidia 9800GX2
Von 2011 bis 2015 nutzte ich zwei Nvidia GTX 480.

War von der Nvidia SLI Technik eigentlich immer sehr begeistert gewesen, nahezu jedes Spiel wurde damals unterstützt bis auf Indi Games.
In allen meinen Spielen hatte ich eine sehr hohe Performance Steigerung von 80-90% und auch die berüchtigten Microruckler traten erst ab Frameraten von unter 40 FPS auf, wo man es spürte.
Der Aufwand mit der Verwaltung und dem einstellen der einzelnen SLI Profile blieb überschaubar, viele Einstellungen konnte man mit dem Nvidia Inspector global für alle Spiele übernehmen und nur bei wenigen Spielen mußte ich nochmal extra Hand anlegen und etwas anpassen.

Nur aufgrund der überragenden SLI Leistung konnte ich wirklich alles aus den beiden GTX 480 Grafikkarten rausholen und so 4 Jahre lang jedes High End Game auf max. Settings flüssig spielen in 1080P.
Selbst in 2560x1600 Auflösung lief auf Max Settings noch alles flüssig, aufgrund von VRAM Mangel musste ich dann aber leider auf Anti Aliasing verzichten.
Hätte ich nur eine GTX 480 gehabt, dann wäre diese schon bei Release zu lahm für High End Titel wie Crysis 1-2 und Battlefield 3 gewesen und wäre niemals 4 Jahre sehr gut nutzbar geblieben.

Da in DX 12 die Multi GPU Technik massiv verbessert wurde,da dort wirklich beide Grafikkarten syncron das gleiche Bild rendern und auch der VRAM verdoppelt wird, weil nicht mehr in beiden Grafikkarten die selben Daten liegen müssen, hatte ich große Hoffnungen das Windows 10 mit DX12 der Multi GPU Technik einen zweiten Frühling beschert und das ganze sogar massentauglich wird über alle Leistungsklassen hinweg.

Traurig zu sehen, dass obwohl die technischen Grundbedingungen für Multi GPU mit DX12 so enorm verbessert wurden, die Grafikkartenhersteller und Spieleentwickler nichts daraus gemacht haben.
 
Zuletzt bearbeitet:
Haben die Hersteller nicht angekündigt, den Support für SLI/Crossfire einzustellen?
MMn ist es nicht sinnvoll, ein abgekündigtes Features zu testen.
 
btw.....testet doch bitte was mit irgend einer cry engine und bitte auch noch mal mit der unreal engine...

spätestens bei kingdom "trallala" hätte euch doch auf fallen müssen, dass euer setup der games mist ist.

die herren, ein bisschen mehr professionalität darf ich doch hier erwarten :)

wollte ich schreiben...come on...farcry5 ist doch nicht euer ernst, und selbst da sieht man, was multigpu engines können.....

mfg
 
  • Gefällt mir
Reaktionen: Iscaran
War nichtmal irgendwann early 2015 die Rede davon das Windows 10 die Power zweier Grafikkarten auch ohne SLI/CF Mechanismen kombinieren können wird ? Irgendwie habe ich da nie wieder was von gehört.
 
Suito schrieb:
@anexX das was du meinst ist mGPU support von DX12, und DX12 läuft nur unter Win10

Und hat man das schon in der Praxis umsetzen können ?
 
ich denke spätestens in 3-4 jahren werden wir richtig geile vr titel sehen, die mit dual karten super skalieren. eine für jedes auge.

aber wie gesagt, es immer noch zukunftsmusik und aktuell haben wir halt die 50-70% bei gut programierten titeln. quasi ein nischenprodukt. trotzdem ist mir der artikel von cb insgesamt einfach zu negativ.

*edit* ich muss noch was positives loswerden...euer hardwaresetup ist super. es geht ja immer um die frage, ob 2 kleine karten besser sind als eine "große "


mfg
 
Zuletzt bearbeitet:
DerVengeance schrieb:
Damit fällt auch endgültig das "Killerargument" PCIe Lanes für die Intel 2011 Plattform weg. Denn 40 Lanes braucht man ja nur bei SLI oder Crossfire.
völlig richtig, denn außer zockern (an die sich die highendplattformen auch primär richten) mit ihren SLI/CF-systemen braucht nieeeeemand jemals mehr als 16 PCIe-lanes von der CPU.

edit:
mal davon abgesehen dass man bei der aktuellen highendplattform von Intel, 2066, erst ab dem 7900X 44 lanes kriegt.
 
Zuletzt bearbeitet:
-Bo- schrieb:
Schade drum :evillol:


2x 290x
im SLI unf CF.

Dann bin ich auf eine RX 480 8GB umgestiegen, zurück möchte ich eigentlich bzw. brauch ich eher nicht mehr.
Weniger Strom, Hitze und Geräuschentwicklung.
Paar weniger FPS kann ich vertragen :p


Hoho.... 2x 290x "Die Hard" mode. Das Teil hast Du sicherlich in einer Kühlkammer aufgestellt. Bei aktuellen Temperaturen heizt sich meine Bude bereits beim Einschalten des Weckers auf. ;)
 
Zurück
Oben