Test CrossFire & SLI: Früher meist schnell, heute meist schlecht

Henne-Ei-Problem. Müssen wir erst alle mGPUs im Rechner haben, um dann auf reddit eine Unterstützung zu fordern oder müssen (zumindest 3xA-Spiele) diese erst unterstützen, um uns zum Kauf zu bringen?

Ich glaube, das Problem ist Struktur-bedingt. MGPU macht nur Sinn, wenn man 2 x die schnellste GPU im PC hat. 2 x 1060 im PC ist sinnlis, wenn es eine 1080Ti gibt. Erst 2 x 1080Ti mach wirklich Sinn.

Es haben nur die wenigsten eine Highend-GPU. Die, die man dann - wenn man es ansprechend zum Laufen bringt und entsprechend programmiert - zum Kauf einer 2. Highend-GPU bringen könnte wären dann ja NOCH weniger.

Daher letztlich verständlich, wenn man diese Funktion sterben lässt - auch wenn der Nerd im mir das sehr schade findet.
 
  • Gefällt mir
Reaktionen: Zitterrochen
Multi-GPU ist eigentlich schon ein, zwei Jahre ein wirklich totes Pferd. Nach diversen Multi-GPU-Systemen (2x 7800GTX, 2x GTX280, 2x GTX580) hatte ich schon nach der GTX580 keinen Bock mehr auf den ganzen Hick-Hack. Fehlende Profile, zu laut, zu warm - Mikroruckler habe ich nie wargenommen - zusammen mit den ganzen Treibermacken im Bezug auf Kantenglättung hat mir das die Lust darauf schon vor Jahren genommen.
 
Ich habe sehr lange SLI genutzt. Von der gtx 280 SLI - gtx 480 SLI - gtx 680 SLI - gtx 780ti SLI - Titan X (maxwell) SLI
Das letztere war dann richtung ende ein richtiger Krampf und ich hatte sehr mit micro Rucklern zu kämpfen.
Aktuell bin ich mit ner 1080ti echt happy. Keine micro Ruckler usw.
Ich denke SLI/CF ist so gut wie tot.
Verstehe auch nicht warum in fast allen High End Fertig PCs SLI bzw CF verbaut wird...
 
Ich glaub viele verwechseln miniruckler mit mircoruckler, den letzteres hatte ich den letzten 5 Jahren nicht mehr gehabt außer wenn die FPS unter 20FPS gefallen sind.


Das SLI oder Crossfire in fast allen OEM PCs verbaut werden wäre mir neu.
 
Jedesmal wenn ich aufrüste, sag ich mir, nie wieder SLI aber dann ist der Reiz der 2 Grafikkarten meist doch zu groß. 😂
Kann aber bestätigen, das SLI früher mal besser war, es gibt kaum ein Spiel wo man nicht die Auswirkungen des Multi-GPUs Gespann merkt, im negativen sowie auch im positiven.
Leider hängen die GPUs völlig hinterher wenn man bedenkt das es 1440p 144Hz oder sogar 4K 144Hz Monitore gibt, klar kann man die Settings runterschrauben aber ich z.B. brauch meine Ultra Settings. 🙈
 
Wer eine SLI-HB- anstatt einer normalen SLI-Bridge verwendet, erhält weitere 20 Prozent an FPS und damit ein Plus von 43 Prozent gegenüber einer Einzelkarte.
Die HB-Bridge ist ja auch schon Pflicht, wenn man in UHD spielt. Ein Zuwachs von 43% ist zwar gut aber weit entfernt von perfekt.
Aber oftmals bekomme ich mit meinen Karten Zuwächse von über 75%. Das ist zwar dann nicht mehr so häufig der Fall, aber kann sich sehen lassen. Mikroruckler bemerke ich nicht. Zumindest nicht dann, wenn noch ein gewisses Minimum an FPS da ist, also so unter 30 FPS vielleicht. Darunter dann auch nur wenn man sich darauf konzentriert. Also mich stört es nicht.
Und SLI läuft doch eigentlich recht gut, selbst wenn das Profil nicht optimiert ist. Und solange Spiele in UHD mit einer Karte nicht vernünftig laufen, bin ich der Meinung nichts falsch gemacht zu haben.
Auch die zukünftige Generation von Karten wird bei vielen Spielen, besonders dann wenn sie neu und mit aktuellen Grafiken versehen sind, in vielen Fällen nicht rund laufen bei UHD mit einer Karte.
Komplett auf Kantenglättung kann man auch hier nicht verzichten. Und deswegen bin ich der Meinung, das SLI noch lange nicht tot ist, auch wenn das hier wieder mal viele behaupten werden.
Und ich denke nicht, das der Markt so verschwindend gering ist, als das Nvidia und AMD auf die zusätzlichen Verkäufe verzichten möchten. Und wohl auch nicht werden, sonst hätten sie kaum die SLI-HB-Bridge auf den Markt gebracht. Für 20% oder mehr, sollte diese auch finanziell niemanden vor ein Problem stellen können.
Wenn ich der Meinung bin, auch in Zukunft zwei Karten zu brauchen, werde ich die auch wieder kaufen.
 
den 1080TI sli test gab es doch schon.
warum den selben test ohne die 1080TI ?
 
Wie immer die selbe Antwort dazu. Einerseits kann sich das jeder "hochrechnen" und zum anderen hat AMD da nichts entgegen zu setzten. Deshalb also unnötig.
 
Also der Test ist zwar interessant, aber sinnlos da AMD CF überhaupt nicht mehr unterstützt(bzw die Treiber nicht mehr dafür anpasst) bei Vega, und so auch die Leistung unterirdisch ist...
 
GERminumus schrieb:
Erkennst du einen Unterschied zwischen 30 zu 60 fps?
Den selben Unterschied erkennst du zwischen 60 und 90 fps ( native Monitor hz Zahl vorausgesetzt)

Wer einmal mit 100fps+ unterwegs war, für den fühlen sich 60fps so an, wie für dich als 60fps Nutzer, 30fps anfühlen;)

Je nach Game und Engine merkt man selbst noch Unterschiede ob 120fps oder 90
Warhammer vermintide fühlt sich zb. Bei 120 fps deutlich besser / direkt als bei 90fps an.

Gibt aber auch Games die Ansich „ Ruckelig“ laufen ( miese Frame Times) da nutzen auch 3000fps nichts
Zu meist Betas oder kleinere Titel

Also ich kann auch mit 150fps Spielen und merke Null, vielleicht sind meine Augen einfach zu Langsam ^^
 
Hm, kein Call of Duty Titel, ist WW2 so schlecht spielbar/laufend mit SLI oder CF?

Ich kann mich noch erinnern, dass Black Ops 3 ein richtiger Vorzeige-Titel für Multi-GPU Setups bzgl. der Skalierung damals war.
 
Aslo schrieb:
Schade. Für die Technik muss mal eine Universallösung her, so dass keine Treiberprofile notwendig sind.

die es schon längt gibt aber durch faul- bequemlichkeit nicht wirklich umgesetzt wird. selbst ein AMD und NV combi ist damit möglich.... DX12 bzw dort dann unter Multi-GPU Explicit Multi-Adapter
DX12: Link news 2015
bzw Video von 2016
Somit schiebe ich das ma alles auf die Studios, die einfach keinen bedarf sehen das Thema anzugehen
 
Hylou schrieb:
Sollte nicht DX12 sowas können?
DX12 bietet die Möglichkeit, dass man einen entsprechenden CrossFire oder SLI-Modus in das Spiel implementieren kann, darum muss sich dann aber auch der Entwickler kümmern.

Moep89 schrieb:
Ziemlich erschreckend. An wem liegts jetzt? An den Treibern oder den Entwicklern der Spiele?
Es liegt an den Entwicklern, den Hardwareherstellern, aber auch an Microsoft und anderen Software unternehmen, die bei der Spezifizierung entsprechender Schnittstellen beteiligt sind, aber auch daran, dass die heutige Render-Pipeline äußert flexibel ist.

Zu Zeiten von 3dFX war SLI durchaus echt gut, was daran lag, dass Grafikkarte 1 und 2 gemeinsam in einem Zeilensprungverfahren am selben Bild gerechnet haben. Das Verfahren hatte damals auch kaum "Nachteile", da Geometriedaten auf der CPU berechnet wurden. 3dFX hatte für die späteren Rampage-Karten auch eine entsprechende Lösung parat - es hatte ein Grund warum Voodoo3, 4 und 5 kein Hardware T&L hatte: 1 Geometrie-Chip und weitere Chips zur Berechnung der grafischen Daten.

Da heute jedoch viele Effekte in der Engine auf eine Vielzahl von Daten zurückgreifen, gibt es heute eigentlich keine "klassische" Pipeline mehr bei der Berechnung, wodurch Alternativen zu dem Alternate-Frame-Rendering-Mode (Split, Tiled usw.) auf Treiberseite nicht wirklich funktionieren, da man für korrekte Berechnungen ggf. Werte aus einer benachbarten Zeile usw. braucht, die man selbst aber eventuell gar nicht berechnet hätte.

Hier mal eine Liste an so einigen Effekten, die ein "fertiges" Bild brauchen.
 
2x 660Ti war mir damals schon eine Lehre. Da gab es schon fast nichts, was darauf vernuenftig lief, wenn ueberhaupt. Kommt mir also gar nicht mehr ins Haus. Ich bleibe dann lieber auf einer geringeren Aufloesung.
 
nur ganz kurz als denkanstoß: ihr nutz 5 spiele, eines davon ist ein totaler ausreißer (nicht ff15) und ihr versucht trotzdem aus euren zahlen abzulesen, dass multi gpu systeme nix taugen^^

come on, ihr könnt das besser (hoffe ich)

alleine aus statistischen gründen würde ich mich schämen, solch einen artikel zu veröffentlichen, bei dem die vega64 crossfire daher so schlecht weg kommt, daß in einem von 5 titeln nur 1/3 der leistung (*edit* es sind 42%. was eure ehre aber auch nicht rettet) einer single gpu erzielt werden....aber schwamm drüber.

mfg
 
  • Gefällt mir
Reaktionen: easy-max
Ich hatte quasi alles irgendwann mal ausprobiert. Von voodoo 2 sli bis crossfire x mit 4 GPU..

Es war immer eher die Lust an der Freude und am basteln als tatsächlicher praktischer Nutzen. Selbst bei Nutzung eines Triple-Monitor-Setups kam ich locker mit ner einzelnen GPU aus.

Erst in jüngerer Zeit, seit ich mit der Vive regelmäßig ein VR-HMD benutze, wünschte ich mir tatsächlich eine Möglichkeit noch deutlich mehr Leistung haben zu können als meine 1080 TI mir gerade bietet.

Schade dass dies wohl in nächster Zeit nicht möglich sein wird...
 
in meinem retro system läuft immer noch eine firegl x1 ati (ein 9700chip) mit 2 voodoo und einem dual core ulv athlon64 x2....für sowas hätte ich vor 20 jahren "getötet"....spass beiseite.....sli(crossfire) ist turbo geil. auch gerne mit 4 karten. die software typen müssen nur mal ausm arsch kommen.

ich hatte schon vor 20jahren (*edit* evtl 19) ein celeron 2 chip board mit 533mhz und nem scsi controller. gott sei dank gibt es jetzt guten multi"kern" cpu support.

hoffen wir, bei multi gpu wird es auch so kommen....nie vergessen, 2x7terra rechenleistung bei 100 watt pro chip ist geiler als 14 terra bei 400 watt auf einem chip. wenn die software es denn kann....

mfg
 
Zuletzt bearbeitet:
Guter Test! Dann kann ich den Leuten jetzt was gegen MultiGPU an die Hand geben, damit die ihre Systeme ordentlich diskutieren wollen.
 
Deleo schrieb:
Ich sehe generell keinen Grund für mehr als 60 Stabile fps.
Woher kommt der Trend 100+ haben zu müssen ? Vor drei Jahren wurde man noch ausgelacht dafür weil es totaler Quatsch war ein Spiel auf 120 fps Laufen zu lassen ?

Schon vor >10 Jahren haben Eingeweihte Quake 3, UT, CS oder dergleichen auf 120Hz-fähigen Röhrenmonitoren mit 120+ fps gespielt.

Pure Existenz schrieb:
Wenn endlich mal mehr wert auf Software gelgt wird (wie früher), dann laufen die Spiele mit 30fps so flüssig wie heute mit 120Hz...

Nö. Ich ertrage nicht einmal Kinofilme/Serien mit absolut gleichmäßigen 24/25 fps, bei mir ist grundsätzlich die Zwischenbildberechnung auf Maximum. Die wenigen Artefakte sind absolut harmlos verglichen mit dem fürchterlichen Dauergeruckel.

Und schon bei Tomb Raider 1 war ich ziemlich sauer wegen des billigen 30fps-Locks.
 
  • Gefällt mir
Reaktionen: eax1990
Zurück
Oben