Test CrossFire & SLI: Früher meist schnell, heute meist schlecht

Aslo schrieb:
Schade. Für die Technik muss mal eine Universallösung her, so dass keine Treiberprofile notwendig sind.

ist überhaupt kein Problem, Vulkan skaliert zu 100% mit GPUs ohne SLI oder Crossfire

asynchrous compting yeeay
 
  • Gefällt mir
Reaktionen: Unnu und Vitec
In einen meiner alten Rechner sind noch zwei GTX 7800 im SLI Verbund, einmal und nie wieder, der Spaß hat mich über 1100€ gekostet und gebracht es es wenig bis nichts, zu viel Anpassungen muss man machen um es einigermaßen zum laufen zu bekommen, viele Spiele liefen im SLI schlechter als mit einer Karte....
 
Botcruscher schrieb:
...Die gesamte Liste besteht aus dem DX12/Vulcan Hype durch MS/AMD/NV der ja inzwischen auf dem Boden der Tatsachen aufgeschlagen ist. Das sind die Demotitel mit Sponsor. Ohne fett Kohle durch die Hersteller machen die DEVs überhaupt nichts in der Richtung. Selbst AAA wie Fortnite mit EPIC als Engineentwickler halten sich nicht mit solchem Käse auf.

Klasse - das ganze nicht verstanden aber rumbashen.
Allein das Fortnite ein DX11 Titel ist zeigt dass mGPU hier nicht gehen kann....dafür das CF/SLI dahingehend eingestellt werden weil es eine bessere Alternative gibt ist Fortnite daher da DX11 ONLY leider genau das falsche Beispiel.

Zumal man für die Comic-Grafik auch echt die Rohpower von mind. CF/SLI auch nur ansatzweise bräuchte, da ja 1x1080 TI @FHD im Software-Limit "idlet" (bei 150FPS). Hätte man natürlich auch nicht das Problem wenn man ordentliches Multi-Threading via Vulkan/ DX12 implementiert hätte...
Aber da dachte sich Epic wohl eher, Geld ist Geld, und mehr Geld ist mehr Geld, also sparen wir uns einfach alles. Die Rotzdummen Kunden kaufens ja eh.

Alle anderen Großen Engine Hersteller haben oder sind dabei ihre Engines auf DX12/Vulkan umzustellen und du kannst dir SICHER sein dass mGPU hier mehr und mehr kommen WIRD.

Allein schon weil sich auch bei GPUs so langsam Moores Law zeigt - der immer mind. doppelt so schnelle Pixelbeschleuninger der Nächsten Generation dauert immer länger zu realisieren.

Irgendwann in 10 Jahren wenn wir dann Echtzeit-Raytracing vielleicht schon haben, haben wir auch "multi-core" GPUs genauso wie wir jetzt schon massive Multi-Core CPUs haben.
 
  • Gefällt mir
Reaktionen: Unnu
Pure Existenz schrieb:
Die Leute glauben immer, dass sie alles sehen.

Und dann gibt es immer diese Leute, die stur behaupten, dass man sowieso gar nichts sehen kann, was über "X" hinaus geht, und alles nur Einbildung ist.

Keine Ahnung, woher solche absoluten Meinungen kommen. Vielleicht, weil manche es wirklich selbst nicht sehen können (schlechte Augen bzw. schlicht unempfindlicher) und deshalb meinen, dass das bei allen anderen Menschen auch so sein muss. Oder sie wollen einfach nicht zugeben, dass es auch noch etwas besseres geben könnte, als das, was sie sich selbst leisten können/wollen.
Oft ist es auch so, dass man erst dann versteht, dass es noch besser geht, wenn man es selbst erlebt hat.

Viele wollten auch nicht glauben, dass ein PC durch eine SSD merklich schneller wird. Was können denn schon ein paar Sekunden oder Sekundenbruchteile ab und an ausmachen?
Wer einmal an einem PC mit SSD gearbeitet hat und dann wieder auf eine HDD zurück musste, der weiß es besser.

Ich kann mich an Zeiten erinnern, da galt eine Animation mit 10 FPS als absolut flüssig. :lol:
Jetzt sollen 60 FPS auf einmal die "harte Grenze" sein, ab der alles perfekt ist? Oder 30 FPS, wenn man zufällig eine ältere Spielkonsole hat? :rolleyes:
HDR sieht man angeblich genausowenig wie UHD usw. Alles Einbildung...

Ich kann einfach nicht mehr zurück auf FullHD oder weniger weniger, selbst bei meinem 13"-Notebook. Genausowenig, wie ich auf SSDs verzichten könnte.

Aber was z.B. flimmernde Hintergrundbeleuchtung angeht, bin ich wiederum offenbar ziemlich unempfindlich. Ich hatte schon einige Displays mit frequenzmoduliertem Backlight mit realtiv niedrigen Frequenzen und habe glücklicherweise nichts davon bemerkt. Trotzdem würde ich nie anfangen, Leute, denen es anders geht, als Lügner/Spinner zu bezeichnen.
Die menschlichen Sinnesorgane sind genausowenig "genormt", wie das Gehirn, das die Signale verarbeitet. Es gibt keine harten Grenzen, ab denen "man" "keinen Unterschied sieht".
 
  • Gefällt mir
Reaktionen: Fresh-D, Unnu und Otsy
Theoretisch funktioniert dx12 mit mehreren Grafikkarten zusammen ohne das man Profile benötigt, bisher hat dies aber keiner umgesetzt weil alle Spiele die auf DX12 basieren kein natives DX12 nutzen sondern es mit Hilfe von DX11 emulieren.

Liegt unter anderem an der Faulheit der Spiele Entwickler und natürlich daran das die Spiele anschließend nur noch mit Modernen Grafikkarten funktionieren.

*zum test: Man hätte auch zeigen können das SLI wirklich gut Funktoniren kann aber man hat leider nur die spiele ausgewählt wo SLI nicht besonders gut abschneidet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran
Damit wäre diese immer mal wieder auftauchende Diskussion wohl endgültig und sehr deutlich vom Tisch.
 
Mmhh, scheint ich bin einer der letzten Donisaurier und Mitglied einer aussterbenden Rasse...ich für meinen Fall möchte mein SLI System nicht missen. SLI nutze ich seit vielen Jahren...und werde es wohl auch weiterhin. Es gab bisher genau ein Spiel das echte Probleme gemacht hat (What remains of Edith Finch) - bei allen anderen Spielen hatte ich entweder einen echten Vorteil (Far Cry 5) oder habe ihn mir zumindests heftigst eingebildet ;) (z.B. Assassins Creed Origins).

Und wie hier bereits mehrfach erwähnt wurde mag SLI oder CF über kurz oder lang tot sein - Multi-GPU ist es dank DX12 und Vulkan aber noch lange nicht. Die Technik entwickelt sich einfach nur immer weiter und das Kind bekommt einen neuen Namen.
 
  • Gefällt mir
Reaktionen: -Bo-
Meine beiden GTX 980 fliegen auch bald raus, SLI funktioniert bei mir bei fast gar nichts mehr. Und diese Fummelei mit dem NV Inspector bin ich auch satt, ein Patch und Zack, wieder läuft nichts.
Schade eigentlich, bei Witcher 3 hatte ich 100% Performancezusatz, jetzt scheint man auf SLI Support zu pfeifen.
 
neofelis schrieb:
Ist es aber anscheinend doch. Das Problem ist die Ausgabemethode AFR.
Das hier in einem Post schon erwähnte Uralt-SLI von 3dfx konnte noch 1:1 skalieren. T&L wurde damals aber auch noch von der CPU berechnet.
Einfach ausgedrückt: Die Grafikausgabe lässt sich heute nicht mehr pro Bild zeilen- oder rasterweise aufteilen, wie bei vielen anderen rasterbezogenen Berechnungen, die gut skalieren. Und AFR krankt daran, dass aufeinanderfolgende Bilder eben oft sehr unterschiedliche Leistung benötigen und es dadurch Timing-Probleme gibt.

Ein prinzipbedingtes Problem lässt sich selten bei Beibehaltung des Prinzips lösen. Bestenfalls ein Stückchen abmildern.
Ja, aber das hatte das Scanline Verfahren halt auch, weil nicht an jeder Position die gleiche
Menge an Pixeln zu berechnen ist. In Zeile 0 ist vielleicht nichts und in Zeile 1 ist vielleicht etwas,
mal ganz dumm ausgedrückt. Damals gabs auch noch Glide, was geholfen hat, war alles aus
einem Guss und nicht kleinster gemeinsamer Nenner wie heute.
Nicht ganz so schlimm wie bei SFR oder Checkerboard, zugegeben, aber von 90-100%
Leistungssteigerung im Schnitt war auch klassisches SLI idR weit entfernt, und das auch
nur wenn die CPU nicht limitiert hat.

Für mich war das größte Manko immer, dass ich 2x VRAM bezahle und nur 1x bekomme.
 
axelfr74 schrieb:
Multi-GPU ist es dank DX12 und Vulkan aber noch lange nicht.

DX12 wird wohl auch in 10 Jahren den selben stand haben wie heute, es ist einfach viel zu schwierig dies nativ umzusetzen daher wird es auch in 10 Jahren nur mit Hilfe von DX11 emuliert werden.

Gleiches gilt auch für Vulkan es wird auch in 10 Jahren kaum eingesetzt werden außer in irgendwelchen Handy Games, spiele mit comic grafik oder teilweise auch nur in wissenschaftlichen Anwendungen.

Aber ja Multi GPU wird es in einer Form immer geben, daher denke ich das AMD und nvidia es Hardware seitig implementieren werden ohne das man von irgendwelcher Software abhängig ist.
 
Deleo schrieb:
Ich sehe generell keinen Grund für mehr als 60 Stabile fps.
Woher kommt der Trend 100+ haben zu müssen ? Vor drei Jahren wurde man noch ausgelacht dafür weil es totaler Quatsch war ein Spiel auf 120 fps Laufen zu lassen ?
Klärt mich mal bitte auch, das ist mein ernst.
Das war auch vor drei Jahren kein Quatsch. Höhere fps können auf Bildschirmen mit höheren hz für ein wesentlcih klareres Bild sorgen was sich besonders bei bewegten Objekten zeigt.
Schau mal hier:
https://www.testufo.com/
30fps ruckeln noch sichtbar. 60fps sind deutlich besser, aber immer noch verschwommen. Mit einem 120/144hz Monitor siehst du in diesem Test einen zusätzlichen Balken der das Ufo deutlich klarer zeigt.
Das Beispiel zeigt die Extreme aber den gleichen Effekt hat man auch in Spielen. Besonders schnelle Shooter profitieren deutlich davon.
 
  • Gefällt mir
Reaktionen: Häschen
PickNick schrieb:
Meine beiden GTX 980 fliegen auch bald raus, SLI funktioniert bei mir bei fast gar nichts mehr. Und diese Fummelei mit dem NV Inspector bin ich auch satt, ein Patch und Zack, wieder läuft nichts.
Schade eigentlich, bei Witcher 3 hatte ich 100% Performancezusatz, jetzt scheint man auf SLI Support zu pfeifen.

Funzt Witcher 3 nicht mehr mit beiden Karten? Hatte vor es mir demnächst zu kaufen...aber SO nicht :D
 
Straputsky schrieb:
Bin mal gespannt ob und wann das Auswirkungen auf die Netzteile hat. Der Leistungsbedarf als auch die benötigten Kabelstränge sind davon ja nicht unbeeinflusst.
Wird keinen Unterschied machen, die Amis verbauen auch weiterhin für Systeme mit einer 1070/1080 (Ti) 750-1000W Netzteile. An den wirklichen Bedarf angepasste Käufe sind international eher eine Seltenheit, daher wird sich da auf absehbare Zeit auch nichts ändern.
 
estros schrieb:
Ich fand persönlich SLI nie reizvoll, der Leistungsgewinn von 70% hat aber seine Argumente gehabt.

70% mehr Leistung für einen 100% höheren Preis klingt für mich jetzt nicht unbedingt nach einem Argument Pro SLI.
Moep89 schrieb:
Gerade mit UHD und seit gut 2 Jahren Stillstand im Grafikkartenmarkt wären für Enthusiasten ja 2 GTX 1080Ti oder 2x Titan die einzig brauchbare Lösung.
Gerade in Anbetracht dessen, dass nV direkt mal 10% Leistung verliert wenn man HDR aktiviert, sollte man meinen dass SLI noch breiter unterstützt wird.
 
Herdware schrieb:
Und dann gibt es immer diese Leute, die stur behaupten, dass man sowieso gar nichts sehen kann, was über "X" hinaus geht, und alles nur Einbildung ist.

Wo haben diese Leute das behauptet?

Herdware schrieb:
Ich kann mich an Zeiten erinnern, da galt eine Animation mit 10 FPS als absolut flüssig. :lol:

Und genau darum geht! Ich habe nichts gegen Fortschritt und freue mich, wenn es weiter geht.
Früher war alles flüssig, obwohl es das nicht war bzw. die Leute es nicht anders kannten.
Merkste schon, worauf ich hinaus will?

Die Zahlen gehen immer weiter nach oben (oder nach unten bei ms usw.),
jedoch laufen die Spiele nur bedingt besser als früher.
Woran das liegt? Ich schreibe es gerne nochmal zum 100x:
Programmierung!!!!

Wenn endlich mal mehr wert auf Software gelgt wird (wie früher), dann laufen die Spiele mit 30fps so flüssig wie heute mit 120Hz... Es ist jedoch Arbeit bzw. eine Frage des Geldes. Hauptsache so schnell wie möglich. Um die bugs, Treiberprobleme und Tests kümmert sich der Käufer...

Leider gibt es viele dumme Käufer. Daher gibt es weniger Qualität.
Sieht man bei Menschen auch. Somit passt alles.


Merkst du jetzt was?

Was bringt mir die beste Hardware - auch qualitativ, wenn die Software nicht mithalten kann?
Einige hier wollen auch "Qualitäts-Mobos". Die gibt es auch nicht ohne Grund (Kühlung...).
 
  • Gefällt mir
Reaktionen: Iscaran
@Mihau doch, läuft noch 1A, kann auf UHD mit ca. 45 FPS spielen ohne Ruckler oder Tearing und das will schon was heißen. Du wirst es lieben :D Nur bei z.B. Fallout 4 geht es bei mir überhaupt nicht mehr.
 
  • Gefällt mir
Reaktionen: Mihau
Deleo schrieb:
Ich sehe generell keinen Grund für mehr als 60 Stabile fps.
Woher kommt der Trend 100+ haben zu müssen ? Vor drei Jahren wurde man noch ausgelacht dafür weil es totaler Quatsch war ein Spiel auf 120 fps Laufen zu lassen ?
Klärt mich mal bitte auch, das ist mein ernst.

Erkennst du einen Unterschied zwischen 30 zu 60 fps?
Den selben Unterschied erkennst du zwischen 60 und 90 fps ( native Monitor hz Zahl vorausgesetzt)

Wer einmal mit 100fps+ unterwegs war, für den fühlen sich 60fps so an, wie für dich als 60fps Nutzer, 30fps anfühlen;)

Je nach Game und Engine merkt man selbst noch Unterschiede ob 120fps oder 90
Warhammer vermintide fühlt sich zb. Bei 120 fps deutlich besser / direkt als bei 90fps an.

Gibt aber auch Games die Ansich „ Ruckelig“ laufen ( miese Frame Times) da nutzen auch 3000fps nichts
Zu meist Betas oder kleinere Titel
 
@PickNick das klingt sehr gut =)

Ich war letztens sehr von FarCry Primal enttäuscht, da es lt. einem Test mit SLI umgehen konnte mit ca. 70fps (
), ich aber leider nur 45fps geschaft hab, egal ob mit oder ohne SLI

Vllt wurde da die SLI unterstützung wieder entfernt da das Video auch schon etwas älter ist...
 
Wollte mir damals auch immer ein SLI / Crossfire Gespann machen ist aber irgendwie nie dazu gekommen leider aus den bekannten Gründen. :(
 
Ich hatte sowohl SLI (GTX460) als auch CF (7970 LBE) und hatte fast nur Probleme mit den Setups. Ganz abgesehen davon, dass reine Luftkühlung quasi unmöglich ist, laufen einfach viele Spiele "furchtbar eklig" und/oder langsamer als mit nur einer Grafikkarte. Es gab nur wenige Spiele (seinerzeit Far Cry 3 etc.), die von zwei Grafikkarten profitierten (solange bis die Luftkühlung nicht mehr nach kommt) und viele, bei denen einem schon bei der Konfiguration die Lust verging. Nachdem auch die Wasserkühlung weniger Besserung als erhofft gebracht hat, wanderte die Zweitkarte bei Ebay.

An sich ist Multi-GPU ein sehr schönes Konzept und eine günstige Möglichkeit an viel Leistung zu kommen, aber leider nicht Praxistauglich.
 
Zurück
Oben