Test Multi-GPU in Spielen: Auch 2 × 16 PCIe-Lanes und NVLink retten SLI nicht

fragemann schrieb:
Warum lief das SLI von 3dfx eig. damals so perfekt ohne Mikroruckler und co mit nahezu 100% Skalierung überall?
Weil alles wesentlich komplexer geworden ist. Damals war es noch sehr einfach, die Bildrahmen oder eben die Bildzeilen auf die #GPUs zu verteilen. Da musste der eine vom anderen nicht viel wissen.
Heutzutage aber hast Du jede Menge Techniken (z.B. TAA), wo der naechste Bildrahmen vom vorherigen abhaengt (das Delta zwischen den beiden wird in neuen Berechnungen verwendet), da kann man halt nicht mehr einfach die Daten verteilen, es wird zu langsam, und das ganze System bricht zusammen.
 
Im Test des Komplettsystems von Mifcom hat Computebase noch auf die Probleme in Hinsicht von Performance und Temperaturen der Titan RTX hingewiesen - auch mit dem weiteren Hinweis, dass sich z.B. bei SLI die schnellere Karte an die langsamere anpasst (das ist ja altbekannt).

Jetzt wäre es aber mal interessant gewesen, inwiefern das hier jetzt die Gesamtleistung des SLI beeinflusst.
 
Ich hatte mal die Club3d HD 4870x2, die wurde so heiß das die Tapete hinterm Rechner bröckelig wurde
 
  • Gefällt mir
Reaktionen: Dr. Chandra und Jan
downforze schrieb:
Vor allem der Preis. Die Voodoo 2 habe ich 1998 vier Monate nach Release für 250 DM bei Vobis gekauft. Inflationsbereinigt bekommt man dafür heute nicht mal was aus der Mittelklasse.
250 DM sind meiner Rechnung nach heute eine Kaufkraft von ca 370 €. Dafür bekommt man schon Mittelklasse....
 
SLI/CF war irgendwie immer nur ne Möglichkeit Geld zu verbrennen.

Früher hatte man wenigstens noch etwas nutzen davon aber mittlerweile sind einzelne Chips so schnell dass es sich kaum noch lohnt, deswegen wurde die Optimierung darauf auch zurückgefahren und dadurch lohnt es sich noch weniger.

Ich hab immer darüber nachgedacht mir einfach mal aus Jux ne zweite GPU gleichen Typs zu holen, um zu gucken wie es läuft, aber erst war es mir zu teuer bis die GPU so alt war dass es sich gar nicht mehr gelohnt hätte.

Meine neue Vega 64 ist etwa doppelt so schnell wie meine alte R9 290. Wenn ich mir für 100€ ne gebrauchte 290 geholt hätte und damit die Leistung hätte verdoppeln können hätte ich zwar gut 200€ gespart, aber das wäre nur Wunschdenken :D
Mikroruckler Inklusive.
Und ein neues Netzteil hätte ich so oder so gebraucht, mein neues würde jetzt 2 R9 290 packen, vielleicht kann ich ja doch noch auf CF umsteigen :lol:
 
Die Hersteller haben aktuell, gar kein Interesse Multi GPU gut laufen zu lassen.
Ohne die technischen Hürden genau zu kennen, macht es aus wirtschaftlicher Sicht keinen Sinn das ordentlich zu unterstützen.

Eine 2080ti ist 40-50% schneller als eine 2070, kostet aber mindestens 213% Aufpreis. Bei guter Skalierung würden ja zu wenige den Aufpreis zahlen. Mit zwei Karten währe man ja günstiger und schneller.
Selbst mit 2x 1660ti könnte man 2080ti Leistung bekommen, für nichtmal die Hälfte des Geldes. Zwar ohne rtx aber das wollen viele ja nichtmal.

Wüsste keinen Grund warum sie sich selbst die Margen zerstören sollten. Schade für uns, macht aber Sinn.
 
Hibbelharry schrieb:
Anderes Prinzip, echt abwechselndes Rendering von Einzelzeilen. Dazu andere Ansprüche und sowieso mehr Matsch am Bildschirm. Du hast damals nicht dieselbe Bildqualität und Renderingdetailstufe gehabt wie heute. Du kannst auch heute sowohl Matsch am Bildschirm nicht mehr bringen und du musst Sachen über die Bildzeilen über und unter dir wissen, um gut zu sein. Das bedeutet alles muss ständig hin und her. Unter den Bedingungen würde klassisches SLI auch total versagen.

Du schreibst es doch selber... damals.
Würde das SLI von damals heute noch geben kann man davon ausgehen, dass die Technik sich auch weiterentwickeln würde.
 
Austrokraftwerk schrieb:
Treffende Überschrift, fasst es sehr gut zusammen. 👍
Multi GPU zum Gamen ist nicht mehr relevant.
Sollte es aber mit DirectX12 wieder werden (können) - wurde gesagt. Soagr mit unterschiedlichen GPUs... Was ist daraus geworden?
 
  • Gefällt mir
Reaktionen: Pulsar77
CastorTransport schrieb:
Soagr mit unterschiedlichen GPUs

Ging ja auch. Sogar ziemlich gut. Aber war/ist halt ein Heidenaufwand und niemand legt sich so ein hybrides Gespann zu, wenn das nun wirklich nur noch in DirectX 12 und da nur in den Titeln mit umgesetzter Implementierung geht. Also bis heute Ashes of the Singularity.
 
  • Gefällt mir
Reaktionen: fox40phil
Wanderer101 schrieb:
250 DM sind meiner Rechnung nach heute eine Kaufkraft von ca 370 €. Dafür bekommt man schon Mittelklasse....
Dann kannst du anscheinend nicht rechnen. Das wäre eine Inflation von 200% in 20 Jahren, völlig utopisch.
 
  • Gefällt mir
Reaktionen: Pulsar77, Balikon und CastorTransport
CastorTransport schrieb:
Sollte es aber mit DirectX12 wieder werden (können) - wurde gesagt. Soagr mit unterschiedlichen GPUs... Was ist daraus geworden?

Nicht viel, wie die Realität zeigt. Microsoft hat sogar einen Layer nochmals drüber gestülpt, um den Programmierern das Ansteuern von MultiGPU mit DX12 nochmals einfacher zu machen (siehe The Affinity Layer Library). Aber selbst damit ist die Resonanz quasi 0.
 
  • Gefällt mir
Reaktionen: Dr. Chandra
Mensor schrieb:
Die Hersteller haben aktuell, gar kein Interesse Multi GPU gut laufen zu lassen.
Ohne die technischen Hürden genau zu kennen, macht es aus wirtschaftlicher Sicht keinen Sinn das ordentlich zu unterstützen.

Eine 2080ti ist 40-50% schneller als eine 2070, kostet aber mindestens 213% Aufpreis. Bei guter Skalierung würden ja zu wenige den Aufpreis zahlen. Mit zwei Karten währe man ja günstiger und schneller.
Selbst mit 2x 1660ti könnte man 2080ti Leistung bekommen, für nichtmal die Hälfte des Geldes. Zwar ohne rtx aber das wollen viele ja nichtmal.

Wüsste keinen Grund warum sie sich selbst die Margen zerstören sollten. Schade für uns, macht aber Sinn.
der vram bleibt selbst im sli nur dann 6gb vram. stell dir mal eine 2080ti mit 6gb vram vor ;-)
 
Das Fazit ist das gleiche wie seit 10-15 Jahren. Multi GPU war schon immer kacke, es ist immernoch kacke und es wird auch so bleiben, da der Support stark zurück geht.

Die Framtimes sind einfach absolutes K.O. Kriterium.

Es ist ja nicht nur so, dass die Skalierung schlecht ist. Selbst von dem, was als Performanceplus übrig bleibt kommt praktisch nichts am Monitor in form eines flüssigeren Bildes an, weil das Performanceplus meist 1:1 zum Ausgleich der schlechteren Frametimes drauf geht, die durchschnittlichen Frametimes im Performancerating zeigen das ja eindrucksvoll. Da liegt SLI trotz höherer Framerate gleich auf mit einer Single GPU. Das ist der eindeutige Beweis, dass die Technik völlig für die Katz ist.

Multi GPU ist die reinste Bauernfängerei. Wer immernoch drauf reinfällt, dem ist nicht zu helfen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Laggy.NET schrieb:
Das Fazit ist das gleiche wie seit 10-15 Jahren. Multi GPU war schon immer kacke, es ist immernoch kacke und es wird auch so bleiben, da der Support stark zurück geht.

Die Framtimes sind einfach absolutes K.O. Kriterium.

Es ist ja nicht nur so, dass die Skalierung schlecht ist. Selbst von dem, was als Performanceplus übrig bleibt kommt praktisch nichts am Monitor in form eines flüssigeren Bildes an, weil das Performanceplus meist 1:1 zum Ausgleich der schlechteren Frametimes drauf geht.

Multi GPU ist die reinste Bauernfängerei.
crossfire war immer mist aber sli war vor ca 10 jahren schon sehr gut wurde nur später schlechter
 
  • Gefällt mir
Reaktionen: Vollkorn
@Mani89HW

Ich bin seit ca. 2005 aktiv dabei, was PC Hardware und Gaming betrifft und SLI war seit ich die Berichterstattung darüber verfolge von schlechten Frametimes geplagt. Die Skalierung war früher besser ja, aber in Punkto frametimes hat sich die Technik zwischenzeitlich sogar verbessert gehabt. Trotzdem waren die Fazits auch dann immer vernichtend.
 
MGPU ist eben tot und bleibt tot. Für viel mehr als Werbe-Balken war es doch nie wirklich gut.
 
Würden Nvidia and die Entwickler SLI nicht so stiefmütterlich behandeln wäre das ne feine Sache. Aber da so gut wie keine Spiele SLI unterstützen ist es leider rausgeworfenes Geld. Schade drum
 
Die Technik war nie ausgereift. Selbst zu besten Zeiten gab's zwar 80% Skalierung, aber eben Mikrorukler. In Zeiten von 1000€ Karten einfach sinnlos.
Hoffnung sehe ich nur bei DX12 MultiGPU wenn sich durch andere Verfahren die Mikrorukler beheben lassen. Oder Raytracing auf zweiter Karte als Beschleunigung laufen lassen. So wie das bei PhysX als Addon Karte ja mal gedacht war, bevor Nvidia die Technik kaufte.
 
Zurück
Oben