News Im Test vor 15 Jahren: SLI und CrossFire mit 2, 3 und 4 Grafikkarten

hzdriver schrieb:


Das wäre ein Porsche mit 2 Motoren, da könnte man im Getriebe andere Übersetzungen fahren.
Wäre dann auch schneller. In meinem Fall mit 4 Motoren. mfg
Okay, das verstehe ich nicht. Warum sollte das klappen?

Ich würde das eher mit einem Lastwagen mit mehr Anhängern vergleichen
 
Machen wir es doch so, AGB und Boimler!
Ihr baut, mit Eurem umfänglichen Wissen, ein System aus der X58 Zeit mit gtx 780.
Und Versucht meinen Benchmark mit GTX 780 zu schlagen!
Nach Eurer Theorie wäre Euer Sys effizienter und schneller!
:daumen:

PS. Motoren mit E-Unterstützung gibt es nicht ???
 
Ich habe nur eine wassergekühlte 670 rumzufliegen
Kein X58, aber 775er

PS: Du hast was von Motor geschrieben, nicht von einem System, bzw Unterstützung. Denn zwei identische Grafikkarten vergleichen wir hier schließlich auch mit zwei identischen Motoren.
 
hzdriver schrieb:
Nach Eurer Theorie wäre Euer Sys effizienter und schneller!
:daumen:
Niemand will deine Erfahrungen und Erinnerungen mit SLI madig machen. Allerdings gibt es ja gute Gründe, warum sowohl AMD als auch Nvidia den Support eingestellt haben, obwohl sie damit mehr Karten hätten absetzen können. Sowas würde Porsche nicht passieren, um mal im Bild zu bleiben ;).
 
nö SLI heist heute NV-Link. schon probiert? Nö , wer will schon 3000 Euro für 2 Karten ausgeben.
Vom Stromverbrauch heut und damals abgesehen, fressen die RTX deutlich mehr.
Von daher ist der Eine Sparfuchs der Andere Enthusiast.
Ich spare im Monat 300 Euro an Kippen......
 
Es soll auch sparsame Enthusiasten geben :D.

Verstehe aber nicht ganz den Punkt. SLI hat mit NVLink technisch nichts mehr gemeinsam und hat auch primär einen anderen Einsatzrahmen. Das hat dann nichts mehr mit Enthusiasmus zu tun, sondern kann in konkreten Anwendungsfällen sinnvoll sein.
 
captn.ko schrieb:
Hab SLI damals geliebt.
  • 8800 GTX 3Way SLI
  • GTX 280 3Way SLI
  • GTX 460 SLI
  • GTX 480 3Way SLI (Wakü)
  • GTX 680 4GB SLI (Wakü)
  • GTX 780 TI SLI (Wakü)
  • GTX 880m SLI (im Alienware 18 Notebook)
  • GTX 980Ti SLI (Wakü)
  • GTX 1080 SLI
  • GTX 1080TI SLI (Wakü)


Stimmt schon. Man musste viel im Treiber frickeln. Wenn man den Dreh aber raus hatte, haben die meisten Spiele sehr gut skaliert. Zumindest mit 2 Karten. Microruckler hielten sich mit Framelimiter und wenn die FPS hoch genug waren auch in Grenzen. Mir fehlt SLI :mad: War ne tolle Zeit
Naja, dafür gibts ja jetzt Framegeneration, quasi pseudo SLI, funktioniert nur besser... :D
 
Che-Tah schrieb:
Einmal und nie wieder. Hatte die CF Karten binnen 14 Tagen zurück geschickt. Ich wollte nicht glauben dass die Ruckler so extrem sind. Aber mit den Mikroruckler waren das ja unspielbar. Noch dazu musste man jedes Spiel konfigurieren damit es halbwegs lief.

So bin ich danach zu meiner 1. Titan Grafikkarte gekommen.
Ja die Mikroruckler waren schon ein großes Problem damals. Die Hersteller haben das Problem ja nie in den Griff bekommen. Also Software mäßig. Ob es bei der Verbindung, meine Grafikkarten und dem Mainboard, auch irgendwelche Probleme gab, weiß ich nicht. Es könnte ja auch ein Hardware mäßiges Problem gewesen sein. Oder vielleicht auch beides.

Die Enthusiasten Gamer haben das nicht angenommen. Deswegen ist das auch wieder vom Markt verschwunden. Aber wenn das heutzutage möglich wäre. Wir haben ja viel bessere Architektur. Was der speicherkontroller von den CPUs und integrierten North und South Bridge angehen. Diese wurden ja schon längst zusammengefasst.

Also man könnte der ja wieder ein Test machen. Oder auch mehrere verschiedene Tests. Mit verschiedenen Modellen und verschiedenen grundlagen. Damit meine ich die PC Konfigurationen.

Denn dann könnte man z.b ältere Grafikkarten, bei eBay kaufen. Und damit ein SLI oder CROSSFIRE System betreiben.
 
Mikroruckler waren weg ab der 3. GPU ..

War doch auch eine Lösung..
 
  • Gefällt mir
Reaktionen: SaoJoaoBatista
Die 3. GPU hat kaum mehr Leistung gebracht, aber stattdessen die Frametimes verbessert. Wobei die wenigsten GPUs 2 CF Anschlüsse hatten um überhaupt mehr als 2 GPUs miteinander zu verbinden.

Das Problem waren die Latenzen. Wenn du mit 2 GPUs 60 FPS hattest hatte jede Karte je 30 Bilder berechnet. Da die berechneten Bilder von Karte 2 erst in den Puffer von Karte 1 wandern mussten dauerte das.
Das hatte zur Folge dass die Bilder von Karte 2 lange Frametimes hatten und die Bilder von Karte 1 nur sehr kurz am Monitor gezeigt wurden um die Frametimes aufzuholen.

Bei 2 GPUs war es also Kurz - Lang, Kurz - Lang was man als Mikroruckler wahrgenommen hat.

Bei 3 GPUs wäre es Kurz - Lang - Lang, Kurz - Lang - Lang was optisch besser war - aber sicher nicht weg.

Hätte man Softwareseitig die Frametimes angeglichen (was nie möglich/vorgesehen war) hätte das massiv Leistung gekostet und den Sinn von CF ad absurdum geführt.

Abseits von PC Games wo man das Bild in Echtzeit sehen will waren die Frametimes für Renderings oder andere Berechnungen aber egal und Crossfire sinnvoll.
 
  • Gefällt mir
Reaktionen: SaoJoaoBatista
Ich würde mal pauschal behaupten, Multi GPU Systeme kommen irgendwann wieder.
Sli gab's damals schon erstmal mit Voodoo-Karten, dann jahrelang nicht und dann wieder.
Irgendwann ist das Silizium am Ende.
Viele CPU Kerne oder Multi CPU Systeme haben sich ja auch durchgesetzt, warum also nicht langfristig mal viele GPUs?
 
Che-Tah schrieb:
Die 3. GPU hat kaum mehr Leistung gebracht, aber stattdessen die Frametimes verbessert. Wobei die wenigsten GPUs 2 CF Anschlüsse hatten um überhaupt mehr als 2 GPUs miteinander zu verbinden.

Das Problem waren die Latenzen. Wenn du mit 2 GPUs 60 FPS hattest hatte jede Karte je 30 Bilder berechnet. Da die berechneten Bilder von Karte 2 erst in den Puffer von Karte 1 wandern mussten dauerte das.
Das hatte zur Folge dass die Bilder von Karte 2 lange Frametimes hatten und die Bilder von Karte 1 nur sehr kurz am Monitor gezeigt wurden um die Frametimes aufzuholen.

Bei 2 GPUs war es also Kurz - Lang, Kurz - Lang was man als Mikroruckler wahrgenommen hat.

Bei 3 GPUs wäre es Kurz - Lang - Lang, Kurz - Lang - Lang was optisch besser war - aber sicher nicht weg.

Hätte man Softwareseitig die Frametimes angeglichen (was nie möglich/vorgesehen war) hätte das massiv Leistung gekostet und den Sinn von CF ad absurdum geführt.

Abseits von PC Games wo man das Bild in Echtzeit sehen will waren die Frametimes für Renderings oder andere Berechnungen aber egal und Crossfire sinnvoll.
Hey 👋 🤗 cool 😃 😎 Bro.

Du kennst dich aber Supi aus mit der Materie. Vielen Dank für deine expliziten Erläuterungen.

MFG

PS :
Ein anderer User hat mir geschrieben, das er Dual-Chips GPUs besser fände. Das hatte ich schon total vergessen. Das gab's ja schon mal, früher.

Ich glaube dieser Ansatz wäre wohl doch die bessere Wahl 😁 😉.

Ich habe dem geantwortet. Aber bitte mit viel Sahne drauf. Damit meine ich die VRAM memory. Mindestens 20 oder 24 GB, sollten es schon sein.

MFG
 
DJKno schrieb:
Viele CPU Kerne oder Multi CPU Systeme haben sich ja auch durchgesetzt, warum also nicht langfristig mal viele GPUs?
Mir fallen eigentlich nur Gegenargumente ein:

  • Mit Upscaling und Frame Generation ist Multi-GPU obsolet geworden, auch weil die Latenzen damit viel besser im Griff zu behalten sind.
  • Eine GPU verbraucht jetzt schon 300W aufwärts. Wie soll man (speziell im Consumer-Bereich) Leistungen im kW-Bereich kühlen und wo sollte da der Mehrwert bestehen, wenn native FPS immer weniger relevant sind?
  • Wie sieht die technische Umsetzung aus? Wenn es darum geht, Transistoren zu verkleinern oder Chipflächen besser auszunutzen, gibt es dazu Konzepte und Roadmaps. Für Multi-GPU Systeme fehlt dagegen die Perspektive.

Abgesehen davon gibt es ja in Umgebungen, in denen Leistungsaufnahme weniger zählt und Rechenleistung konzentriert werden muss, ja schon Multi-GPU-Systeme. Das ist aber für den Konsumenten oder speziell den Spieler komplett uninteressant.
 
Boimler schrieb:
Mir fallen eigentlich nur Gegenargumente ein
Ja da bin ich auch bei dir. Zum jetzigen Zeitpunkt.
Wer weiß, was die Zukunft bringt.
Vielleicht macht es irgendwann mehr Sinn, 2mal 150 Watt anstelle von 1mal 300 Watt zu nutzen.
Rein technisch wäre das jetzt schon so, wenn die Skalierung über 80% liegt
2 Stück 5070ti sind in Summe deutlich schneller als eine 5090 bei weniger Verbrauch.
Aber das sind alles nur Hirngespinste meinerseits.
 
Boimler schrieb:
Eine GPU verbraucht jetzt schon 300W aufwärts. Wie soll man (speziell im Consumer-Bereich) Leistungen im kW-Bereich kühlen und wo sollte da der Mehrwert bestehen, wenn native FPS immer weniger relevant sind?
Mit Wasserkühlung mal überhaupt kein Problem.
Wenn ich interpolierte Ausgabe haben will, kaufe ich mir eine Konsole. Und selbst da läuft es bei vergleichbarer Hardware besser, weil es einfach ordentlich gemacht wird
 
Ok, aber was hat SLI jetzt mit Konsolen zu tun?
 
Zurück
Oben