Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIm Test vor 15 Jahren: SLI und CrossFire mit 2, 3 und 4 Grafikkarten
Machen wir es doch so, AGB und Boimler!
Ihr baut, mit Eurem umfänglichen Wissen, ein System aus der X58 Zeit mit gtx 780.
Und Versucht meinen Benchmark mit GTX 780 zu schlagen!
Nach Eurer Theorie wäre Euer Sys effizienter und schneller!
Ich habe nur eine wassergekühlte 670 rumzufliegen
Kein X58, aber 775er
PS: Du hast was von Motor geschrieben, nicht von einem System, bzw Unterstützung. Denn zwei identische Grafikkarten vergleichen wir hier schließlich auch mit zwei identischen Motoren.
Niemand will deine Erfahrungen und Erinnerungen mit SLI madig machen. Allerdings gibt es ja gute Gründe, warum sowohl AMD als auch Nvidia den Support eingestellt haben, obwohl sie damit mehr Karten hätten absetzen können. Sowas würde Porsche nicht passieren, um mal im Bild zu bleiben .
nö SLI heist heute NV-Link. schon probiert? Nö , wer will schon 3000 Euro für 2 Karten ausgeben.
Vom Stromverbrauch heut und damals abgesehen, fressen die RTX deutlich mehr.
Von daher ist der Eine Sparfuchs der Andere Enthusiast.
Ich spare im Monat 300 Euro an Kippen......
Verstehe aber nicht ganz den Punkt. SLI hat mit NVLink technisch nichts mehr gemeinsam und hat auch primär einen anderen Einsatzrahmen. Das hat dann nichts mehr mit Enthusiasmus zu tun, sondern kann in konkreten Anwendungsfällen sinnvoll sein.
Stimmt schon. Man musste viel im Treiber frickeln. Wenn man den Dreh aber raus hatte, haben die meisten Spiele sehr gut skaliert. Zumindest mit 2 Karten. Microruckler hielten sich mit Framelimiter und wenn die FPS hoch genug waren auch in Grenzen. Mir fehlt SLI War ne tolle Zeit
Einmal und nie wieder. Hatte die CF Karten binnen 14 Tagen zurück geschickt. Ich wollte nicht glauben dass die Ruckler so extrem sind. Aber mit den Mikroruckler waren das ja unspielbar. Noch dazu musste man jedes Spiel konfigurieren damit es halbwegs lief.
So bin ich danach zu meiner 1. Titan Grafikkarte gekommen.
Ja die Mikroruckler waren schon ein großes Problem damals. Die Hersteller haben das Problem ja nie in den Griff bekommen. Also Software mäßig. Ob es bei der Verbindung, meine Grafikkarten und dem Mainboard, auch irgendwelche Probleme gab, weiß ich nicht. Es könnte ja auch ein Hardware mäßiges Problem gewesen sein. Oder vielleicht auch beides.
Die Enthusiasten Gamer haben das nicht angenommen. Deswegen ist das auch wieder vom Markt verschwunden. Aber wenn das heutzutage möglich wäre. Wir haben ja viel bessere Architektur. Was der speicherkontroller von den CPUs und integrierten North und South Bridge angehen. Diese wurden ja schon längst zusammengefasst.
Also man könnte der ja wieder ein Test machen. Oder auch mehrere verschiedene Tests. Mit verschiedenen Modellen und verschiedenen grundlagen. Damit meine ich die PC Konfigurationen.
Denn dann könnte man z.b ältere Grafikkarten, bei eBay kaufen. Und damit ein SLI oder CROSSFIRE System betreiben.
Die 3. GPU hat kaum mehr Leistung gebracht, aber stattdessen die Frametimes verbessert. Wobei die wenigsten GPUs 2 CF Anschlüsse hatten um überhaupt mehr als 2 GPUs miteinander zu verbinden.
Das Problem waren die Latenzen. Wenn du mit 2 GPUs 60 FPS hattest hatte jede Karte je 30 Bilder berechnet. Da die berechneten Bilder von Karte 2 erst in den Puffer von Karte 1 wandern mussten dauerte das.
Das hatte zur Folge dass die Bilder von Karte 2 lange Frametimes hatten und die Bilder von Karte 1 nur sehr kurz am Monitor gezeigt wurden um die Frametimes aufzuholen.
Bei 2 GPUs war es also Kurz - Lang, Kurz - Lang was man als Mikroruckler wahrgenommen hat.
Bei 3 GPUs wäre es Kurz - Lang - Lang, Kurz - Lang - Lang was optisch besser war - aber sicher nicht weg.
Hätte man Softwareseitig die Frametimes angeglichen (was nie möglich/vorgesehen war) hätte das massiv Leistung gekostet und den Sinn von CF ad absurdum geführt.
Abseits von PC Games wo man das Bild in Echtzeit sehen will waren die Frametimes für Renderings oder andere Berechnungen aber egal und Crossfire sinnvoll.
Ich würde mal pauschal behaupten, Multi GPU Systeme kommen irgendwann wieder.
Sli gab's damals schon erstmal mit Voodoo-Karten, dann jahrelang nicht und dann wieder.
Irgendwann ist das Silizium am Ende.
Viele CPU Kerne oder Multi CPU Systeme haben sich ja auch durchgesetzt, warum also nicht langfristig mal viele GPUs?
Die 3. GPU hat kaum mehr Leistung gebracht, aber stattdessen die Frametimes verbessert. Wobei die wenigsten GPUs 2 CF Anschlüsse hatten um überhaupt mehr als 2 GPUs miteinander zu verbinden.
Das Problem waren die Latenzen. Wenn du mit 2 GPUs 60 FPS hattest hatte jede Karte je 30 Bilder berechnet. Da die berechneten Bilder von Karte 2 erst in den Puffer von Karte 1 wandern mussten dauerte das.
Das hatte zur Folge dass die Bilder von Karte 2 lange Frametimes hatten und die Bilder von Karte 1 nur sehr kurz am Monitor gezeigt wurden um die Frametimes aufzuholen.
Bei 2 GPUs war es also Kurz - Lang, Kurz - Lang was man als Mikroruckler wahrgenommen hat.
Bei 3 GPUs wäre es Kurz - Lang - Lang, Kurz - Lang - Lang was optisch besser war - aber sicher nicht weg.
Hätte man Softwareseitig die Frametimes angeglichen (was nie möglich/vorgesehen war) hätte das massiv Leistung gekostet und den Sinn von CF ad absurdum geführt.
Abseits von PC Games wo man das Bild in Echtzeit sehen will waren die Frametimes für Renderings oder andere Berechnungen aber egal und Crossfire sinnvoll.
Mit Upscaling und Frame Generation ist Multi-GPU obsolet geworden, auch weil die Latenzen damit viel besser im Griff zu behalten sind.
Eine GPU verbraucht jetzt schon 300W aufwärts. Wie soll man (speziell im Consumer-Bereich) Leistungen im kW-Bereich kühlen und wo sollte da der Mehrwert bestehen, wenn native FPS immer weniger relevant sind?
Wie sieht die technische Umsetzung aus? Wenn es darum geht, Transistoren zu verkleinern oder Chipflächen besser auszunutzen, gibt es dazu Konzepte und Roadmaps. Für Multi-GPU Systeme fehlt dagegen die Perspektive.
Abgesehen davon gibt es ja in Umgebungen, in denen Leistungsaufnahme weniger zählt und Rechenleistung konzentriert werden muss, ja schon Multi-GPU-Systeme. Das ist aber für den Konsumenten oder speziell den Spieler komplett uninteressant.
Ja da bin ich auch bei dir. Zum jetzigen Zeitpunkt.
Wer weiß, was die Zukunft bringt.
Vielleicht macht es irgendwann mehr Sinn, 2mal 150 Watt anstelle von 1mal 300 Watt zu nutzen.
Rein technisch wäre das jetzt schon so, wenn die Skalierung über 80% liegt
2 Stück 5070ti sind in Summe deutlich schneller als eine 5090 bei weniger Verbrauch.
Aber das sind alles nur Hirngespinste meinerseits.
Eine GPU verbraucht jetzt schon 300W aufwärts. Wie soll man (speziell im Consumer-Bereich) Leistungen im kW-Bereich kühlen und wo sollte da der Mehrwert bestehen, wenn native FPS immer weniger relevant sind?
Mit Wasserkühlung mal überhaupt kein Problem.
Wenn ich interpolierte Ausgabe haben will, kaufe ich mir eine Konsole. Und selbst da läuft es bei vergleichbarer Hardware besser, weil es einfach ordentlich gemacht wird