Nvidia SLI

Status
Für weitere Antworten geschlossen.
Hab jetzt mal das Handbuch durchforstet und nix dazu gefunden außer das der PCIE3 Slot deaktiviert wird beim verwenden einer M.2.
 
Nochmals zur Frage, habe ich einen FPS Leistungsverlust, wenn bei meinen SLI Setup, die zweite Karte nur auf per 3.) 8x läuft?

Kann mir jemand diese Frage beantworten?
Am besten Hand der das identische SLI Setup hat wie ich!
Und damit Erfahrung hat.

Vielen herzlichen Dank
 
Ja du hast verluste bei 4k, gibt dazu tests, ansonsten merkst du es nicht. Hab selber damals 2x Titan X Pascal im SLI gehabt und ewig gebencht. Weil ich es wissen wollte. Solange du die HB Bridge nutzt ist bei 16x/8x alles in 1% Bereich, laut meiner Erinnerung.
 
DriveByFM schrieb:
Hab jetzt mal das Handbuch durchforstet und nix dazu gefunden außer das der PCIE3 Slot deaktiviert wird beim verwenden einer M.2.
Wiegesagt es gibt 2 m.2 Steckplätze, 1x m.2 ultra Steckplatz, und 1 x Standard m.2 Steckplatz der dann aber nur auf PE 2.0 läuft
 
Metallsonic schrieb:
Nochmals zur Frage, habe ich einen FPS Leistungsverlust, wenn bei meinen SLI Setup, die zweite Karte nur auf per 3.) 8x läuft?

Das hängt von mehreren Faktoren, aber es kann gut sein, dass tatsächlich die Performance eines SLI-Setups deutlich wg. den PCIe-Lanes einbricht! Der @HisN hat dazu mal eine Messung gemacht, die er immer wieder hier selbst zitiert, vielleicht klinkt er sich kurz ein. Schlussendlich ging es darum: Ein Spiel (Wichter 3?!) läuft in 4k-Auflösung und mit viel Antialiasing. Da wird dann zwischen den beiden Karten sehr, sehr große Datenmengen ausgetauscht, sodass jede Abweichung von x16 PCIe tatsächlich bremst.

Und nochmals zu SLI/Crossfire: Multi-GPU für Spiele per AFR (Alternate Frame Rendering), wie es über die Treiber von AMD und Nvidia realisiert wird, ist tatsächlich quasi tot. Bei AMD quasi offiziell und bei Nvidia inoffiziell (mit jeder neuen Graka-Generation wird es immer weiter eingeschränkt).

Ich hatte selbst ein Crossfire-System, aber habs dann in die Ecke geworfen. Grund: TXAA als Antialiasing (was inzwischen der Standard ist bei Spielen) braucht immer die Infos des vorhergenden Frame (der jedoch gerade auf der anderen Karte berechnet wird), d.h. man hat massive Abhängigkeiten zwischen den beiden GPUs im System und letztlich dann entweder nur die Performance einer Singlekarte oder alternativ eine gute Performance, aber Textur/Schattenflackern :(
 
DriveByFM schrieb:
Ja du hast verluste bei 4k, gibt dazu tests, ansonsten merkst du es nicht. Hab selber damals 2x Titan X Pascal im SLI gehabt und ewig gebencht. Weil ich es wissen wollte. Solange du die HB Bridge nutzt ist bei 16x/8x alles in 1% Bereich, laut meiner Erinnerung.
Ich gebe zu ich hätte am liebsten eine Titan V!
Da hätte ich die gleiche Leistung würde Stromsparend und alles läuft auf PE 3.0 16X dazu ein Raijintek Morpheuss 2 Kühler, und selbst angefertigten Kupfer Blöcken (Kühler)!
Aber ich habe momentan keine 2 Scheine und mich reizt auch HBM2, das finde ich effizienter als GDDR6.
 
  • Gefällt mir
Reaktionen: coasterblog, Keine Geduld! und ph0be
Mihawk90 schrieb:
Einen Leistungsverlust hat man dadurch nachweislich nicht. Dazu gibt es etliche Benchmarks zu finden, selbst mit 2 Titan V hat man kaum spürbare Verluste außerhalb des Bereichs von natürlichen Schwankungen.

https://www.gamersnexus.net/guides/3176-dual-titan-v-bandwidth-limit-test-x8-vs-x16

Hier wurde mit Titan Vs getestet, es gab noch einen älteren Test den ich aber gerade nicht finde.
Danke für deine perfekte Antwort.
Sie anderen sagen das künftige Spiele nicht mehr SKI unterstützen.

Ich kann auch SLI deaktivieren, und den zweiten GPU, zur Physics Berechnung nutzen.
Habe ich dadurch einen Vorteil, leistungsmäßig?
Ergänzung ()

Deathangel008 schrieb:
Was meinst du?
 
Metallsonic schrieb:
Habe ich dadurch einen Vorteil, leistungsmäßig?
Kommt auf's Spiel an ob die Physik ausgelagert werden kann.
LinusTechTips hatte mal ein Video gemacht mit ner 1080Ti(?) und ner 470(?) als PhysX Karte dazu, in einigen Spielen hat man tatsächlich Leistung gesehen, in den meisten aber nicht relevant.
 
Dann hast du doch deine Antwort.
 
Die Aussage widerspricht aber dem Handbuch 🤔

Übrigens Video zu meinem vorigen Post:
 
Metallsonic schrieb:
Ich kann auch SLI deaktivieren, und den zweiten GPU, zur Physics Berechnung nutzen.
Habe ich dadurch einen Vorteil, leistungsmäßig?

Kurz und knapp - nein.
 
@Metallsonic:
dann würde mich aber interessieren warum die angaben des supports nicht mit denen im handbuch übereinstimmen. hast du mal überprüft ob PCIE4 wirklich mit x16 läuft wenn du die 970 Evo aus dem Ultra-M.2-slot nimmst?

erst sagt du dass dir der stromverbrauch egal ist, dann sagst du dass du gerne ne Titan V hättest weil du damit die gleiche leistung (wirklich?) bei weniger stromverbrauch hättest. was jetzt, ist dir der verbrauch egal oder nicht?
 
"Verbrauch ist mir egal !!1elf!"
"HBM2 interessiert mich weil weniger Verbrauch"

"Hört auf mir zu sagen das SLI tot ist, sonst muss ich mir eingestehen Geld verbrannt zu haben"
"Kann SLI auch deaktivieren und die andere für PhysiX Berechnung nutzen, hab ich denn wenigstens dadurch einen Vorteil?"


Jungs, don't feed the Troll. Der Mensch weiß nicht was er will oder versucht nur gerade uns kostbare Lebenszeit zu rauben.
 
  • Gefällt mir
Reaktionen: Zuckerwatte, Coeckchen, Pisaro und eine weitere Person
SLI ist leider tot und ich denke, dass es NV sogar so möchte! Warum? 2 kleine Karten zu verkaufen die in Summe schneller sind wie das Flagship aber dennoch weniger kosten? Neee.... Mehr $$$$ bleiben bei dem Highend-GPU hängen der einfach nicht "kastriert" ist aber dafür 200-300€ mehr kostet. Gleiches stück silizum, nur ein anderer wiederstand z.b. ;) somit 300€ bzw. mehr in der tasche für 0 aufwand.
 
  • Gefällt mir
Reaktionen: Der Paule
Er ist SLI Verliebt/verblendet und hat das Ende des SLI Support nicht mitbekommen 2016.
 
  • Gefällt mir
Reaktionen: Coeckchen, Pisaro, iNFECTED_pHILZ und eine weitere Person
Metallsonic schrieb:
Es lag auch daran, das es damals noch nicht ausgereift war, und nicht jeder hatte damals ein
SLI Setup mit 2 GTX 1080TI, also ich habe eine unglaublich hohe FPS Rate , in 4K höher als mit einer RTX 2080TI.

Wenn nVidia nicht so dumm gewesen wäre, nach dem Kauf von 3Dfx interactive deren Ideen & Patente in die unterste Schublade des hintersten Schrankes der letzten Garage zu packen, hätten sie mit 3Dfx SLI eine Technologie nutzen können, die schon um die Jahrtausendwende 2 Karten bzw. auch mehrere Chips auf einer Platine ohne die bekannten nVidia SLI oder auch AMD / ATi CrossFire Probleme verbunden hat.

Wenn man den Zeitfaktor und den Grafiksprung weg lässt, entspricht dein GTX 1080 Ti SLI einem Verbund aus 2x GTX 780 Ti...2x GTX 680...oder 2x HD 7970...2x R9 290X oder anderen Kombinationen. Mit jeder Kombination aus den jeweiligen Highend Karten ihrer Generation hatteste höhere FPS Zahlen...

...das ist also kein Verdienst der GTX 1080 Ti.

Was dich viel mehr interssieren sollte: gibt es für die Spiele, die du dann mit dem SLI Verbund nutzen willst, auch passende SLI Profile? Wenn nicht, läuft das Spiel auf einer Karte und die andere gammelt so rum. ;)

PS: PhysX ist mehr oder weniger auch "gestorben". Nur wenige Spielentwickler haben die Lizenzkosten, die nVidia haben wollte, investiert und die "PhysX Vorzeige Reihe" Batman ist mit dem letzten Teil in einem Bugfest untergegangen.
 
Mihawk90 schrieb:
Kommt auf's Spiel an ob die Physik ausgelagert werden kann.
LinusTechTips hatte mal ein Video gemacht mit ner 1080Ti(?) und ner 470(?) als PhysX Karte dazu, in einigen Spielen hat man tatsächlich Leistung gesehen, in den meisten aber nicht relevant.
Aber dann würde ja für die reine Physics Berechnung, eine ganz billige Nvidea Karte reichen oder?

Dann wäre es völlig übertrieben und sinnlos wenn die zweite GTX 1080TI diesen Job übernehmen würde richtig?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben