Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Nvidia SLI
- Ersteller Metallsonic
- Erstellt am
- Status
- Für weitere Antworten geschlossen.
- Registriert
- Nov. 2018
- Beiträge
- 368
Nochmals zur Frage, habe ich einen FPS Leistungsverlust, wenn bei meinen SLI Setup, die zweite Karte nur auf per 3.) 8x läuft?
Kann mir jemand diese Frage beantworten?
Am besten Hand der das identische SLI Setup hat wie ich!
Und damit Erfahrung hat.
Vielen herzlichen Dank
Kann mir jemand diese Frage beantworten?
Am besten Hand der das identische SLI Setup hat wie ich!
Und damit Erfahrung hat.
Vielen herzlichen Dank
DriveByFM
Rear Admiral
- Registriert
- Juni 2008
- Beiträge
- 6.040
Ja du hast verluste bei 4k, gibt dazu tests, ansonsten merkst du es nicht. Hab selber damals 2x Titan X Pascal im SLI gehabt und ewig gebencht. Weil ich es wissen wollte. Solange du die HB Bridge nutzt ist bei 16x/8x alles in 1% Bereich, laut meiner Erinnerung.
- Registriert
- Nov. 2018
- Beiträge
- 368
Wiegesagt es gibt 2 m.2 Steckplätze, 1x m.2 ultra Steckplatz, und 1 x Standard m.2 Steckplatz der dann aber nur auf PE 2.0 läuftDriveByFM schrieb:Hab jetzt mal das Handbuch durchforstet und nix dazu gefunden außer das der PCIE3 Slot deaktiviert wird beim verwenden einer M.2.
Mihawk90
Commander
- Registriert
- Jan. 2008
- Beiträge
- 2.876
Einen Leistungsverlust hat man dadurch nachweislich nicht. Dazu gibt es etliche Benchmarks zu finden, selbst mit 2 Titan V hat man kaum spürbare Verluste außerhalb des Bereichs von natürlichen Schwankungen.
https://www.gamersnexus.net/guides/3176-dual-titan-v-bandwidth-limit-test-x8-vs-x16
Hier wurde mit Titan Vs getestet, es gab noch einen älteren Test den ich aber gerade nicht finde.
https://www.gamersnexus.net/guides/3176-dual-titan-v-bandwidth-limit-test-x8-vs-x16
Hier wurde mit Titan Vs getestet, es gab noch einen älteren Test den ich aber gerade nicht finde.
- Registriert
- Aug. 2011
- Beiträge
- 13.042
Metallsonic schrieb:Nochmals zur Frage, habe ich einen FPS Leistungsverlust, wenn bei meinen SLI Setup, die zweite Karte nur auf per 3.) 8x läuft?
Das hängt von mehreren Faktoren, aber es kann gut sein, dass tatsächlich die Performance eines SLI-Setups deutlich wg. den PCIe-Lanes einbricht! Der @HisN hat dazu mal eine Messung gemacht, die er immer wieder hier selbst zitiert, vielleicht klinkt er sich kurz ein. Schlussendlich ging es darum: Ein Spiel (Wichter 3?!) läuft in 4k-Auflösung und mit viel Antialiasing. Da wird dann zwischen den beiden Karten sehr, sehr große Datenmengen ausgetauscht, sodass jede Abweichung von x16 PCIe tatsächlich bremst.
Und nochmals zu SLI/Crossfire: Multi-GPU für Spiele per AFR (Alternate Frame Rendering), wie es über die Treiber von AMD und Nvidia realisiert wird, ist tatsächlich quasi tot. Bei AMD quasi offiziell und bei Nvidia inoffiziell (mit jeder neuen Graka-Generation wird es immer weiter eingeschränkt).
Ich hatte selbst ein Crossfire-System, aber habs dann in die Ecke geworfen. Grund: TXAA als Antialiasing (was inzwischen der Standard ist bei Spielen) braucht immer die Infos des vorhergenden Frame (der jedoch gerade auf der anderen Karte berechnet wird), d.h. man hat massive Abhängigkeiten zwischen den beiden GPUs im System und letztlich dann entweder nur die Performance einer Singlekarte oder alternativ eine gute Performance, aber Textur/Schattenflackern
- Registriert
- Nov. 2018
- Beiträge
- 368
Ich gebe zu ich hätte am liebsten eine Titan V!DriveByFM schrieb:Ja du hast verluste bei 4k, gibt dazu tests, ansonsten merkst du es nicht. Hab selber damals 2x Titan X Pascal im SLI gehabt und ewig gebencht. Weil ich es wissen wollte. Solange du die HB Bridge nutzt ist bei 16x/8x alles in 1% Bereich, laut meiner Erinnerung.
Da hätte ich die gleiche Leistung würde Stromsparend und alles läuft auf PE 3.0 16X dazu ein Raijintek Morpheuss 2 Kühler, und selbst angefertigten Kupfer Blöcken (Kühler)!
Aber ich habe momentan keine 2 Scheine und mich reizt auch HBM2, das finde ich effizienter als GDDR6.
Deathangel008
Grauer Jedi
- Registriert
- Jan. 2014
- Beiträge
- 83.916
@Metallsonic:
...?Deathangel008 schrieb:ist der PCIE4-slot (oder die kontakte der graka) irgendwie verschmutzt? laut handbuch hat die M.2 keine auswirkung auf diesen slot.
Metallsonic schrieb:Mir ist der Stromverbrauch egal, Watt ist Leistung!
was denn jetzt?Metallsonic schrieb:Da hätte ich die gleiche Leistung würde Stromsparend
- Registriert
- Nov. 2018
- Beiträge
- 368
Danke für deine perfekte Antwort.Mihawk90 schrieb:Einen Leistungsverlust hat man dadurch nachweislich nicht. Dazu gibt es etliche Benchmarks zu finden, selbst mit 2 Titan V hat man kaum spürbare Verluste außerhalb des Bereichs von natürlichen Schwankungen.
https://www.gamersnexus.net/guides/3176-dual-titan-v-bandwidth-limit-test-x8-vs-x16
Hier wurde mit Titan Vs getestet, es gab noch einen älteren Test den ich aber gerade nicht finde.
Sie anderen sagen das künftige Spiele nicht mehr SKI unterstützen.
Ich kann auch SLI deaktivieren, und den zweiten GPU, zur Physics Berechnung nutzen.
Habe ich dadurch einen Vorteil, leistungsmäßig?
Ergänzung ()
Was meinst du?Deathangel008 schrieb:
N
Nozomu
Gast
Nicht wirklich.Metallsonic schrieb:Habe ich dadurch einen Vorteil, leistungsmäßig?
Mihawk90
Commander
- Registriert
- Jan. 2008
- Beiträge
- 2.876
Kommt auf's Spiel an ob die Physik ausgelagert werden kann.Metallsonic schrieb:Habe ich dadurch einen Vorteil, leistungsmäßig?
LinusTechTips hatte mal ein Video gemacht mit ner 1080Ti(?) und ner 470(?) als PhysX Karte dazu, in einigen Spielen hat man tatsächlich Leistung gesehen, in den meisten aber nicht relevant.
Mihawk90
Commander
- Registriert
- Jan. 2008
- Beiträge
- 2.876
Die Aussage widerspricht aber dem Handbuch 🤔
Übrigens Video zu meinem vorigen Post:
Übrigens Video zu meinem vorigen Post:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Keine Geduld!
Captain
- Registriert
- Aug. 2010
- Beiträge
- 3.517
Metallsonic schrieb:Ich kann auch SLI deaktivieren, und den zweiten GPU, zur Physics Berechnung nutzen.
Habe ich dadurch einen Vorteil, leistungsmäßig?
Kurz und knapp - nein.
Deathangel008
Grauer Jedi
- Registriert
- Jan. 2014
- Beiträge
- 83.916
@Metallsonic:
dann würde mich aber interessieren warum die angaben des supports nicht mit denen im handbuch übereinstimmen. hast du mal überprüft ob PCIE4 wirklich mit x16 läuft wenn du die 970 Evo aus dem Ultra-M.2-slot nimmst?
erst sagt du dass dir der stromverbrauch egal ist, dann sagst du dass du gerne ne Titan V hättest weil du damit die gleiche leistung (wirklich?) bei weniger stromverbrauch hättest. was jetzt, ist dir der verbrauch egal oder nicht?
dann würde mich aber interessieren warum die angaben des supports nicht mit denen im handbuch übereinstimmen. hast du mal überprüft ob PCIE4 wirklich mit x16 läuft wenn du die 970 Evo aus dem Ultra-M.2-slot nimmst?
erst sagt du dass dir der stromverbrauch egal ist, dann sagst du dass du gerne ne Titan V hättest weil du damit die gleiche leistung (wirklich?) bei weniger stromverbrauch hättest. was jetzt, ist dir der verbrauch egal oder nicht?
iNFECTED_pHILZ
Commodore
- Registriert
- Dez. 2008
- Beiträge
- 4.282
"Verbrauch ist mir egal !!1elf!"
"HBM2 interessiert mich weil weniger Verbrauch"
"Hört auf mir zu sagen das SLI tot ist, sonst muss ich mir eingestehen Geld verbrannt zu haben"
"Kann SLI auch deaktivieren und die andere für PhysiX Berechnung nutzen, hab ich denn wenigstens dadurch einen Vorteil?"
Jungs, don't feed the Troll. Der Mensch weiß nicht was er will oder versucht nur gerade uns kostbare Lebenszeit zu rauben.
"HBM2 interessiert mich weil weniger Verbrauch"
"Hört auf mir zu sagen das SLI tot ist, sonst muss ich mir eingestehen Geld verbrannt zu haben"
"Kann SLI auch deaktivieren und die andere für PhysiX Berechnung nutzen, hab ich denn wenigstens dadurch einen Vorteil?"
Jungs, don't feed the Troll. Der Mensch weiß nicht was er will oder versucht nur gerade uns kostbare Lebenszeit zu rauben.
tochan01
Rear Admiral
- Registriert
- Mai 2007
- Beiträge
- 5.157
SLI ist leider tot und ich denke, dass es NV sogar so möchte! Warum? 2 kleine Karten zu verkaufen die in Summe schneller sind wie das Flagship aber dennoch weniger kosten? Neee.... Mehr $$$$ bleiben bei dem Highend-GPU hängen der einfach nicht "kastriert" ist aber dafür 200-300€ mehr kostet. Gleiches stück silizum, nur ein anderer wiederstand z.b. somit 300€ bzw. mehr in der tasche für 0 aufwand.
N
Nozomu
Gast
Er ist SLI Verliebt/verblendet und hat das Ende des SLI Support nicht mitbekommen 2016.
Ltcrusher
Fleet Admiral
- Registriert
- März 2004
- Beiträge
- 14.803
Metallsonic schrieb:Es lag auch daran, das es damals noch nicht ausgereift war, und nicht jeder hatte damals ein
SLI Setup mit 2 GTX 1080TI, also ich habe eine unglaublich hohe FPS Rate , in 4K höher als mit einer RTX 2080TI.
Wenn nVidia nicht so dumm gewesen wäre, nach dem Kauf von 3Dfx interactive deren Ideen & Patente in die unterste Schublade des hintersten Schrankes der letzten Garage zu packen, hätten sie mit 3Dfx SLI eine Technologie nutzen können, die schon um die Jahrtausendwende 2 Karten bzw. auch mehrere Chips auf einer Platine ohne die bekannten nVidia SLI oder auch AMD / ATi CrossFire Probleme verbunden hat.
Wenn man den Zeitfaktor und den Grafiksprung weg lässt, entspricht dein GTX 1080 Ti SLI einem Verbund aus 2x GTX 780 Ti...2x GTX 680...oder 2x HD 7970...2x R9 290X oder anderen Kombinationen. Mit jeder Kombination aus den jeweiligen Highend Karten ihrer Generation hatteste höhere FPS Zahlen...
...das ist also kein Verdienst der GTX 1080 Ti.
Was dich viel mehr interssieren sollte: gibt es für die Spiele, die du dann mit dem SLI Verbund nutzen willst, auch passende SLI Profile? Wenn nicht, läuft das Spiel auf einer Karte und die andere gammelt so rum.
PS: PhysX ist mehr oder weniger auch "gestorben". Nur wenige Spielentwickler haben die Lizenzkosten, die nVidia haben wollte, investiert und die "PhysX Vorzeige Reihe" Batman ist mit dem letzten Teil in einem Bugfest untergegangen.
- Registriert
- Nov. 2018
- Beiträge
- 368
Aber dann würde ja für die reine Physics Berechnung, eine ganz billige Nvidea Karte reichen oder?Mihawk90 schrieb:Kommt auf's Spiel an ob die Physik ausgelagert werden kann.
LinusTechTips hatte mal ein Video gemacht mit ner 1080Ti(?) und ner 470(?) als PhysX Karte dazu, in einigen Spielen hat man tatsächlich Leistung gesehen, in den meisten aber nicht relevant.
Dann wäre es völlig übertrieben und sinnlos wenn die zweite GTX 1080TI diesen Job übernehmen würde richtig?
- Status
- Für weitere Antworten geschlossen.
Ähnliche Themen
- Antworten
- 19
- Aufrufe
- 1.223
- Antworten
- 26
- Aufrufe
- 1.130
- Antworten
- 17
- Aufrufe
- 1.282
- Antworten
- 1
- Aufrufe
- 467
- Antworten
- 2
- Aufrufe
- 666