Gtx 1080 sli oder Gtx 1080 Ti

Ein Netzteil sollte auch immer dem System entsprechen, wer ein Budget für eine 1080 SLI oder ne TI hat sollte das nicht vernachlässigen, Bauteile altern und Netzteile sollte man nicht ewig betreiben.

Kann ich nur bestätigen. Mein G-450 von Seasonic hat die Vega 56@OC nicht überlebt. Lieber in nem kleineren Rechner weiterverwenden und dem Hauptrechner genügend Reserven zur Verfügung stellen.
 
Gorby schrieb:
Wenn es bei einer GTX 1080 Ti bleibt wird das System mit übertaktetem i7 schon um die 600 Watt ziehen können

Das ist doch Quatsch:

xman7O4.png


SLI bringt heutzutage kaum noch was und ist mehr Geldverbrennung als Leistungsgewinn oder Penisvergrößerung in 3DMark. Liefern aktuelle Netzteile Premiumstrom? Wenn das Ding in Ordnung ist kann man es auch betreiben.
 
Ausgetauscht gehört das Netzteil schon, sonst passiert dir noch so was - könnte zumindest passieren. Allerdings bin ich der Meinung das hochwertige 600W reichen sollten.
 
@ mfJade:
ne 1080ti bringt man mit OC schnell über 300W und mit ner übertakteten 2066-CPU kann man auch massig strom verballern.

nein, ein gutes und technisch aktuelles NT liefert keinen "premiumstrom", aber z.b. stabilere spannungen als das olle gruppenregulierte L8. wenn du der meinung bist dass man ein aktuelles high-end-system unbedingt mit nem über 6 jahre alten damaligen mittelklasse-NT betreiben sollte ist das so, ich empfehle es nicht.
 
SLI bringt heutzutage mehr als früher,

Fast jedes Spiel unterstützt SLI mit wenigen ausnahmen
Treiber sind besser geworden
Brücken sind besser geworden
CPUs sind schneller geworden
mikroruckler gibt es nur noch in einem Bereich von unter 20 FPS

Nutze SLI schon seit über 10 Jahren, das SLI nichts bringen soll höre ich auch schon seit Anfang an.
Und in der tat damals war SLI mit sehr vielen Problemen verbunden.

SLI wurde nicht für Tot erklärt sondern genau anders herum, dank neuer Technologien braucht man in der Zukunft weder eine SLI Brücke noch SLI Profile.

Eine einzige Grafikkarte wird auch in Zukunft immer zu schwach sein um das ziel von mindestens 60fps zu erreichen wenn man Höhe Auflösungen fährt.
 
Zuletzt bearbeitet:
Chillaholic schrieb:
Naja, der 7800X verbraucht mit OC schon gute 285W.

Aber doch nicht die CPU oder GPU einzeln, das sind Werte für das gesamte System. Auch auf meinem Screenshot geht es um das Gesamtsystem. Um 600W zu erreichen bräuchtest du quasi 2x ne 1080 und 2x die CPU ;)
 
@ mfJade:
auf deinem screenshot aus beitrag 22 wird die leistungsaufnahme der graka angegeben. nicht die des gesamten systems.
 
Hmm ok, früher waren die Tests mit dem Gesamtsystem. My Bad.
 
Chillaholic schrieb:

Beim Spielen zieht die CPU alleine aber nur um die 50 bis 80w wenn überhaupt.

Außerdem ist AVX-512 mit OC auf der skylake-x Plattform das Schlimmste was du deinem System antun kannst, daher haben die Mainboard Hersteller auch per BIOS update nachgerüstet und AVX Offset auf Basis Takt gelassen wenn man übertaktet.
Fast alle tests die die Leistungsaufnahme so getestet haben, haben also keine Bedeutung mehr.
 
Zuletzt bearbeitet:
@mfJade
Computerbase kennzeichnet den Verbrauch mit "Gesamtsystem" wenn es das Gesamtsystem ist.
Ansonsten betrifft es bloß die Komponente aus dem Test.

@ nVVater
Das mit AVX mag sein, aber eine übertaktete 7800X verbraucht niemals 50-80W unter Last.
Hast du Belege zur Hand unter Spielelast?
 
Ich spiele in 4k und da limitieren meistens immer die GPUs, laut hwinfo zieht die CPU zwischen 50-80w ( ohne OC )
In spiele wie cs go wo ich in 4:3 spiele sind es tatsächlich nur 30-50w trotz das es ein CPU limitierendes game ist.
Liegt aber eher daran das spiele wie cs go nur gleichzeitig 4 threads ansprechen können.


Die Skylake-X Plattform ist aber extrem wenn es ums Übertakten geht, die Hitze kann man nicht bändigen ohne die CPU zu Köpfen.
Da aber Intel mittlerweile auch die SMD Bauteile mit verklebt ist Köpfen eines Skylake-X mit sehr hohen Risiken verbunden.
Und wenn man das Köpfen auch hinter sich hat, kann man aber immer noch nicht vernünftig OC ohne das die Spannungswandler auf Dauer zu heiß werden.

Für 3-5fps kann man sich das Theater sparen.
 
Zuletzt bearbeitet:
@ mfJade Nö, falsch... Meines fast 600W unter Last!
 
Zuletzt bearbeitet:
ACO funktioniert nicht mit SLI.
Forza 7 würde ich auch bezweifeln. Ist DX12 und UWP, zwei Garantiefälle für fehlenden SLI-Support.

600 Euro Elektroschrott. In 50% der Anwendungen des TE. Egal wie viel ihr Diskutiert.
 
nVVater schrieb:
Ich spiele in 4k und da limitieren meistens immer die GPUs, laut hwinfo zieht die CPU zwischen 50-80w ( ohne OC )
In spiele wie cs go wo ich in 4:3 spiele sind es tatsächlich nur 30-50w trotz das es ein CPU limitierendes game ist.
Liegt aber eher daran das spiele wie cs go nur gleichzeitig 4 threads ansprechen können.
Tja, mein alter i5-3570K hat damals in den Gummelgames wie CS:S auch nur 20% Auslastung auf 2 Kernen gehabt und somit vllt. 20 Watt gezogen. Ich denke aber, dass man sich so eine Multicore-CPU für einen Spielerechner anschafft, damit man sie lange behalten kann. Denn im Moment nutzten ja noch nur wenige Games viele Kerne/Threads und in denen sind sie natürlich nicht so stark ausgelastet. Das heißt ja aber nicht, dass es so bleibt, sonst hätte es ja ein i7-8700K viel mehr gebracht.
Die Skylake-X Plattform ist aber extrem wenn es ums Übertakten geht, die Hitze kann man nicht bändigen ohne die CPU zu Köpfen.
Da aber Intel mittlerweile auch die SMD Bauteile mit verklebt ist Köpfen eines Skylake-X mit sehr hohen Risiken verbunden.
Und wenn man das Köpfen auch hinter sich hat, kann man aber immer noch nicht vernünftig OC ohne das die Spannungswandler auf Dauer zu heiß werden.
Der TE hat schon geköpft, wie seiner Signatur zu entnehmen ist.
Sein Board hat zwar nicht die allerbeste SpaWa-Kühlung, aber mit einem leichten Luftzug an denen kann man schon ordentlich übertakten mit dem Board.
 
nVVater schrieb:
SLI bringt heutzutage mehr als früher,

Fast jedes Spiel unterstützt SLI mit wenigen ausnahmen

Falsch. Genau anders rum.
SLI Support von Nvidia (bzw Crossfire von AMD) ist Rückgängig. sieht man daran, dass nvidia nur 2-way Sli erlaubt bei den meisten modellen.

Spieleentwickler dropen Sli support immer mehr. Die meisten aktuellen Games unterstützen das entweder gar nicht, oder nur schlecht.
Bzw kommen immer mehr spiele raus, die mit Sli nicht viel anfangen können.

"Fast jedes Spiel"? https://www.3dcenter.org/news/sli-performance-der-geforce-gtx-1080-ti-wenig-ueberzeugend
Jo, grad mal die hälfte hat ne positive skalierung mit Sli (rest GAR NICHT).

Und die Games, die mit sli skalieren, skalieren meistens mit 20-50%. Einige mit <10%.
gehen wir mal von UHD aus, im besten Fall, wenn man NUR die Games zählt, die positiv mit Sli skalieren, hat man +40% Leistung. (+34% in WQHD, +16% in Full HD).
Wenn man alle 24 Games nimmt, hat man lediglich im Schnitt 23% mehr Leistung in UHD. Eine 1080 ti würde +25 bis +40% bringen (im extremsten bestfall).
Eine 1080 ti wäre im schnitt also schneller UND günstiger. Und diese Mehrleistung hat man IMMER in JEDEM Game. Dafür muss es nicht speziell skalieren, oder irgendwas unterstützen ;-)


Sli ist am Sterben, und das ist auch gut so. VIEL zu viele Nachteile, für kaum vorteile. Und wenn, dann eine schlechte skalierung. Die 30% mehr fps kriegst du auch mit einer GTX 1080 ti, und ads deutlich günstiger, weniger stromverbrauch, mehr Speicher, und keine Sli-profile nötig.


SLI kann man machen, wenn man bereits die schnellste single-karte hat. Weil da gibt es keine andere Möglichkeit, wenn einem das nicht reicht.

Aber bei ner 1080? Nope. Sli ist rotz hier. Definitiv eine 1080 ti, damit hat man deutlich mehr Fun.


Btw: eine 1080 ti schafft doch in jedem Game 60 fps in UHD?
Man muss halt nur mal nen grundkurs belegen, wie man Regler bedient... ;-) Das können nämlich viele nicht.

Ein gar nicht so altes Video: https://www.youtube.com/watch?v=YcH2ri9YZO4
Ebenfalls jemand, der Jahrelang Sli genutzt hat.



Es lohnt sich objektiv einfach absolut nicht. Wenn man nüchtern mal überlegt, was es kostet (inklusive größerem netzteil, Stromkosten, und nem Mainboard, was ne vernünftige Sli skalierung hat, nämlich x8/x8, oder besser x16/x16. Unnötig teuer), welche Nachteile es mit sich bringt, und welche vorteile man hat (in der Regel kaum nennenswert).
 
Habe auch jahrelang SLI benutzt (zuletzt 2x GTX 980Ti) und konnte feststellen, dass wenn man hauptsächlich AAA Titel spielt man schon sehr von zwei Grafikkarten profitieren kann. Bei Indie Games hingegen schauts dann meist recht düster aus...da kann man halt versuchen über den NV Inspector ein funktionierendes Profil zu finden. Die skalieren dann aber bei weitem nicht perfekt.

Die allgemeine Aussage, dass SLI sich nie lohnt würd ich so nicht unterschreiben...man muss sich sicherlich den Einzelfall ansehen.

Wenn jemand z.B. Battlefield hauptsächlich spielt, dann kann er mit einer nahezu perfekten Skalierung rechnen. Also warum sollte man ihm dann nicht auch SLI empfehlen? Mehr Frames fürs Geld gibts ja auf anderem Wege nicht.
 
Sicher?
Ganz sicher dass Du da nicht was vergessen hast?

Man darf es schon noch weiter runterbrechen.

Schau mal was bei mir der Unterschied zwischen einer Titan X und zwei Titan X in BF1 war.

Single

HisN - i7 5960X @ 4,5 Ghz - 64GB DDR4 2400Mhz - ASUS Rampage V Extreme - Titan X Pascal @ 2100/5500 - Win 10 Pro x64


2017-01-22 01:36:47 - bf1
Frames: 27083 - Time: 152422ms - Avg: 177.684 - Min: 162 - Max: 193



SLI

HisN - i7 5960X @ 4,5 Ghz - 64GB DDR4 2400Mhz - ASUS Rampage V Extreme - 2xTitan X Pascal @ 2000/5500 - Win 10 Pro x64

2017-01-26 23:50:16 - bf1
Frames: 28256 - Time: 151640ms - Avg: 186.336 - Min: 170 - Max: 212



Aus:
https://www.hardwareluxx.de/community/f153/offizieller-bf1-multiplayer-benchthread-1145614.html



10(!) FPS AVG oder 8 FPS MIN für 1.300 Euro in FHD :-)
Und das bei einer FPS-Zahl wo man die Steigerung auch noch ohne FPS-Counter nicht mal sehen würde.

Ist ist nun mal nicht nur die Software.
Es ist die Software, die Settings (inkl. Auflösung^^), die vorhandene CPU-Leistung, der Wille des Users sich mit dem ganzen kladderadatsch auseinanderzusetzen und was man eigentlich erreichen möchte.
Also ich meine klar, Du hast schon recht. Es sind mehr FPS^^. Das will ich nicht bestreiten. ABER .....
 
Zuletzt bearbeitet:
https://techbuyersguru.com/4k-gamin...1070-sli-vs-1080-sli-vs-titan-x-pascal?page=3

Battlefield 1 skaliert eigentlich nicht soo schlecht. Wenn man in 4k Auflösungen spielt, kann SLI bei einigen Spielen einen gewaltigen Unterschied machen und skaliert teilweise bis zu 90%. Wer Witcher 3 oder GTA 5 in 4k spielen möchte, kann ruhig zu einem 1080 SLI Setup greifen und hat damit mehr Leistung, als mit einer 1080TI (so viel, dass sich der Aufpreis sogar Rechtfertigt mMn).

https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080_SLI/

In FHD oder WQHD wäre die 1080TI allerdings klar vorzuziehen.

Edit: @hisn der von dir verlinkte Benchmark ist nur in 1080p, wenn ich das richtig sehe. Da macht SLI natürlich kaum einen Unterschied.

Darkseth88 schrieb:
gehen wir mal von UHD aus, im besten Fall, wenn man NUR die Games zählt, die positiv mit Sli skalieren, hat man +40% Leistung. (+34% in WQHD, +16% in Full HD).
Wenn man alle 24 Games nimmt, hat man lediglich im Schnitt 23% mehr Leistung in UHD. Eine 1080 ti würde +25 bis +40% bringen (im extremsten bestfall).
Eine 1080 ti wäre im schnitt also schneller UND günstiger. Und diese Mehrleistung hat man IMMER in JEDEM Game. Dafür muss es nicht speziell skalieren, oder irgendwas unterstützen ;-)

Je nach Spiel hat man in UHD bis zu 90% Skalierung auch bei aktuellen AAA Titeln (siehe zweiten Link). Man muss vielleicht erst mal nen Grundkurs für SLI ablegen um diese Mehrleistung zu bekommen ;)
Klar gibt es einen haufen Spiele, die SLI nicht unterstützen. Man muss halt immer das Game und die Auflösung betrachten und dann differenzieren, ob sich SLI für einen nutzer lohnt, oder eben nicht. Im Schnitt lohnt sich SLI für die meisten sicher nicht (die meisten spielen aber auch nicht in UHD). Bei Spielern, die in UHD spielen lohnt sich SLI schon für eine recht große Zielgruppe, gerade wenn diese Spiele spielen, die besonders gut skalieren. SLI generell ist also noch nicht gestorben, nur weil es die meisten nicht nutzen. Sonst müsste man z.B. Quadchannel auch für Tod erklären, weil es nur eine kleine Zielgruppe dafür gibt.

Und mal ehrlich, wer sich SLI leistet, kann sich auch ein UHD-Monitor leisten. Und wer sich SLI anschafft, macht das, weil er in UHD spielen will.
 
Zuletzt bearbeitet:
@ Hisn

Die Aussage bezog sich darauf, SLI allgemein zu verteufeln...dass es in FHD wenig Sinn macht ist klar. (aber auch da kann man downsamplen)

Wenn man in UHD mehr und mehr beim GPU-Limit liegt, skaliert es sicher deutlich besser.
 
Zurück
Oben