News Nvidia SLI: 3 oder 4 Karten geht bei Pascal nur für Benchmarks

RIP Jayz2Cents
 
Der wird sich eh 3 reinbauen, auch wenn er sie nicht braucht ;)
 
Gute Entscheidung, das man sich nicht mehr auf 3 oder 4 Karten konzentriert, vieleicht wird so die Performence um einges gesteigert wenn nur noch 2 Karten mit den neuen SLI Brücken unterstützt und vieleicht werden dann auch mehr Spiele besser Unterstützt.

Ich wahr früher auch ein Gross Fan von SLI, hab es mir abergewöhnt. Die letzten Karten die ich immer Einsatz hatte waren GTX 780 Lightning, höhere Wärme und Stromverbrauch.

Einige Spiele im SLI hat natürlich was gebracht. Man sollte jedes Game unterstützen und so einige Probleme behandeln dann würden vieleicht mehr Leute auf SLI setzen.

Und was nützen mir 2 Karten wenn ich einige Spiele hab die kein SLI unstützen, dann muss ich es abschalten und Single GPU fahren und das ist auch nicht Sinn und zweck der Sache.
 
GHad schrieb:
Seltsam, gerade mit DX12 lohnen sich doch 3-4 Karten erst richtig!
...
Oder wird für DX12 AFR keine SLI Bridge benötigt?

Genau in diese Richtung geht mMn die entscheidende Frage.
Wenn DX12 sogar AMD- und NVidia-Karten gemeinsam unterstützt (gibt es ja auch Benches von in AotS), dann kann es da gar kein SLI/CF geben. Keine Brücken, keine Profile, gar nichts. Sogar von GPU + iGPU wurde ja mal gesprochen.
Von daher würde ich vermuten, dass es sich schlichtweg nicht mehr lohnt, großen Aufwand in diese "einfachen" eigenen Varianten zu stecken.
Sich stattdessen auf eine Variante zu konzentrieren, die mit der stärkeren Brücke vielleicht wirklich einen nennenswerten Vorteil bringt, scheint mir da ein nachvollziehbarer Weg.
 
Für mich nicht nachvollziehbar, da die Leistung für die Kommenden AR und VR Systemen wirklich benötigt werden.

Muss ich mir echt mal AMD Karten anschauen. Habe diese noch nie genutzt.
 
Es gibt auch oder gerade mit DX 12 verschiedene Wege Multi-GPUs zu verwenden. Der "klassische" und für die Entwickler einfachste ist der gleiche wie bisher. Mit DX12 wird es effektiv 3 Unterschiedliche Varianten geben: klick
Die allermeisten Entwickler würden wohl keinen großen Aufwand betreiben wollen um für ein paar Leute mit Triple / Quad SLI spezielle Optimierungen vorzunehmen.


Zudem vermute ich ganz stark, dass die PCI-E 3.0 Bandbreite mit Pascal einfach nicht mehr ausreicht. Die Grafikkarten werden langsam wieder zu schnell für den etablierten Standard und PCI-E 4.0 ist noch in weiter Ferne. Selbst bei der 980ti gibts je nach Auflösung & AA schon deutliche Einbußen bei x8/x8 gegenüber x16/x16. Siehe z.B. hier.


Und solange man kein x99 Board mit 40 Lane CPU hat macht Triple / Quad SLI einfach keinen Sinn mehr. Im Bandbreitenlimit mit x8 / x4 / x4 oder x4/ x4 / x4 / x4 hätte man vermutlich teilweise weniger FPS als mit normalem SLI da die Grafikkarten untereinander ja auch noch alle kommunizieren müssen und so weitere Bandbreite verbrauchen.
 
Zuletzt bearbeitet:
Oh Mann, diese Welt wird immer besser...
Diese Leute...
Hat eh keinen Sinn...
Kann man an einer Hand abzählen...
...

Was geht in euch vor, wenn ihr solche Floskeln postet?
Sind wir in der Egozentrischen Epoche des 3. Millenniums angekommen oder wieso wollt ihr eure Meinung anderen aufzwingen bzw wieso geht ihr davon aus, das einzig eure Meinung die wahre ist?

Sinn oder Unsinn, viele oder wenig betroffene, ganz egal, denn über eines solltet ihr euch im klaren sein. NVidia ist ein Börsen notiertes Unternehmen und kein Samariter, und in erster Linie ist alles was sie machen in ihrem Interesse, nicht in dem des Kunden.
 
hroessler schrieb:
Nvidia verscherzt es sich gerade komplett mit ihren Usern.

Zuerst die GTX970 verarsch ääh Kommunkationsversagen, die total überteuerte und selten dämliche Founders Edition, GameReady Treiber nur noch über GeForce Experience (mit Account??) und nun das. Muss laufen bei Nvidia. Anders ist diese Arroganz nicht zu erklären...

greetz
hroessler

Ist dir die Rosa Brille runtergefallen?
nvidia war schon immer so!
 
MM
Eigentlich reicht es auch 2 * SLI aber es wurde doch nicht gesagt das 3 * / 4 * eingestellt wird nur das es bei der 10** er eingeschränkt wird.
Wen man bedenkt das die SLI Technik nicht von NVIDIA erfunden wurde, sondern nur die Firma die SLI entwickelt hatte ( 3DFx ) aufgekauft hatte, habe die immer noch interessante Probleme mit SLI.
Bis her konnte NVIDIA nur langsam diese Technik sich richtig aneignen aber selbs heute ist es nicht gerade sehr gut.
Ach das gilt aber auch für CF, was ähnliche Probleme hatt.

Ja Ja Was währ wenn es noch 3DFx gäb ---- Konkurrenz für Rot und Grün

bb
 
what the?

Ich kaufe Hardware und darf sie (technisch) nicht nutzen wie ich es möchte? Wollen die ein neues, zusätzliches
Lizenzmodell auflegen? Normalerweise betrifft das ja eher die Software, deren Funktionsumfang sich oft nur auf bestimmter Hardware völlständig entfaltet, je nach Lizenzgröße.

Wird immer unsympathischer der Laden...
 
Zuletzt bearbeitet:
Klar 4x SLI um in den Benchcharts ganz oben zu stehen und damit im Marketing werben zu können und am Ende ist maximal 2 fach SLI möglich (seitens Nvidia).
Dabei dachte ich das vor allem durch VR Multi GPU Systeme vielleicht endlich mal ins Rollen kommen..
Naja gibts 3 Way SLI halt nächstes Jahr.. Als neues Feature der 1300$ 2080 :D

Go Vega!
 
Passt so. Bei Skylake gibt es nur einen Mainboard der 2x 16 lanes hat. Rest nur 1x. Bei Haswell-E 2x16 und auch wenn 4x16 dann fehlen lanes bei cpu. 16x16x8 und dann ? und das bei einem 1200 euro cpu :) na egal.

Ich denke das ist besser für Kunden. Nicht mehr dieser blöde "QUAD SLI" marketing bullshit. Weg Damit. Ab Jetzt sollen Mainboards auch nur 2x16 kommen und passt so. Vielleicht wird dieser entscheidung von Nvidia ein weg öffnen des vieles altes klumpat weg zu räumen.
 
Hopsekäse schrieb:
Wenn DX12 sogar AMD- und NVidia-Karten gemeinsam unterstützt (gibt es ja auch Benches von in AotS), dann kann es da gar kein SLI/CF geben. Keine Brücken, keine Profile, gar nichts. Sogar von GPU + iGPU wurde ja mal gesprochen.
Korrekt. Multi-GPU bei Dx11 basiert im Grunde darauf, dass ein serieller Prozess vom Treiber irgendwie halbwegs effizient aufgeteilt wird, was natürlich vorne und hinten nicht funktioniert. Ist ein bisschen so, als wollte man einem Single Thread-Programm nachträglich irgendwie Multithreading beibringen, ohne den Quellcode zu verändern.

Bei Dx12/Vulkan hast du als Entwickler volle Kontrolle darüber, welche GPU was macht. Ein großer Vorteil davon ist, dass damit vor allem auch Multi-GPU-Techniken ohne zusätzliche Latenz möglich werden - was wiederum heißt, dass es praktisch keine Mikroruckler durch schlechtes Frame Pacing geben kann und insgesamt natürlich für geringeren Input Lag sorgt. Und potentiell besser skaliert.
 
moquai schrieb:
Enthusiast Key, Enthusiast hier, Enthusiast da. Für mich schon jetzt das Unwort des Jahres.

:daumen:


Vielleicht wurde Nvidia der schlechten Skalierung bewusst, hier mein Lieblingslinks bzgl. SLI/CF
http://iyd.kr/753
 
Wird denn das Rendering in After Effects trotzdem noch unterstützt mit 3-4 Karten?

Hierfür ist ja auch sonst keine SLI Brücke nötig.

Oder wurde das mit gestrichen?
Ich vermute stark dass das die eigentliche Absicht dahinter ist.

Die 780ti war/ist wohl extrem beliebt zum rendern dazu noch sehr güstig (gewesen) im Vergleich zur Titan.
Statt 2x Titan bekam man mal eben 4 780ti's.
 
Zuletzt bearbeitet:
ottoman schrieb:
Bei den meisten Beiträgen hier kann man sich wirklich nur an den Kopf fassen. Schon SLI mit nur 2 Karten ist nicht empfehlenswert, bei mehr wird der Inputlag und die Mikroruckler sogar noch schlimmer. Die Unterstützung durch Spiele wird immer schlechter und selbst dann treten noch oft genug Grafikfehler auf. Wer sich 3 oder 4 Grafikkarten kauft, hat entweder keine Ahnung und/oder will nur Benchmark-Rekorde knacken. Der Markt ist eine Nische und den Aufwand von Grafikkarten-Herstellern und Spiele-Entwicklern nicht wert. Mag sein dass sich das mit DirectX 12 etwas ändert, aber da würde ich doch lieber erstmal abwarten und Tee trinken.

Du musst nicht immer von Dir auf andere schließen, nur weil für Dich ein Quad-SLI keinen Sinn macht und Du es Dir nicht leisten kannst oder willst, muss es nicht für andere ebenso so sein (Tellerrand und so ...). Bei anständiger Optimierung kann Quad-SLI schon durchaus Sinn machen (Mikro-Ruckler und Input-Lag sind da kaum ein Thema, wobei das natürlich auch individuell unterschiedlich wahr genommen wird), siehe folgendes Beispiel (Square Enix wird sich bei der verwendeten Quad-SLI mit GTX Titan X Karten schon etwas gedacht haben):

https://www.youtube.com/watch?v=nVym8jYzwSs

Somit kann man vorausschauend den Leistungshunger im Voraus abschätzen bei der Spieleentwicklung (etwa für den geplanten Zeitraum des Marktstarts eines Produktes welches sich noch im Anfangsstadium befindet), denkbar etwa, bei einem Quad- SLI Verbund mit GTX 1080ern zur Simulation einer noch relativ weit in der Zukunft liegenden GTX Titan X3 (Volta Chip). Was glaubst Du wieso im (semi-)professionellen Bereich die Radon Duo Pro momentan das Nonpulsultra ist für VR Spieleentwickler (auch weil man je eine GPU einem Auge zuweisen kann, genauso wäre es vorstellbar zwei GPUs pro Auge abzustellen per Quad-SLI oder Quad-CF).

Dass nVidia die Kunden mit mangelndem Support indirekt gängelt finde ich eher traurig (jedoch nicht überraschend; das scheint sich dort seit Einführung von Maxwell etabliert zu haben), denn innovativ ist diese Vorgehensweise sicherlich nicht, sondern primär gewinnorientiert und es bleibt abzuwarten, ob man somit mögliche Kunden zukünftig zwingen will, weiterhin vorwiegend auf Single GPU Lösungen zu setzen (zwecks Gewinnmaximierung), auch wenn Dual-, Triple-, oder Quad-SLI Lösungen mehr für das Geld bieten würden (insbesondere bei preiswerteren Karten wie der GTX 1060, falls diese auch mit 8GB Speicher kommen sollte).

Dual GPU oder SLI-/CF-Lösungen sind sicherlich die Zukunft - unter Berücksichtigung von DX12 und VR - und könnten irgendwann Single-GPU Lösungen komplett ersetzen, ähnlich wie das bei den CPUs schon geschehen ist. Da scheint AMD weitaus visionärer zu denken (was man auch an der Polaris 10 Präsentation mit Dual-CF-Verbund (RX 480) gesehen hat) und weitsichtiger zu planen als nVidia für die sich scheinbar alles um kurzfristige Gewinnoptimierung dreht.
 
Zuletzt bearbeitet:
chrizZztian schrieb:
Es gibt auch oder gerade mit DX 12 verschiedene Wege Multi-GPUs zu verwenden. Der "klassische" und für die Entwickler einfachste ist der gleiche wie bisher. Mit DX12 wird es effektiv 3 Unterschiedliche Varianten geben: klick
Die allermeisten Entwickler würden wohl keinen großen Aufwand betreiben wollen um für ein paar Leute mit Triple / Quad SLI spezielle Optimierungen vorzunehmen.

Sehe ich eigentlich anders. Der korrekte Weg wäre DX12 Multi-GPU zu unterstützen weil man dann komplett von den jeweiligen Grafikkarten unabhängig wird. Dabei sollte man an die bisher nicht genutzten Combos von Grafikkarte und Onboard Grafik denken oder an Grafikkarten unterschiedlicher Generationen die man bisher wegwarf oder bestenfalls bei Ebay verkaufen konnte. Beides kann man in Spielen wie AotS nutzen und braucht sich um die bisherigen SLI Einschränkungen nicht zu kümmern.

Gerade die Nutzung der immer stärkeren GPU Einheiten bei den CPUs sehe ich hier als einen interessanten Weg.

Chismon schrieb:
Du musst nicht immer von Dir auf andere schließen, nur weil für Dich ein Quad-SLI keine Sinn macht und Du es Dir nicht leisten kannst oder willst, muss es nicht für andere ebenso so sein (Tellerrand und so ...). Bei anständiger Optimierung kann Quad-SLI schon durchaus Sinn machen (Mikro-Ruckler und Input-Lag sind da kaum ein Thema, wobei das natürlich auch individuell unterschiedlich wahr genommen wird), siehe folgendes Beispiel (Square Enix wird sich bei der verwendeten Quad-SLI mit GTX Titan X Karten schon etwas gedacht haben):

Wieso gehst du davon aus, Square Enix hätte bei ihrer DX12 Demo SLI und nicht die DX12 Funktionen zur Nutzung von mehreren Grafikkarten verwendet? Weil es bei dem Video so steht? Für das Ergebniss ist es letztlich egal ob man sich hier auf SLI im Treiber verlässt oder selbst das Rendering auf die Grafikkarten aufteilt. Microsoft wird bei der Entwicklung von DX12 mit Sicherheit die Grafikkartenhersteller und die Software/Spiele Firmen rechtzeitig ins Boot geholt haben.

Die Entscheidung von Nvidia kann hier letztlich entweder politischer Natur sein um DX12 zu pushen und die Entwickler zu motivieren diese Funktionen zu nutzen oder finanzieller Natur zu sein um sich die Kosten für die Optimierung zu sparen für eine Handvoll Gamer mit 3-4 Karten.
 
Zuletzt bearbeitet:
xexex schrieb:
Wieso gehst du davon aus, Square Enix hätte bei ihrer DX12 Demo SLI und nicht die DX12 Funktionen zur Nutzung von mehreren Grafikkarten verwendet? Weil es bei dem Video so steht? Für das Ergebniss ist es letztlich egal ob man sich hier auf SLI im Treiber verlässt oder selbst das Rendering auf die Grafikkarten aufteilt. Microsoft wird bei der Entwicklung von DX12 mit Sicherheit die Grafikkartenhersteller und die Software/Spiele Firmen rechtzeitig ins Boot geholt haben.

Nicht weil es bei dem Video so steht, sondern weil es zum damaligen Zeitpunkt (2015, erste große DX12 Demo) Square Enix sicherlich noch nicht so weit gewesen wäre, das in DX12 umzusetzen und zum anderen (wichtigerem Argument), weil es wesentlich einfacher/kostengünstiger durch weniger Aufwand sein dürfte es per SLI anzusteuern als in DX12 alles per Rendering aufzuteilen. Letzteres ist doch erst kürzlich überhaupt (seit AotS) publik gemacht worden.

Momentan scheint mir die mehr etablierte SLI-Lösung per Treiber noch einfacher umzusetzen zu sein als die über DX12 (aus diesem Grund dürfte AMD die RX 480 auch im CF-Verbund präsentiert haben und nicht per Multi-GPU Ansteuerung in DX12), was sich natürlich irgendwann ändern kann.

Die Frage ist aber was mehr Aufwand ist und ob nVidia bereit ist freiwillig AMD einen Teil vom Kuchen abzugeben (wenn Verbraucher Karten beider Hersteller kaufen/nutzen werden zwecks Dual-GPU Systemoptimierung unter DX12) ... nVidias proprietäre Produktpolitik (Gameworks, G-Sync, etc.) spricht wohl eher dagegen ;).
 
Zuletzt bearbeitet:
Zurück
Oben