News Nvidia: Dual-GPU-Karte mit 2 × GM200 kurz vor Präsentation

erazzed schrieb:
Wenn man das Resolution Scaling auf 200% setzt, hat man doch schon Downsampling, wozu dann noch DSR, was exakt das selbe macht? Im Endeffekt machst du dann Downsampling vom Downsampling. Ist doch völliger Quatsch und absolut klar, dass das dann mit einstelligen fps läuft...

Das ist mir doch klar^^

Fakt ist das man mit Wow und Downsampling problemlos eine 980Ti auslasten kann, weniger Leistung würde ich nicht haben wollen da selbst jetzt die FPS teilweise außerhalb von Raids unter 50 FPS droppen mit 200% Resolution ohne zusätzlich höhere Auflösung.


Interessant wird die Karte meiner Meinung nach nur wenn Nvidia ne vernünftige Kompaktwasserkühlung liefert mit gesamt 24GB Speicher so können Enthusiasten zwei Karten verbauen oder eine Karte und noch Erweiterungskarten.
 
Evtl bekommt die Karte ja 8Gb Vram und nur 2 980er und würde somit die lücke von 2x 980ti sli und der titan schliessen zumindest was den vram angeht.
Wäre dann also evtl die leicht bessere Wahl im gegensatz zu 2x 980Ti je nachdem wieviel sie kosten wird.

Auf jeden Fall wird wohl eine AMD Dual GPU Karte wesentlich kompakter was einen riesen Vorteil bedeuten könnte.
Aber irgendwie als wirklicher High End Enthusiast würd ich mir eher noch ne 2te Titan reinbauen um beim VRAM auf der sicheren Seite zu sein.

Trotzdem werden auch diese Dual Gpus ihre Käufer finden.
 
Naja, die Frage lautet eigentlich, Zielen sie auf den High End User ab, der einfach Grafikgeil ist, dann würden auch 6gb reichen


Zielen sie jedoch auf den Ultrapornoenthusiastbenchmarker ab werden es 12gb richten müssen.

Damit einhergehend wahrscheinlich entweder 1500 oder 3000 Euro. Wobei meine erste Einschätzung das alles über 1200 mnm keinen Sinn macht nach wie vor steht. 2x 980ti in sli kosten eben ca 1400 bis 1600 Euro und bringen mehr Leistung als wenn auf der "990" 2x gm204 werkeln.
 
Wollen wir darüber spekulieren, wie hoch der Energiebedarf sein könnte, wie hoch der Preis liegen wird, oder wie die Leistung evtl. ausfällt? :D :evillol:


Gruß,
Der Doc.
 
Ach ihr mit eurem Energiebedarf bei Ultra Enthusiasten Hardware :-)
 
Zuletzt bearbeitet von einem Moderator:
m.Kobold schrieb:
@Faust
Und du hast SLI oder Dual GPU?

Ich habe ein Crossfire-System, also 2 x Asus R9 290. Das ist Power im Überfluss (mehr als eine GTX 980 Ti - und kostet nur einen Bruchteil davon), sodass man bspw. Battlefield 4 ohne Probleme auf 3 x FullHD spielen kann. Beide Karten (nein, eigentlich alles, auch die CPU) sind wassergekühlt :) Mir machts Spaß, das P/L ist gigantisch gut und Ruckler habe ich auch keine :D

Krautmaster schrieb:
Wenn Fury X2 nicht mit 2x 8GB kommt is die Sache eh fürn Arsch

Hmm... das glaube ich nicht. Man munkelt, dass doch gerade durch die hohe Speicherbandbreite (HBM!) der kleine Speicher kompensiert werden kann, d.h. wenn der Speicher knapp wird, kann das durch schnelles Ein-/Auslagern von Daten bis zu einem gewissen Grad kompensiert werden.
 
Zuletzt bearbeitet:
latexdoll schrieb:
Du weisst schon das Du auch einen VRam Krüppel dir gekauft hast?
Nächstes jahr schlagen die 16/32GB Vram Karten auf und du krebst mit einer 12 GB herrum....... Würde glatt sagen das ist die 970 light Version 2.0 im Jahre 2016. Btw. neue Speichertechnik zu GDDR5 dazu auch noch sprich HBM2 ;-)

Tellerrand und so

Hallo? Realität und so, vielleicht erst einmal denken bevor man schreibt, 16/32GB Karten im kommenden Jahr bei den meisten Consumer-Karten, was für ein Quark ... und wer bezahlt den unnötig horrenden Speicherausbau, der nicht genutzt werden wird, Du etwa? Aber Hauptsache herumtrollen was das Zeug hält ... ne ne ne :Freak


Ich finde es gut, dass eine GTX 990 von nVidia herauskommt, denn somit besteht zumindest die Hoffnung, dass SLI (und bei der Fury X2 dann hoffentlich auch CrossFire) weiter optimiert/verbessert werden und irgendwann doch zwei-oder-mehr Kartenlösungen für die große Masse mehr zu gebrauchen/akzeptabler sein werden, denn ohne solche Karten wäre die Wahrscheinlichkeit noch geringer. Dabei spielt die wenig ersichtliche Käufergruppe oder das Prestigedenken beider Hersteller weniger eine Rolle für mich.
Ob noch eine GTX960Ti dieses Jahr nach gereicht wird ist fraglich, aber vielleicht noch als letzte Karte vor 14/16nm (wobei das natürlich komplett unsinnig wäre für Käufer, aber das würde zur nVidia Kundenpolitik passen solange dann noch Leute dumm oder unwissend genug sind solche Karten zu kaufen).
 
Zuletzt bearbeitet:
Hito schrieb:
Deswegen müssen da mindestens 970er GPUs drin sein, was aber wegen des speicherdebakels und der der damit verbundenen Verwirrung wohl eher nicht der Fall sein wird. Wenn die Karte überhaupt kommt werden es 980er im Vollausbau sein, die dann aber etwas runtergetaktet werden müssten oder sehr gut selektiert sein wollen.

Erfahrungen mit SLi on one PCB hat NVidia noch keine, hatten aber die Dual-PCB-Karten 7900GX2 & 7950GX2 anno 2006.
Anhang anzeigen 516979

Eine Dual980 hat NV aber nicht wirklich nötig, eher braucht NV etwas zwischen der 960 und der 970, oder sollte die 970 endlich durch eine 970Ti(vollausbau nur niedrigerer Takt als 980) bringen, 980 Ti preis senken.

Eine 970TI mit Vollausbau 980 wird nie kommen. Dann würde keiner mehr eine 980 kaufen dann käuft man sich eine 970Ti und clockt sie auf 980 hoch. Höchstens vielleicht noch was mit 1700 Shadern. Aber daran glaub ich nicht.
 
Früher haben die Dualkarten ja noch lust aufs kaufen ausgelöst seit der GTX690 macht es kein Spass mehr da genauso teuer wie 2 einzelnde und teurer.
 
Hito schrieb:
Erfahrungen mit SLi on one PCB hat NVidia noch keine, hatten aber die Dual-PCB-Karten 7900GX2 & 7950GX2 anno 2006.
Du hast die 9800 GX2 vergessen. Ach ja dann gab es ja noch die GTX 295 aber das verrate ich dir natürlich nicht.
 
Radon32 schrieb:
Wenn du mal paar Jahre hier im Forum dabei bist und auf neutralem Feld unterwegs, wird dir eines klar werden. Egal ob es um Nvidia vs AMD oder Intel vs AMD geht. Beide Seiten schenken sich nichts und kritiseren bei der Gegenseite immer genau das, was sie dann als Argument ins Feld führen, wenn es ihnen selber in den Kram passt. Also gar nicht erst drüber nachdenken sondern die Leute einfach machen lassen ;).

@topic
Ich bin gespannt. Auch wenn so eine Karte eher nichts für mich wäre, find ich es spannend was am Ende bei rum kommt. Entweder man merkt dann, daß es eben trotz der Leistung noch an so einigem mangelt. Oder aber man sieht was alles so möglich ist. Ein Bekannter von mir hat die 690 im Rechner und zockt da schon ewig mit rum. Hat mWn auch bei 3D Vision keine Probleme. Zumindest hat er sich bei mir noch nie beschwert, daß er da irgendwelche Probs hat mit den Spielen die er zockt. Wenn dann einer die Kohle hat und das Bedürfnis, soll er halt zuschlagen. Da legt halt jeder seine Prios anders. In meinem Bekanntenkreis schüttelt auch der ein oder andere den Kopf, wenn er nach dem Preis von meinem Rennrad fragt. Dabei ist das noch eher im guten Einsteigerlevel vom Preisgefüge her.
 
Faust2011 schrieb:
Hmm... das glaube ich nicht. Man munkelt, dass doch gerade durch die hohe Speicherbandbreite (HBM!) der kleine Speicher kompensiert werden kann, d.h. wenn der Speicher knapp wird, kann das durch schnelles Ein-/Auslagern von Daten bis zu einem gewissen Grad kompensiert werden.

Aha und wer munkelt das? Ist natürlich völliger Quatsch, aber den Kram musste ich trotzdem schon zu oft lesen.
Wohin sollen denn die Daten ausgelagert werden? Durch HBM ändert sich überhaupt nichts an der Bandbreite, die überhaupt erst nötig ist, den Grafikspeicher (wieder) zu füllen, das geht nämlich selbstverständlich immer noch vom Hauptspeicher oder gar dem Massenspeicher letztlich über PCIe zur Karte.
 
Faust2011 schrieb:
Nvidia tritt die Flucht nach vorne an. Was auch sonst sollen sie machen, wenn man keine Compute-Leistung hat (keine DP Einheiten) und auch bei DX12 auf verlorenem Terrain steht (mangels langsamer ComputeShader) :D ;)

Was DP angeht, steht die Fury und R9 Reihe auch nicht besonders gut da. Die werden ja von der alten 7970 geschlagen. Und was SP angeht, sind die Maxwell Karten auf jedenfall auf Augenhöhe.
 
max_1234 schrieb:
Was heißt für dich als eingeschworener Nvidia Fanboy "oft"? 1x?
Deine Aussagen sind so gehaltlos dass man sie wieder in den Kopierer zurücklegen möchte.

Ich rede auch primär von 4k und immer mehr Games, wüsste aktuell kaum ein AAA Titel der nicht..., laufen bei 4k schon direkt auf min 4GB RAM, eher 5 +. Batman, ACU, GTA 5, vrauchen mehr als 4GB, selbst W3 kratzt an 4GB, ... und genau da scheint die 4GB Fury meist etwas ihr sonst rundes Bild in Ruckeln abzugeben.
Aber anders gefragt.. willst sagen dass die 4GB mehr bei der R9 390 total unnütz ist?

Die FPS mögen da noch anderes suggerieren, dass die 4GB ausreichen, aber wenn andere Karten in den Titeln mehr als 4GB ziehen und die Fury Vram technisch am Anschlag läuft dann können die 4GB quasi nur zum Nachteil sein. Es gibt Titel da scheinen die 4GB trotz Vollbelegung zwar noch gute Frameraten bescheinigen, schaut man sich aber die Percentile bei Frametimes an sackt der Fiji Chip teils ab. Hexen kann auch AMD nicht, auch nicht mit HBM.

Ich denke in schon den nächsten Games werden die 4GB immer problematischer, aber man muss die Frametimes messen. Gerade jetzt wo dann auch die Mainstream Karten 4GB bekommen, ne R9 390 schon 8 hat ... dürfte auch der VRam Verbrauch wieder sprunghaft ansteigen.

Klar, die GTX 980 TI hat auch nicht VRam üppig und da gibts noch dieses Asyc Shader Fragezeichen, aber ne SLI / CF Lösung käme mit 6GB oder gar 4Gb genau 0 in Frage. Zu den schlechteren Frametimes wegen vollem RAM auch noch welche durch Multi GPU, na toll. Und SFR wird man so schnell auch nicht sehen.

Im übrigen kannst du dir diese Fanboy Unterstellungen sparen, imho zeigt das ja nur was du für einer bist ;)


Edit:
http://www.anandtech.com/show/9390/the-amd-radeon-r9-fury-x-review/22

http://arstechnica.com/gadgets/2015...k-performance-but-doesnt-beat-980-ti-overall/

http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/5

http://www.maximumpc.com/why-minimum-fps-can-be-misleading/#page-2

On the Nvidia side, our 97 percentile and the game's reported minimums are relatively close at higher resolutions, while on AMD hardware we see a relatively large discrepancy. This is one of several titles where the built-in benchmark provides somewhat "misleading" (or at least, not entirely correct) minimum frame rate reporting.

(deswegen Percentil > Min Frames)

Mag sein, dass das auch alles über Treiber komplett aus der Welt zu schaffen ist, aber es scheint jedenfalls mehr Afterwork nötig zu sein als mit mehr Vram in petto. Die Fury is ne gute Karte, keine Frage, mit 8 Gb HBM aber ungleich attraktiver, umso wichtiger, dass HBM schnell auch in größeren Ausbaustufen kommt.

Eine Fiji X2 mit 2x 8GB wäre doch 20x attraktiver und könnte dabei den Platzvorteil noch voll ausschöpfen.
 
Zuletzt bearbeitet:
@Krautmaster
Gerade Witcher3 war ein Paradebeispiel für wenig Ram Verbrauch. In 4k verbraucht es gerade mal 2,8 GB
Siehe hier relative weit unten:
http://gamegpu.ru/rpg/rollevye/the-witcher-3-wild-hunt-test-gpu.html

GTA5 krazt bei 4k an der 4GB grenze. Da kommt es hin. Aber mal ehrlich wer spielt schon bei 25fps und 4k????

Zurzeit tendier ich eher für einen schnelleren Chip mit weniger Vram als langsamerer Chip und mehr Vram. DX12 wird da wahrschienlich die Situation mit dem Vram nochmals verbessern. Es müssen halt die Spieleentwickler mal am ordentlichen Streaming arbeiten wie in Witcher 3 dann braucht man dann auch kein Vram!!!!
 
Zuletzt bearbeitet:
KennyPowers schrieb:
Ein tiefer Blick in die Glaskugel sagt mir die nächste Generation von NVIDIA ist schon mehr oder weniger fertig.

Maxwell:vernaschen:

Pascal:love:
Genau das war auch mein Gedanke:
Nvidia hat noch massig Chips auf Lager und muss die schnell an den Mann bringen da Pascal in den Startlöchern steht.

Gtx 950 mit dem ganzen Müll der bisher nicht durch die Qualitätskontrolle gekommen ist und die dicken Chips auf die Dualkarte da der Markt mit Titans und 980ti gesättigt ist.
 
Träumt mal weiter Pascall wird wahrscheinlich Q2/2017 kommen und so wie es mit Produktionsschwierigkeiten aussieht eher Q3/Q4 2017!

Die Leistung wird sich auch nicht um 50% steigern denn Nvidia und AMD werden sich hüten gleich mit einem Chip in 600mm² auf den Markt zu kommen. Es werden wohl eher 20% wenns gut läuft 30% mehr werden bei einer Chipflächen zwischen 300-400mm²

Wir werden uns gewöhnen müssen das es jetzt nicht mehr so schnell vorangeht wie früher. Dafür wird es mehrere zwischenschritte geben und kleiner chip denen dann ein großer Chip folgt wohl gemerkt beim gleichen Produktionsverfahren.
 
Zuletzt bearbeitet:
yeah! UNENDLICH HALFPRECISION POWER darauf habe ich schon immer gewartet, meine 16 Bit anwendungen werden rennen, ich bin gespannt wie teuer es sein wird.
 
W3 genehmigt sich auch gern mehr wenn es sich mehr genehmigen darf.

Wüsst nicht einen Spielabschnitt in dem bei 4K in lediglich 2,8GB VRam Verbrauch resultiert hätten. Und ich zock natürlich ohne irgendwelche Anpassungen und auch bei W3 scheinen die grünen Karten (wieso auch immer) meist flüssiger bei gleicher FPS rüberzukommen. Ob das am VRam oder anderen Sachen liegt, ka, aber W3 ist in der Tat noch eher sparsam was VRam angeht, geb ich dir recht.

Etwas irrational, dass man das aber hervorheben muss. W3 ist open World und hat meist generell eher low res Texturen, GTA 5 und ACU sind da nochmal anders. Batman AK auch.


Außerdem finde ich die Herangehensweise falsch. Die Tatsache dass ich suchen muss wo die 4GB ausreichend ist doch schon etwas bezeichnend. Die R9 390X finde ich da ausgeglichener. Klar, is natürlich einfacher zu sagen "die ganzen Games cachen nur ohne Sinn, W3 is perfect coded..." - von Nachteil wirds aber auch kaum sein.

Schau ich die Screenshots oben an, dann kann jedes Game noch höher aufgelöste Texturen vertragen. Mitunter sogar deutlich.

Naja, ist eben Ratespiel, man weiß es nicht, -> kann 3 Jahre gut gehn, kann nicht, genau wie bei der Async Shader Thematik. Bis es ne Rolle spielt kauft man sich vllt eh wieder ne neue GPU. Wobei es bei mir eher 4 Jahre Rhytmus ist.

An einer Dual GM200 Karte hätte ich hohnehin 0 Interesse, weder mit 6 noch 12GB. Ich hoffe auf nen Top End Chip von AMD zeitnahe in neuer Fetrigung, als Pascal Gegenstück. Das wird eh n spannendes Battle da ja Nvidia die Architektur recht stark ändert.

Edit:
-> übrigens spielen sich alle neuen Titel in 4K absolut smooth und problemlos. Aber vielleicht hängt das auch einfach mit guten Frametimes zusammen... W3 is mit 30hz + Vsnc zb super spielbar wie ich finde. keine Drops nix... GTA eher mit ~40. Batman deutlich drüber (Framelock deaktiviert). ACU ebenfalls mit 30-40 super. GTA 5 meist >40.


setzt aber OC vorraus. Erst das macht W3 + ACU mit durchweg deutlich über 30FPS (ohne Drops) möglich.
Ergänzung ()

ampre schrieb:
Träumt mal weiter Pascall wird wahrscheinlich Q2/2017 kommen und so wie es mit Produktionsschwierigkeiten aussieht eher Q3/Q4 2017!

ich denke erst kommt ein kleiner GM200 Shrink als Pascal, Namen = Schall und Rauch, zB GP204. Der GP200 mit HBM gibts erstmal nur Tesla. Dann Titan -> dann Consumer. 2017 is garnich so schlecht geschätzt.
 
Zuletzt bearbeitet:
Zurück
Oben