News Nvidia GTX 800 und GTX 900 angeblich mit Maxwell

Wenn es Nvidia wirklich gelingt, mit einer Performance GPU (>300mm², 256Bit-SI usw.) den Big-Chip der letzten Generation (>500mm², 384Bit-SI usw.) um 10% zu übertrumpfen, und das ohne kleinere Fertigungsstruktur(!), dann ist das schon ein mittleres Wunder.
Warum sollte das ein Wunder sein, wir haben es doch erst vor kurzem so gehabt!
GTX680 zum Wucherpreis und die eigentlich große High-End Karte verschoben! Den Wucherpreis konnte man fordern, da
a) AMD keinen guten Konter hatte
b) die "kleine" eben etwas schneller war als die große "alte"

Am besten die neue Mittelklasse Karte ist auch Mittelklasse - dann gibt es nicht so verrückte Preise bei den Grafikkarten und es herrscht Anstrengung auch was im High-End Bereich zu bringen!
 
Schon klar, wer sich einen neuen Rechner zusammenstellt kauft sich das, was aktuell ist oder wartet sogar, bis das neue draußen ist.
Ich für meinen Teil (3770K/GTX770) kaufe erst neu, wenn die CPU 14nm und die GPU 20nm hat. Alles andere finde ich Geld verbrennen.
 
noxon schrieb:
MS wurde auf der Build Konferenz vor einigen Wochen gefragt, ob man mit DX12 in der Lage sein werde mehrere GPUs gleichzeitig verwenden zu können. Zum Beispiel die von dedizierten Grakas als auch die internen GPUs in den Prozessoren. Dies stand dort noch nicht fest.

Ich weiß nicht in welchem Kontext die Frage gestellt wurde. Ob das eher generell gemeint war oder ob es z.B. um das direkte Ansteuern von 2 GPUs über DX ging. Für mich ist das auch ne sehr hardwarenahe Sache, aber nicht unbedingt im Bereich DirectX sondern eher im Treiberbereich. Darüber hinaus halte ich ein DirectX, welches aktiv verhindert das mehrere GPUs genutzt werden können für einen herben Fail. Auch wenn ich selbst kein Multi-GPU Setup nutze und es auch nicht vorhabe. Daher kann ich nur davon ausgehen dass die Frage zu einem bestimmten Thema gestellt wurde.
 
Ich könnte zwar auch schon längst meine karte wechseln, aber es gibt bis jetzt kein game was mich interessiert, wo ich meine Anforderungen zu derb runterschrauben müsste. Deswegen warte ich lieber auch noch so bekommt man mehr fürs Geld.
 
Das werden sie nicht schaffen, die GPU wird locker 400mm² Fläche benötigen um um die 780ti zu schlagen. Ausgangsbasis war der GM107 im Vergleich mit dem GK106. Die 660 hat im Mittel 20% mehr Leistung bei 53% mehr Shadern und minimal geringeren Takt. Damit sind um die 2.000 Shader notwendig um bei vergleichbaren Takt mit der 780ti mitzuhalten.
 
Haskell schrieb:
Wer sich einen Überblick über die aktuellen OpenGL-Extensions und somit einen Ausblick auf die zukünftigen Direct3D- und OpenGL-Versionen verschaffen will, sollte sich mal eine recht aktuelle Analyse hier anschauen:

http://www.g-truc.net/post-0652.html
Danke für den Link. Einen D3D API Preview von MS gibt's übrigens hier zu sehen.
http://channel9.msdn.com/Events/Build/2014/3-564


@DocWindows
Es geht soweit ich weiß nicht nur darum beide GPUs nutzen zu können, sondern auch darum zwischen ihnen effizient Daten austauschen zu können. Ansonsten nutzt dir das Ganze recht wenig.
Obwohl ich auch noch nie erlebt habe, dass irgendwo die Physik auf einer zweiten GPU berechnet wurde und dafür bräuchte man eigentlich keine direkte Inter-GPU Kommunikation. Ich weiß es auch nicht genau.
 
Zuletzt bearbeitet:
Herdware schrieb:
Wenn die 28nm-GM204 schon 10% schneller ist, als ein GK110-Vollausbau, dann wird 20nm-GM200 sie im Staub stehen lassen. Da sind dann wohl Richtung 80-100% Mehrleistung drin.

Da wär ich mir nicht so sicher. Schaun wir uns mal GM107 an, da hat Nvidia an den FP64-Units gespart auf 128 Cuda-Cores kommen nur noch 4 FP64-Units. Bei Kepler hatten wir noch 192 Cuda-Cores auf 8 FP64-Units bzw. beim GK110 192 Cuda-Cores auf 64 FP64-Units.

Man spart durch den Wegfall von FP64-Units also schon mal Platz bei den kleinen Karten. Allerdings hat ja AMD bei der Hawaii-Workstation Karte ein DP:SP Verhältnis von 1:2. Da wird Nvidia mit dem GM200 nachziehen. Somit kommen dann 64 FP64-Units auf 128 Cuda-Cores.

Ein GK110 SMX-Block war durch die FP64 Units schon 33% größer als ein GK104 SMX-Block.
Ein GM200 SMM-Block wird dann schätzungsweise 50% größer als ein GM107/204 SMM-Block.

Wenn so ein 28nm GM204 auf ~360mm² kommt und man rein hypothetisch mal den Platzbedarf für die FP64-Units mit rein rechnet wäre wir schon bei >500mm². Durch den Shrink auf 20nm wird man also schätzungsweise ~60% für Spielleistung relevante Einheiten mehr auf so ein GM200 drauf klatschen können als auf den 28nm GM204. Wobei die ~60% mehr Einheiten sich ja nicht unbedingt in 60% mehr Leistung niederschlagen werden.

Die 80-100% Mehrleistung sind ziemlich optimistisch.
 
Lars_SHG schrieb:
Warum sollte das ein Wunder sein, wir haben es doch erst vor kurzem so gehabt!
GTX680 zum Wucherpreis und die eigentlich große High-End Karte verschoben! Den Wucherpreis konnte man fordern, da
a) AMD keinen guten Konter hatte
b) die "kleine" eben etwas schneller war als die große "alte"

Aber die GK104 war in einem kleineren Fertigungsprozess hergestellt als die alte GF110. Das hat zusammen mit den Verbesserungen der Kepler-Archtektur für ca. 30% mehr gereicht. Bei Maxwell wäre es nur allein die neue Architektur.

Ok. Ein "Wunder" ist vielleicht übertrieben. Besonders angesichts des langen Zeitraums (immerhin dann über 2,5 Jahre zwischen GK104 und GM204). Trotzdem wäre es schon eine überdurchschnittliche Steigerung, wenn die GM204-Karte mal eben über 50% schneller ist, als ihr "technischer" Vorgänger in gleicher Strukturgröße, und dabei möglicherweise sogar noch Strom spart.
 
DocWindows schrieb:
Überspring die 800er Serie doch und warte auf die 900er. Oder auf die danach.
Es gibt sicherlich Leute die jetzt noch ne sehr alte Karte haben und daher eine 800er in Betracht ziehen.

Ich selbst werde noch auf die 900er warten, sofern die 800er nicht doch in 20nm kommen.

So ist es, zudem könnten die User die dann von einer älteren Karte auf eine der Maxwell Karten umsteigen auch noch eventuell eine Karte haben die deutlich mehr leistet als die alte und trotzdem noch um einiges sparsamer ist.
Bin ja gespannt auf die GTX 8xx Serie und ihre Effizienz, die GTX 750 und GTX 750Ti lässt ja schon gutes hoffen.
 
omg will den gm210 haben den gm204 verkaufen sie wieder als high end.
 
Ja ja wieder mal Nvidia Marketingstrategien, zuerst kommt ne halbbackene Graka raus zum Wurcherpreis und dann der Vollausbau.
Alle Jahre wieder das selbe Szenario.
Also dieses Mal kaufe ich erst wieder ein wenn mir die Leistung meines Systems zu knapp wird.
Oft ist abwarten einfach die bessere Lösung....
Ich hoffe nur das AMD mal schneller ist und Nvidia dann gezwungen ist den Vollausbau schneller auf den Markt zu bringen.
 
Decius schrieb:
Zwingt natürlich niemand jemand jedes Jahr aufzurüsten und das wäre auch etwas teuer. Wenn eine 780 (Ti)/290(X) drin ist, wird es wenig sinnvoll sein aufzurüsten - zumindest nicht vor der 20 nm-Generation. Wenn eine 680er oder 7970er benutzt werden (also zu dem Zeitpunkt Karten die deutlich über 2 Jahre alt sind), mag das anders aussehen, da wären das immerhin ca. 100 % mehr Leistung.

100% mehr?
Nach dem Test hier http://gpuboss.com/gpus/GeForce-GTX-780-Ti-vs-GeForce-GTX-680 hat die 780 ti 16% mehr als ne 680 und die 880 soll 10% mehr haben als ne 780ti
=> maximal 20% mehr als ne 680 und damit wohl nur beschränkt sinnvoll
 
Krautmaster schrieb:
welcher Monitor bzw welcher Standard soll das denn innerhalb der nächsten 5 Jahre wiedergeben?

Selbst mit HDMI 2.0 gehen "nur" 4k @ 60hz

HDMI 2.0 ist auch nicht der Bringer. Das kann DP 1.2 jetzt schon. Mit DP 1.3, welcher vermutlich irgendwann 2015/2016 auf dem Markt aufschlagen wird, geht man in die Richtung 4k @ 120 Hz, 4k 3D oder auch 8k mit Compression darstellen zu können.
http://www.flatpanelshd.com/focus.php?subaction=showfull&id=1386244744

Ob dafür passende Gamermonitore kommen, bleibt trotzdem abzuwarten und ich glaube nicht, dass die Grafikkarten innerhalb der nächsten 4-5 Jahre das schaffen darzustellen. Zumindest keine Single GPU.
Abgesehen davon hätte DP eh den Vorteil variable Refreshrates und damit auch Freesync bieten zu können ... läuft alles darauf hinaus, dass DP sich im Gamingbereich eher durchsetzt, solange HDMI 3.0 nicht schnell kommt.
 
GTX 880
da werden erinnerungen wach :love:

los nVidia, Faktor drei bei der Leistung wie von 7900 GTX auf 8800 GTX sollte doch nochmal drin sein^^
 
cman1902 schrieb:
Ja ja wieder mal Nvidia Marketingstrategien, zuerst kommt ne halbbackene Graka raus zum Wurcherpreis und dann der Vollausbau.
Dir ist schon bewusst, dass die Yield-Raten bei neuen Grafikchips nicht immer besonders hoch sind, oder? Erst recht nicht, wenn der Fertigungsprozess auch noch geändert wurde.
Natürlich entstehen dann am Anfang erst einmal jede Menge defekter Chips, die nicht als voll ausgebaute Chips verkauft werden können. Das hat also nicht nur etwas mit Wirtschaftsinteressen zu tun, sondern hat auch technische Gründe.
 
Ich warte nicht zwei, sondern drei Generationen ab. Sonst ist mir der spürbare Leistungsunterschied einfach zu gering. Wenn es so etwas wie eine GTX870 gibt, und dann noch eine mit alternativer, leiser und effektiver Kühllösung von ASUS, MSI oder sonstwas und leicht übertaktet, dann wird so eine wohl meine werden.
 
BacShea schrieb:
Es ist einfach ein Witz, dass man mit der neuen Generation gerade mal 10% Leistung mehr bekommt.

Der Witz geht auf Deine Kosten wenn Du unbedingt jede Generation mitnehmen "musst". Ich lehne mich mit meiner 4670 entspannt zurück und warte ob zuerst NVIDIA mit einer echten DX11-Karte (angeblich Maxwell und immer noch kein DX11.2? Lächerlich!) oder AMD mit einer echten VI-Karte in der Mittelklasse (statt ewigem Renaming) rüber kommt.
 
Schnubb schrieb:
100% mehr?
Nach dem Test hier http://gpuboss.com/gpus/GeForce-GTX-780-Ti-vs-GeForce-GTX-680 hat die 780 ti 16% mehr als ne 680 und die 880 soll 10% mehr haben als ne 780ti
=> maximal 20% mehr als ne 680 und damit wohl nur beschränkt sinnvoll


was sind denn das für seltsame tests...
denke mal, die spiegeln nicht wirklich game-leistung wieder.
denn 16% von 680 zu 780ti stimmen ingame definitiv nicht.


oder hab ich da was missverstanden?
 
angaben von gpuboss basieren auf theoretisch synthetische Leistung.

Eine 780Ti ( stock ) ist im Durchschnitt zwischen 40 und 50% schneller in games als eine 680.
Auch logisch, eine übertaktete 780ti überholt bereits eine 690 deutlich.
 
Zuletzt bearbeitet:
Zurück
Oben