News Nvidia GTX 800 und GTX 900 angeblich mit Maxwell

Supermax2004 schrieb:
Ich weine vor Freude. Es werden tatsächlich 10% Mehrleistung? :eek:
Genau das wollte ich mit meinem ursprünglichen Kommentar eigentlich auch ausdrücken :D
Da habe ich mich wohl falsch ausgedrückt.
Es ist einfach ein Witz, dass man mit der neuen Generation gerade mal 10% Leistung mehr bekommt.
Selbst wenn ich eine Generation auslasse. Die aktuelle hat auch keinen Sprung gemacht, den man wirklich erwähnen müsste...
 
Ich würde auch eher dazu raten zu warten und der Fantasie nicht allzu sehr freien lauf zu gewähren.
Zumal ich von Nvidia alles erwarte. Angefangen damit,
dass sie alles noch mal verschieben bis hin zu der Tatsache, dass sie sich die 10% Mehrleistung mit
einem deftigen Preisaufschlag bezahlen lassen werden.

Ausserdem würde es mich nicht wundern, wenn erstmal wieder umgelabelt wird. So sieht es aus als hätte
Nvida mehrer "neue" Karte auf den Markt gebracht. Dabei wären von 5 Karten 2 wirlich neu.

Wer glaubt der würde für eine 880 fast genau so viel bezahlen, wie jetzt für eine 780, der hat sich geschnitten.
Und wieviel Nvida dann für eine 980 verlagen wird, steht in den Sternen.
Zumal ich davon ausgehe, dass Nvidia den Preis unverschämt hoch ansetzten wird,
bis AMD vielleicht mit einem Konter den Preis etwas dürckt. Aber bis dahin werden die Early Adopter schön gemolken.
Aber die sind es ja selber schuld wenn sie die Grafikkarten als Ersatz für ein Penisvergleich nehmen.
 
Zuletzt bearbeitet:
Normalerweise sind es 20-30% mehr Speed und ich denke,dass es auch so viel wird.
Für einige wird Dx12 auch ein Kaufgrund sein,man will nicht als veraltet gelten :lol:
 
pfc2k8 schrieb:
Nicht unbedingt. Die GTX 750 Ti zeigt ja hoffentlich wo es hingehen wird.
10% mehr Leistung bei deutlich geringerem Stromverbrauch wären alles andere als enttäuschend.

Das sehe ich auch so. Ich will mir Ende des Jahres einen neuen Rechner zusammenstellen. Habe dabei gehofft, dass die 800er Serie bereits in 20nm kommt. Aber selbst wenn die 800er Serie in 28nm erscheint und dafür - wie bei der 750 ti schon zu sehen - der Stromverbrauch gesenkt wird, so wäre es doch eine Überlegung wert.
Für mich persönlich ist es jetzt eine schwere Entscheidung.
Meine Überlegung wäre, vorab übergangsweise eine 750 ti zu kaufen und auf die 900er Serie zu warten, oder aber direkt eine 800er zu kaufen und auf die 900er zu verzichten.
Meinungen und Hinweise erwünscht! Danke!
Zur Info: Stromverbrauch ist bei mir ein wichtiges Kriterium. Leistung zwar auch, aber es muss keine GTX X80/X90 sein. Eine X60 (ti) oder X70 würden mir völlig reichen. Aufgrund dessen warte ich ja schon sehnsüchtig auf die neue Maxwell-Generation.
 
Turican76 schrieb:
Normalerweise sind es 20-30% mehr Speed und ich denke,dass es auch so viel wird.
Für einige wird Dx12 auch ein Kaufgrund sein,man will nicht als veraltet gelten :lol:

Warum sollte es deutlich mehr werden? Der 28nm Prozess ist ausgelutscht. Ich würde sogar die +10% nicht ohne weiteres glauben bzw. annehmen, dass dieser Zugewinn nicht global gilt und vermutlich teuer durch höhere Abwärme, Stromverbrauch und einen unverschämten Preis erkauft wird.

Im Übrigen schon krass, dass 20nm noch so lange auf sich warten lässt. Ich selbst habe ja schon Mitte letzten Jahres prophezeit, dass es bestimmt Mitte 2014 wird und wurde dafür von zahlreichen "Experten" hier als Schwachkopf bezeichnet, da diese fest noch mit einem Erscheinen im Q4 2013 rechneten, aber dass es jetzt sogar auf Ende 2015 hinaus läuft ist schon recht extrem. Da muss es bei TSMC ja tatsächlich massive Probleme geben.
 
Turican76 schrieb:
Normalerweise sind es 20-30% mehr Speed und ich denke,dass es auch so viel wird.

Ich erwarte sogar, dass die GM204-GPU locker mehr als 20-30% schneller als der Vorgänger GK104 sein wird. Aber dummerweise steckt in den aktuellen High-End-Karten halt die viel größere GK110 und die mal eben mit einem kleinen Performance-Chip deutlich zu überholen, ist schon viel schwieriger.

Wenn es Nvidia wirklich gelingt, mit einer Performance GPU (>300mm², 256Bit-SI usw.) den Big-Chip der letzten Generation (>500mm², 384Bit-SI usw.) um 10% zu übertrumpfen, und das ohne kleinere Fertigungsstruktur(!), dann ist das schon ein mittleres Wunder. Zusammen mit der zu erwartenden Effizienzverbessung spricht das Bänd über die Verbesserungen der GPU-Architektur von Maxwell gegenüber Kepler, das ja auch schon ein großer Fortschritt war.

Nur wäre der eigentliche Nachfolger der GK110 halt erst die GM200-GPU und auf die müssen wir wohl noch sehr lange warten. Erst die wird dann auch leistungsmäßig deutlich vor den heutigen High-End-Karten liegen. Aber das dann wohl wirklich mehr als deutlich. Wenn die 28nm-GM204 schon 10% schneller ist, als ein GK110-Vollausbau, dann wird 20nm-GM200 sie im Staub stehen lassen. Da sind dann wohl Richtung 80-100% Mehrleistung drin. (Deshalb auch meine Befürchtung, dass die "Titan II" und auch die GTX980 richtig teuer wird.)
Allerdings relativiert sich der Leistungszuwachs wieder, wenn man den Zeitabstand zwischen GM200 und GK110 betrachtet. In der Zeit wären früher 2 bis 3 neue Generationen rausgekommen.
 
Solange da nicht endlich 20 nm drauf sind wird das nichts^^

Aber bis dahin kann ich weiter für 0 € nur nächsten Gen springen und habe immer eine Garantie^^
 
Ich hab noch vor ein paar wochen ne news zu directx 12 gelesen das angeblich keine neue hardware dafür benötigt wird...
 
@m.Kobold
Man muss unetrscheiden zwischen softwareseitiger Unterstützung und Features in der GPU-Hardware. Laut Nvidia sollen alle existierenden DX11-Karten auch DX12 unterstützen. Man kann also, wenn man z.B. eine GTX680 im Rechner hat, DX12 installieren. Nur heißt das eben nicht, dass dann auch alle neuen GPU-Features funktionieren.

Es ist das selbe wie mit DX11.1 und DX11.2. Auch das wir von Kepler-Karten unterstützt. Aber eben nur mit dem Feature-Set von DX11 und einigen weiteren Features, die schon in der Hardware implementiert sind, aber nicht mit dem kompleten DX11.2-Feature-Set. Der Rest fehlt oder muss per Software emuliert werden.

Von den softwareseitigen Optimierungen von DX12, z.B. die angekündigte hardwarenähere API (wohl von Mantle inspiriert) oder bessere Mutli-Core-Optimierung, profitieren dann aber auch die alten DX11-Karten.
 
Also meine nvidia 770 unterstützt kein direktx 11.1 oder 11.2.
Das wird nur von AMDs 7000er HD serie unterstützt.
Anhang anzeigen 414034
 
Bin gespannt auf die Chipgröße und die Temperaturentwicklung des GK204. Habe ein wenig gerechnet und komme auf über 400mm².
 
Herdware schrieb:
Ich erwarte sogar, dass die GM204-GPU locker mehr als 20-30% schneller als der Vorgänger GK104 sein wird. Aber dummerweise steckt in den aktuellen High-End-Karten halt die viel größere GK110 und die mal eben mit einem kleinen Performance-Chip deutlich zu überholen, ist schon viel schwieriger.
(...)

Unter dem Gesichtspunkt sind die 10 % zu den GK110-Karten natürlich ordentlich. Wenn man jedoch High-End-Karte mit High-End-Karte vergleicht und den verbauten Chip außer acht lässt, dann wirken 10 % Mehrleistung schon eher kümmerlich. Wie viel es am Ende dann tatsächlich sein werden muss wie immer abgewartet werden, aber Wunder sollte man wohl keine erwarten (sofern man bereits irgendwas mit GK110 besitzt). Die 780er und Titans werden dann wohl erst mit der 980 so richtig Konkurrenz bekommen. Aber was solls, mit Mitte 2015 kann ich auch gut leben, bis dahin werden die 780er hier schon noch ihren Dienst verrichten. Gewechselt wird erst, wenn die neue Karte auf Standardtakt mindestens so schnell ist wie meine aktuelle(n) Karte(n) mit OC. Und dafür brauchts aktuell noch ein bisschen mehr als 10 % Mehrleistung.
 
Zuletzt bearbeitet:
noxon schrieb:
DX12 kommt Ende des Jahres für die Entwickler. Ende nächsten Jahres sollen die ersten fertigen Spiele erhältlich sein.
Trotzdem stimmt es, dass die Schnittstelle noch lange nicht finalisiert ist und von daher glaube ich auch nicht, dass man jetzt schon behaupten kann, dass die Karten alle Features unterstützten werden können.

Ich kann mir nicht vorstellen dass MS auch nur eine Zeile Code zu einem Projekt "DirectX 12" schreibt, ohne gemeinsam mit den Hardwareherstellern eine Definition festzulegen wie der Schnittpunkt DX <-> Kartentreiber auszusehen hat und was der Chip können muss. Was die API-Seite zum Entwickler hin angeht kann natürlich noch was passieren, und auch die Interna von DX12 werden sich noch ändern. Aber auf der anderen Seite hin zur Karte dürfte der Drops schon gelutscht sein.

Die Sache mit den Hardwarefeatures scheint dieses Mal auch nicht ganz so dramatisch zu sein, da ja das Hauptaugenmerk auf einer anderen, effizienteren Programmierlogik liegt und einer Verschlankung der internen Strukturen.
 
m.Kobold schrieb:
Also meine nvidia 770 unterstützt kein direktx 11.1 oder 11.2.
Das wird nur von AMDs 7000er HD serie unterstützt.

Deine GTX770 unterstützt genau genommen "DX11.2 Feature Level 11_0" (so stand es früher auch mal offiziell in den technischen Daten der Kepler-Karten und auch der ersten Maxwell-Karte GTX750(Ti), bevor Nvidia das wegen eines massiven Internet-Shitstorms geändert hat) und genauso wird sie zukünftig "DX12 Feature Level 11_0" unterstützen.

Das heißt, du kannst mit der GTX770, Windows 8.X vorausgesetzt, DX11.2 installieren und damit DX11.2-Spiele spielen. Nur stehen dann einige neue Features nicht zur Verfügung oder müssen in Software emuliert werden. In den Genuss der softwareseitigen Verbesserungen der neueren DX-Versionen kommst du aber uneingeschränkt.

Die Beschränkung auf Win8 und neuer ist bei DX11.1 und DX11.2 übrigens auch nur künstlich. MS hat vergeblich versucht damit die Verkaufszahlen von Win8 zu pushen. DX12 wird aber auch auf Win7 laufen und damit bekommt man als Win7-Benutzer dann stark verspätet auch Zugang zu den Verbesserungen von DX11.1 und 11.2.
 
Zuletzt bearbeitet:
m.Kobold schrieb:
Also meine nvidia 770 unterstützt kein direktx 11.1 oder 11.2
Natürlich wird DirectX 11.2 unterstützt, oder funktionieren Spiele, die ein DirectX 11.2 Device initieren wollen mit der Karte etwa nicht?

Was die nicht unterstützten Features angeht, so werden die zum Einen in Spielen ohnehin nicht benötigt, da es nur um 2D Funktionen und eine Low-Latency API geht, die hauptsächlich für Metro-Anwendungen gedacht sind und zum Anderen ist es auch völlig irrelevant, ob nVidia alle Features beherrscht oder nicht, da die Spieleentwickler sowieso nur die Features verwenden, die alle Hersteller (AMD, nVidia und Intel) beherrschen.
Kein Entwickler macht sich die Mühe und programmiert für AMD eine Extrawurst nur weil die ein paar DX11.2 Features beherrschen, die alle anderen nicht beherrschen.


@DocWindows:

MS wurde auf der Build Konferenz vor einigen Wochen gefragt, ob man mit DX12 in der Lage sein werde mehrere GPUs gleichzeitig verwenden zu können. Zum Beispiel die von dedizierten Grakas als auch die internen GPUs in den Prozessoren. Dies stand dort noch nicht fest.

Für mich ist das noch ein sehr hardwarenahes Feature welches eventuell die Kooperation der GPU Hersteller erfordern könnte.
Viele Features, die das Pipelining und Batching betreffen und somit auch die GPU Hersteller betreffen standen allerdings auch schon fest und von daher könntest du auch recht haben.

Naja. Warten wir es mal ab. Ich freue mich jedenfalls schon auf Dezember und bin mal gespannt, was es noch alles in die API geschafft hat. Ich hoffe, dass dieses Multi-GPU Feature Einzug halten wird. Das wäre so klasse, wenn meine GPU in der CPU endlich auch etwas zu tun bekäme. Es sah allerdings nicht danach aus, als ob dieses Feature eine hohe Priorität bei MS hätte. Von daher schätze ich die Wahrscheinlichkeit, dass es später enthalten sein wird nicht sehr hoch ein. Leider. :(
 
Zuletzt bearbeitet:
Wer sich einen Überblick über die aktuellen OpenGL-Extensions und somit einen Ausblick auf die zukünftigen Direct3D- und OpenGL-Versionen verschaffen will, sollte sich mal eine recht aktuelle Analyse hier anschauen:

http://www.g-truc.net/post-0652.html
 
Wenn die GTX 880 tatsächlich ~30% Mehrleistung gegenüber der GTX 780 hat und gleichzeitig -wie die 750Ti- ~20% weniger verbraucht, wäre das absolut beeindruckend für 28nm. Mal sehen was am Ende rauskommt.
 
panopticum schrieb:

welcher Monitor bzw welcher Standard soll das denn innerhalb der nächsten 5 Jahre wiedergeben?

Selbst mit HDMI 2.0 gehen "nur" 4k @ 60hz
 
Zurück
Oben