News Nvidia enthüllt GeForce GTX Titan X mit 12 GByte VRAM

Depp_vom_Dienst schrieb:
Wird dann sicher schön, wenn die Karte dank veraltetem GDDR5 und alter 28nm Fertigung in einem Jahr massiv an Preis verliert.

Ist das nicht bei allen Karten so? Nach einem Jahr wird sie soweiso ersetzt, aus dem Verkauf kommt die Anzahlung für die nächste Karte. Alles kein Beinbruch.
 
Also erst mal abwarten mit der zweiten 980ziger, bis die Karte mal zwei Monate auf dem Markt ist.

So fort werde ich sie mir nicht kaufen. Wenn man Pech hat, hat nVidia da auch ne Bock geschossen.

Ne ne nicht mit mir.
 
@Depp
Für 1440p @Max & 3D, bei gewisser Soft/Games, schon & der VRAM ist bisher unschuldig & da hapert es einfach an Rohleistung ...^^
 
Naja wiedermal ne Titan ... zum Preis eines Gamingsystems inklusive ordentlich leistungsfähigem SLI/CF. Reißt mich jetzt nicht groß vom Hocker. Schön ist bei solchen Techdemos allerdings zu sehen, was geht und wo die neue Messlatte angelegt wird.
 
HisN schrieb:
Ist das nicht bei allen Karten so? Nach einem Jahr wird sie soweiso ersetzt, aus dem Verkauf kommt die Anzahlung für die nächste Karte. Alles kein Beinbruch.

Klar ;) Aber hier könnte der Preisverfall noch deutlich drastischer sein, wenn sowohl die Fertigung als auch der Speicher so schnell veraltet sind. Die 28nm Karten waren eigentlich relativ preisstabil, weil es keine großen Sprünge gab.

Für den Enthusiasten spielt das natürlich keine so große Rolle. Allerdings es für jeden, der die Karte länger als 1 Jahr nutzen will die pure Unvernunft, jetzt noch so ein 28nm Schlachtschiff zu kaufen.

SuddenDeathStgt schrieb:
@Depp
Für 1440p @Max & 3D, bei gewisser Soft/Games, schon & der VRAM ist bisher unschuldig & da hapert es einfach an Rohleistung ...^^

Den VRAM hast jetzt du erwähnt nicht ich :P Ich würde trotzdem bis nächstes Jahr warten und erst bei 14/16nm wieder zuschlagen. Zudem wäre mir bei einer Karte mit veraltetem GDDR5 VRAM für den Preis unwohl.
 
naja,mal sehen wann N.Vidia wieder was ernstzunehmendes auf den Markt bringt. Denke die haben es eilig, die Dinger los zu werden...

Angebote mit Ratenzahlung....500x 50€:D:D
 
Tja, ist dann wohl der Todesstoss für AMD. 70+% Marktanteil für Nvidia und noch immer nix von AMD zu höhren. Und jetzt der Knaller mit der Titan X. Gegen 12 GB kann AMD GAR NIX gegen halten. Egal wie schnell die nächste Graka von denen sein wird, sie wird als VRAM Krüppel verschrieen werden. Selbst mit 8GB HBM.

Well played Nvidia, das Endspiel hat begonnen und es sieht verdammt bescheiden aus für AMD. Und mal ehrlich, auch wenn die 390X doppelt so schnell wäre wie die Titan X und nur halb so viel kosten würde, Nvidia ist einfach cooler, ne?
 
Ju5ti

Und wo mit willst Du sie dann befeuern ?

Mit dem CPU und dem Ram wird das aber nichts ;)
 
12GB sind tatsächlich eine Ansage und so wie der Kühler ausschaut, wird das sicher auch ne Single GPU sein. Bleibt nur die Frage wie teuer sie wird, immerhin soll die Karte ja eine reine Gaming Karte sein, was sie von bisherigen Titan Modellen unterscheidet. Mir wird die aber so oder so zu teuer werden :D

Wie geht eigentlich Nvidia im Profibereich vor, wenn Maxwell keine DP-Einheiten besitzt? Bekommen die auch weiterhin nur Kepleraufgüsse oder ist da auch schon was geplant?
 
Wa1lock schrieb:
Wenn ich raten müsste: 250 Watt

Die GTX 980 hat 165 Watt, dann kommt das etwa hin.
Da die 980 stark gezügelt wurde, ist es bei der Titan wahrscheinlich @Stock auch so.
Aber wer die übertaktet, dürfte, in Sachen Stromverbrauch, die Tore zur Hölle weit öffnen. Dürfte dafür aber auch wirklich interessant sein, dann mal zu sehen, was die GPU wirklich drauf hat.
 
ACHTUNG! 3.5GB in voller Geschwindigkeit, restliche 8.5GB dienen nicht für den Hauptzweck.
Ergänzung ()

lol... du denkst, dass AMD keine Karte mit 12GB rausbringen kann? Du tust gerade so, als wäre eine Titan X mit 8GB um WELTEN langsamer als eine mit 12GB. Aha bye.
 
Also oc sehe ich ja bei ner cpu und ram noch ein, aber bei ner Graka absoluter Blödsinn in meinen Augen.
Dann lieber so fort zwei gekauft oder mehr.
 
k0ntr schrieb:
ACHTUNG! 3.5GB in voller Geschwindigkeit, restliche 8.5GB dienen nicht für den Hauptzweck.

der Hauptzweck ist die werbewirksame zahl.....12 GB ram....hört sich mächtig stark an..:D

jede wette die Gpu kann das nicht leisten, was mit soviel Ram möglich wäre...:o
 
@k0ntr

Netter Witz. Aber... Ganz so einfach ist das jetzt auch nicht. Da fehlt die Logik komplett und das nenn ich dann einfach nur blindes Bashing.

Wenn dann vielleicht 10.5 von 12GB. Oder so in der Höhe ungefähr, falls was sein soll. Aber nicht 3.5. Die 3.5 der GTX 970 haben einen Grund. Wenn ne Titan X auch nur 3.5GB hätte, dann wär das unlogisch.

Bei der GTX 970, also sagen wir mal der GM204 Architektur ist Speicheranbindung, Shader und Cache, weitere Einheiten wie ROP, etc. alles zusammen vergebunden. Der Chip ist in 8 Teilen unterteilt, die GTX 980 hat alle 8. Und wenn man nun eine schwächere Karte mit weniger Recheneinheiten rausbringen will, dann muss man alles schneiden, weil die Architektur nicht flexibel ist. Also ist einfach 1 von 8 Teilen abgeschnitten worden und somit fehlt ein Teil der Anbindung, ein Teil des ROPs ein Teil des Caches und natürlich ein Teil der Shadereinheiten. Und so ist das Problem entstanden. Das genannte Feature von diesem CEO ist, dass man einfach mal 4GB verbaut hat und dass der Speicher so auf dem Board bleiben darf, trotz des Abschneidens. Eigentlich egal für uns weils nur Nachteile bringt (wenn die 4GB trotzdem benutzt werden können und der Treiber das nicht verhindern kann und es somit zum ruckeln kommt, weils gefälligst bei 3.5GB stoppen soll) und somit eigentlich ein schlechtes Feature ist.


Das gleiche könnte bei der Titan X auch passieren, sollte das nicht der GM210 Vollausbau sein (und davon gehe ich schwer aus) ODER falls die Architektur nicht flexibler gestaltet worden ist.



Ich gebs zu. Ich hab damit überhaupt keine Ahnung, ich bin weder Chipdesigner noch hab ich irgendwie was damit am Hut. Das sind einfach nur logische Schlussfolgerungen die meiner Meinung nach ziemlich treffend sind. Da müsste man schon mit nachweisbaren Beweisen kommen vom Chipdesigner höchstpersönlich. ;)
 
Zuletzt bearbeitet:
Zurück
Oben