Test Nvidia GeForce GTX Titan X im Test

Ich denke ob und wann Pacal 2016 kommt hängt ganz von AMD ab. Pascal dürfte zunächst als großer Chip zu extrem teuren Preisen als Tesla kommen. Ich schätze Q3 2016 wird er offiziell vorgestellt, verfügbar ab Q4. Dür den Desktop heißt das bis 2017 definitiv warten da ich von ausgehe dass die nächste Fertigungsstufe mindestens so lange aktuell sein wird wie die 28nm die jetzt mit Fiji und GM200 absolut ausgelutscht sind.

Edit:
Für Nvidia und AMD ist es gut wenn sich in ca 6 Monaten eine Fiji 4/8Gb und eine GTX 980 TI (GM200 wie Titan nur cut & günstiger, 6GB) wenig schenken. Dann können beide etwa 1 Jahr saftige Preise jenseits der 600€ fahren. Ich denke man wird eine 4/8 GB Fiji gegen diesen GM200 Cut positionieren - das als gängigen High End vermarkten (R9 390X Luft -ggf auch ein Cut, mit 4/8GB und GTX 980 TI 6GB z.B.) - beide so um die bekannten 500-600€ rum. Darüber gibt es dann die neue Elite Klasse die Nvidia mit TITAN eingeführt hat (~1000€). Ergo eine 8 GB WCE vs. eine TITAN X mit 12 GB die sich auch wenig schenken und eigentlich nur Prestige Objekte sind.

AMD hat selbst die R9 390X auf etwa 700$ angegeben, die 8GB WCE dürfte schon fast an die TITAN X rankommen, tendentiell eher etwas darunter also etwa 800-900$ vs TITAN bei etwa 999$.

Für beide macht eine solche Konstellation Sinn da beide Chips teuer und groß sind. Auch tun beide hohe Verkaufspreise und vergleichbare Leistung gut um keinen Preiskampf zu provozieren. Ich gehe davon aus, dass die normale R9 390X (non WCE) etwas schneller ist als eine GTX 980 TI mit GM200 cut - ähnlich wie bei der GTX 780 vs Hawaii - nur dass die Nvidia besser zu OC sein wird und es bei den Custom Karten dann etwa aufs gleiche rausläuft. Abh. davon ob 4 / 8 GB ist dann auch der Ram zu den 6GB einer GTX 980Ti mit GM200 cut ausgeglichen.

2016 dürften dann die ersten Shrinks die nächste Fertigung einläuten. Vermutlich vermarktet man dann wieder kleine Chips ala GP304 als High End während der GP300 Full Fat Tesla vorenthalten bleibt. Q1 2017 (2 Jahres Rythmus) sieht man dann eine TITAN III mit GP300 (Full Fat Pascal) im Desktopbereich mit 16 GB Ram und 999€.

*Glaskugel*
 
Zuletzt bearbeitet:
Testmuster bleiben oft das was sie sind und werden nach ein paar Wochen wieder retourniert. Sie verbleiben aber sicherlich auch einfach Eigentum des testenden Magazins, je nach Abmachung. -So billig wie in der Pc Branche bekommt man niergendwo Werbung für sein Produkt ;)
 
Im Kern würde mich interessieren, ob diese Testmuster wieder aufbereitet werden und dann (z. B. als 'refurbished') in den normalen Markt kommen. Und wenn ja, wo werden diese angeboten?
 
Die Testmuster tingeln idR durch mehrere Redaktionen. Die werden auch deutlich vor dem Fall der NDA verteilt, damit nach Ablauf der NDA mehrere Redaktionen getestet haben. Insofern macht jede Karte mehrere Tests mit.

Was bleibt übrig nach dem Test?

- Man sieht wie maßlos überteuert die GTX980 ist und wie "klein" ihr VRAM für eine GPU über 500e bemessen ist wenn er jetzt bereits zum Flaschenhals wird.
- 28nm ist am Ende, ich bin schon fast entsetzt dass es keine 20nm-GPU gibt und man uns auf die nächste Generation in mehr als zwei Jahren vertröstet
- Die Karte wird vermutlich ~1099€ kosten, vlt auch etwas mehr - ein Armutszeugnis dass man in diesem Preisbereich keinen Kühler beilegt welcher der Last gewachsen ist.

- Computerbase wieder fleissig am euphemisieren. 50 Db unter Last, an die 400W Stromverbrauch? Die R9 290 habt ihr dafür verrissen. Zurecht. Und auch hier wäre es angebracht. Wenn nVidia einen neuen Thermi veröffentlicht, was bei 8mrd Transistoren in 28nm vermutlich zwangsläufig der Fall ist, sollten sie bei dem Preis auch einen vernünftigen Kühler draufpacken wenn sie im selben Atemzug customdesigns verbieten.

P.S.: Die DP-Leistung ist echt ein Witz. Eine gesamte GPU-Generation im Profibereich für den Arsch. Gut für Kepler-Besitzer, der Marktwert des GK110 ist mangels nVidia-Alternative soeben wieder gestiegen...

Fazit: nach dem "Memorygate" der 970 hat nVidia eine solide Karte vorgelegt, welche aber neue Technologie vermissen lässt. Die Titan war wegweisend für viele Jahre, das hier sieht aus als würde aus einer überholten Technologie der letzte Rest rausgequetscht mit allen Nebenwirkungen. Matchball für AMD. Wie man sieht "darf" die Karte so viel verbrauchen wie eine R9 290X, solange der Wasserkühler weder limitiert noch einem die Ohren abfallen lässt dürfte es AMD nicht schwer fallen die Leistung der Titan X für einen geringeren Preis auf den Markt zu bringen.
Und in Sachen DP-Leistung neue Rekorde zu setzen.
 
Faust2011 schrieb:
Im Kern würde mich interessieren, ob diese Testmuster wieder aufbereitet werden und dann (z. B. als 'refurbished') in den normalen Markt kommen. Und wenn ja, wo werden diese angeboten?

weniger. Die dürften in der Redaktion bleiben da ja auch Nachtests erfolgen.
 
Das ist mal wieder ein Hammer. Das maximal mögliche im 28nm Prozess. Ein echtes Monster.
Bin gespannt, was der <20nm Prozess bringen mag...

Schöner Test, danke!
 
Krautmaster schrieb:
Für Nvidia und AMD ist es gut wenn sich in ca 6 Monaten eine Fiji 4/8Gb und eine GTX 980 TI (GM200 wie Titan nur cut & günstiger, 6GB) wenig schenken. Dann können beide etwa 1 Jahr saftige Preise jenseits der 600€ fahren. Ich denke man wird eine 4/8 GB Fiji gegen diesen GM200 Cut positionieren - das als gängigen High End vermarkten (R9 390X Luft -ggf auch ein Cut, mit 4/8GB und GTX 980 TI 6GB z.B.) - beide so um die bekannten 500-600€ rum. Darüber gibt es dann die neue Elite Klasse die Nvidia mit TITAN eingeführt hat (~1000€). Ergo eine 8 GB WCE vs. eine TITAN X mit 12 GB die sich auch wenig schenken und eigentlich nur Prestige Objekte sind.

Valides Szenario. AMD wird spätestens Anfang Juni zur Computex die 390X liefern. Eventuell auch schon vorher in Verbindung mit einem Treiberrelease (zwei sind angekündigt: 19. März & im April, die im Kern das Freesync-Update beinhalten - ich denke und hoffe, dass da noch mehr kommt). Je nach tatsächlicher Leistung und dem Preis der 390X wird Nvidia mit der 980TI nachziehen. Wahrscheinlich wird die TI GM200-basierend mit 6 GByte ausgestattet (recht ähnlich wie das Spiel zwischen 980 und 960, nur dass eben der Chip vollständig erhalten bleibt - oder werden doch ein oder zwei GPCs im GM200 deaktiviert?).
 
Eine überteuerte Karte mit guter Leistung, verbesderungswürdiger Kühlung, gepaart mit 12GB "Marketing" RAM und einer schwachen DP Leistung...

In Relation zur 980 dürfte die Karte mit vielleicht 799€ kosten, aber so.... Eine weitere teure nvidia Karte ohne großartige Besonderheiten.
 
@Faust2011

den bisherigen Leaks nach kommt eine GM200 Cut Version, mit 6GB. Klingt auch valide. Ich denke Nvidia wird den Chip in der Referenzkarte schon etwas zu TITAN X distanzieren. Mit etwas OC (bis 20% dürften auch bei dieser Karte drin sein) machen die Custom Karten dann direkt Konkurrenz zu dem was AMD auftischen wird. (Non WCE Versionen oder aber 4GB WCE) - vielleicht auch gegen einen cut Fiji positioniert. (R9 380X)

@ PiPaPa

so is das eben wenn eine Karte stand heute komplett konkurrenzlos dasteht. OC ist die Karte teils deutlich über 50%, teils >80% fixer als bisherige Modelle (auch OC).
http://www.pcgameshardware.de/Gefor...orce-GTX-Titan-X-Test-Benchmark-1153643/2/#a2
Mit Unlock Bios / Power Target kommen noch ein paar % dazu. Siehe die GTX 980 die bei PCGH auf 1600 Mhz rennt.

Man kann es wenden wie man will. Die Karte ist (noch) konkurrenzlos und deswegen auch der Preis. Wer hier lineare Preisskalierung von einer GTX 980 erwartet hat von "Wirtschaft" einfach keine Ahnung. Sry.

(Wäre die Fiji mit 8GB HBM gestern aufgeschlagen & die TITAN X nicht existent, würde AMD genauso extreme Preise verlangen...)
 
Zuletzt bearbeitet:
Ich finde es sehr schade, dass das Übertacktungspotential durch nur 1x 6pin und 1x 8pin und durch das Power Target anscheinend recht beschnitten ist. Mit 2x 8pin und höheren Power Target wären unter Wasser bestimmt 1300 bis 1400 Mhz drin gewesen. Hier würde ich mir als Enthusiast-Käufer, der das maximal mögliche haben will, doch verarscht vorkommen. Weiss jemand, ob es irgendwann entsprechende Custom Designs geben wird?

Ansonsten eine sehr nette Karte bis auf den Lüfter. Über den Preis mußte am Im Enthusiast-Segment ja noch nie diskutieren, da war das P/L-Verhältnis ja schon immer Katastrophal (spätestens seit der GF3 Ti). Nun ist nur noch offen, wie sich die 390X WCE im Vergleich schlagen wird.

Da meine Peripherie aber "nur" FHD ist gibt es für mich aber keinen Kaufgrund und meine GTX970 sollte locker reichen bis zur 2. oder 3. VR Generation. Wenn es dann mal VR Brillen mit >= 3MP pro Auge gibt wird das nächste mal Aufgerüstet, was wohl 2016 sein sollte. Aber selbst dann denke ich wird man 2x Full Pascal (oder 2x Performance Voltera) benötigen um die insgesamt 6MP mit 90Fps (für ein gutes VR-Gefühl Pflicht) zu erreichen. Da bei VR Dual GPUs ja theoretisch immer mit 100% skalieren sollten wird das wohl mein erstes SLI/Crossfire werden.
 
Zuletzt bearbeitet:
das war bei TITAN I aber genauso und kurze Zeit später selbst in Software oder eben BIOS easy aushebelbar.

http://www.pcgameshardware.de/Gefor...TX-Titan-Extrem-Overclocking-GTX-880-1076043/

Man hat bei Nvidia kostenoptimiert gearbeitet, das Layout ist ja fast identisch. Klar wären 2x8 Pin dennoch begrüßenswert, die Wandler selbst sind aber ausreichend und kein besseres Netzteil hat ein Problem damit auch 500W über 6+8 Pin zu pressen ;)
 
Hopsekäse schrieb:
Das Kühlsystem ist leider nicht gut geraten. Ungekühlter Speicher auf der Rückseite geht gar nicht. Ob die Wasserkühler für die Titan X beidseitig kühlen werden? Ich würde es begrüßen.

Bei meinen aktuellen Titan hatte ich extra eine Backplate verbaut. Die war zwar nicht wassergekühlt sondern passiv, aber dafür recht massiv. Ich vermute eine derartige Lösung wird bei mir es wieder geben. Derzeit wird die jedenfalls nicht mal handwarm.
 
Krautmaster schrieb:
das war bei TITAN I aber genauso und kurze Zeit später selbst in Software oder eben BIOS easy aushebelbar.

http://www.pcgameshardware.de/Gefor...TX-Titan-Extrem-Overclocking-GTX-880-1076043/

Man hat bei Nvidia kostenoptimiert gearbeitet, das Layout ist ja fast identisch. Klar wären 2x8 Pin dennoch begrüßenswert, die Wandler selbst sind aber ausreichend und kein besseres Netzteil hat ein Problem damit auch 500W über 6+8 Pin zu pressen ;)

Im Mobilbereich ist bei den neusten GM2xx Chip seit ~Februar das Bios signiert, um das (bei diesen Karten im Laptop von NV nicht gewollte) Übertakten zu verhindern. Damit können nur noch offizielle, signierte Bios-Dateien geflasht werden. Wenn das bei der Titan X auch der Fall wäre ginge das leider nicht mehr. Ob dem so ist sollten wir aber bald wissen, sobald die ersten Cracks das Bios dumpen und unter die Lupe nehmen.
 
Was darf überhaupt durch Dritthersteller bei der Titan geändert werden? Ein Lüfter darf nur "beigelegt" werden, oder? Und wie sieht es mit dem PCB aus? Vermutlich darf hier auch nicht Hand angelegt werden, d.h. die Stromversorgung mit 8+6pin ist fix, oder?
 
Das war also die neue Titan X.

Alles in einem gab es für mich keine große Überaschungen. Ca. 30% schneller als die 980, 12GB Speicher und sehr hohem Stromverbrauch bei nicht so ganz leisem Lüfter und enthusiasten Preis.

Man sieht aber hier auch deutlich, dass einfach nur mehr Strom und mehr Transistoren bei 28nm langsam nichts mehr bringen, wenn man ordentlich auf 4k zocken will. Da müssen jetzt mal neue Karten kommen, die von vornherein dafür ausgelegt sind, mit entsprechender Architektur und einem Shrink auf min 20nm.
 
PiPaPa schrieb:
Eine überteuerte Karte mit guter Leistung, verbesderungswürdiger Kühlung, gepaart mit 12GB "Marketing" RAM und einer schwachen DP Leistung...

In Relation zur 980 dürfte die Karte mit vielleicht 799€ kosten, aber so.... Eine weitere teure nvidia Karte ohne großartige Besonderheiten.

Rein von der praktischen Leistung her sogar eher 699.

Die meisten GTX980 im Handel boosten auf 1400 MHz. Da beträgt die Differenz zur TitanX in 1080p dann je nach Spiel nur noch 5-10%, manchmal max.15-20% , und das bei deutlich geringerer Lautstärke...


Die TitanX kann erst bei 1440p halbwegs glänzen aber ihre volle Leistung kann sie erst mit 4K zeigen.

Blöd nur, dass selbst 30-40% vorsprung bei 4K absolut gesehen viel zu wenig ist. Ich sehs ja bei meiner GTX980 mit DSR. Die hohe Auflösung blockiert die Karte so dermaßen, dass selbst bei mittleren-hohen Details die FPS in fordernden Spielen nicht wie erwartet ansteigen.
Das wird sich auch bei der TitanX nicht ändern. Wer es gewohnt ist, mit mindestens um die 45-50, besser 60 FPS spielen, der wird in der Leistungsregion einfach nicht glücklich. Mir wäre die TitanX für 4K hinten und vorne viel zu schwach. Zwei Stück davon würden wohl meistens ausreichen, aber da die Anforderungen der Spiele weiter steigen wirds das mit der guten 4K performance spätestens nach 1 Jahr gewesen sein. Und eine neue Titan ist da wohl nicht in sicht, wenns wieder 2 Jahre dauert...


Ich werd weiterhin bei meinen 2560x1080 bleiben, dafür ist die GTX980 die beste Karte am Markt. Die TitanX bekommt die Leistung hier einfach nicht auf die Straße und das obwohl mir die Performance teilweise in 1080p schon fast zu gering ist.
Witcher 3 und co werden mit max. Details in 1080p auch mit einer TitanX nicht mit 60 FPS laufen. Mehr Leistung wäre also auch unter 1080p nötig.
 
Die Titan X ist definitiv keine Karte für FullHD. Die Architektur des GM200 (vor allem die Speicheranbindung) spielt ihre Performance erst bei höheren Auflösungen aus bzw. die 970/980 knickt dort ein.
 
Faust2011 schrieb:
Hier ist bereits ein Wasserkühler verfügbar. Mit Backplate.

Super, vielen Dank für die Info :)

Faust2011 schrieb:
Was darf überhaupt durch Dritthersteller bei der Titan geändert werden? Ein Lüfter darf nur "beigelegt" werden, oder? Und wie sieht es mit dem PCB aus? Vermutlich darf hier auch nicht Hand angelegt werden, d.h. die Stromversorgung mit 8+6pin ist fix, oder?

Ja, soweit ich weiss darf an der Karte baulich nichts verändert werden, keine anderen Kühler und schon gar kein anderes PCB. Stromversorgung ist also leider fix. Nur der Takt ab Werk darf geändert und halt Beigaben dazugepackt werden.

Ich hoffe trotzdem, daß es per Mod-BIOS möglich sein wird, das Powertarget zu erhöhen und das nVidia diese Möglichkeit nicht hardwareseitig verhindert hat. Mal sehen...
 
nette karte aber uninteressant (noch) ! ;)

DP leistung muell leider ;), sparsam zu leistung aber relativ zum tatsaechlichen verbrauch ... na ja?!

fuer durchgaengig 4k spass find ich sie trotzdem zu "langsam"....

werde wohl auf pascal warten und mit monitor upgarden auf 4k :)
 
Faust2011 schrieb:
Die Titan X ist definitiv keine Karte für FullHD. Die Architektur des GM200 (vor allem die Speicheranbindung) spielt ihre Performance erst bei höheren Auflösungen aus bzw. die 970/980 knickt dort ein.

Ja, sinnvoll ist die Karte wirklich nur bei hohen Auflösungen. Ändert aber nichts daran, dass sie teilweise schon für 1080p "zu schwach" ist, je nach Ansprüchen eben und bei noch höheren Auflösungen ist sie erstrecht zu schwach.


Ich mein, bevor man mit 4K und/oder 120 Hz Monitoren wirbt, sollte man meiner Meinung nach erstmal sicherstellen, dass Spiele in 1080p erstmal durchgängig mit 60 FPS möglich sind ....mit einer 1000€ Karte.....
 
Zurück
Oben