Test Nvidia GeForce GTX Titan X im Test

habichtfreak schrieb:
ich ignoriere einfach mal den preis, denn in erster linie interessiert mich, was kann hardware leisten (deswegen lese ich tests). gleicher stromverbrauch wie ein r9 280X und doppelte leistung. das kann man drehen und wenden wie man will, nvidias chip ist doppelt so effizient wie der von amd. ich bezweifle ganz stark, dass die 300er reihe das aufholen kann.

auch wenn ich niemals bereit wäre 1000 euro für ne graka zu investieren, freut es mich zu sehen, dass die entwicklung nicht nur auf "leistung auf teufel komm raus" beschränkt ist, sondern auch der stromverbrauch beachtung findet. vor vielen jahren war das mal ein argument für amd. schade, dass sie heute intel und nvidia hinterher laufen. vllt ändert sich das eines tages wieder ...

Meine Meinung.
Muss man nicht verstehen dass hier (fast) alle Scheiße rufen...
Das Teil zeigt doch nur was zur Zeit möglich ist. im Vergleich zur 290X, die ja bei jedem -Will Gamer PC bauen- Thread empfohlen wird hat das Teil ca. 50% mehr Leistung und verbraucht wesentlich weniger Strom. Wenn AMD das jetzt mit dem neuen Flaggschiff annähernd hinkriegt wird hier wieder Beifall geklatscht...
AMD ist doch einzig und allein noch über den Preis attraktiv, der ja notgedrungen niedrig ist. Wenn die so ein Flaggschiff am Markt hätten mit ähnlichem Leistungsvorsprung würde es kein Cent weniger kosten als das Teil hier (abgesehen von hochgezüchteten 2GPU Mutanten für den man nen eigenes AKW braucht).
Die Zeiten waren schonmal besser für AMD/ATI, ich denke da an die ATI 9800 Pro und nen dicken Athlon XP:).
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Eigentlich nicht(wüsste nicht was, vielleicht die NV Beschimpfungen?), bei mir müssen es mindestens 12GB Vram sein, kein MB weniger. 2019 müssen es fast schon 50GB sein wenn die Titan X wie üblich 4 Jahre im Rechner verweilt.

32MB GPU
2003: 5900FX 128MB x4
2007: 8800 GTX 768MB x6
2011: GTX 580 3GB x4
2015: Titan X 12GB x4
ca. 2019: Titan XYZ 48GB x4

Ich will deine Meinung in keinster Weise kritisieren oder beeinflussen, aber bist du dir sicher, dass dieses Muster bist 2019 so fortgesetzt wird?
Du könntest, bevor du voreilig zu einem "Technologiesaurier" greifst abwarten, welche Performance HBM in der Realität bringt. Sollte sich durch die hohe Bandbreite herausstellen, dass HBM Speichermengen jenseits der 8gig obsolet sind, ist nichts verwerfliches daran, von Kapazität auf Bandbreite zu wechseln.
Sieh dir doch die CPU Entwicklung an, wen es nach deiner Rechnung geht, müssten derzeit schon 64Kerner mit 10THz in jedem Office Rechner stecken.
Ich möchte mich hier für keine der beiden Farben (rot/grün) aussprechen, aber würde ich bereit sein, 800 - 1300€ für eine PC Komponente auszugeben, würde ich zumindest abwarten, bis es ein passendes Konkurenzprodukt gibt (wie gesagt HBM =! GDDR5) und dann entscheiden, welches Produkt besser für einen 4 Jahreszyklus geeignet ist.
Ich würe mir auch Gedanken darüber machen, dass ab 2016 nur noch (im High End) HBM verbaut wird, und sich uU auch die Spielebranche drehen kann.
 
Ich verstehe nicht, warum man bei solchen teuren Karten, so schrottigen Kühler verbaut. Die 50 Euro für einen Morpheus samt Lüftern und RAM Kühlung oder ähnliches, hätten sicher wesentlich bessere Temperaturen und somit einen niedrigeren Verbrauch zustande gebracht.
 
oldman65 schrieb:
Das nächste spiele Highlight ist Star Citizen für mich. Solange hällt hoffentlich meine 780 Ti durch.
Auf 1350/2000 ist sie gleich auf mit der 980, wozu jetzt Perlen vor die Säue werfen.
12 GB vram, sind wir mal ehrlich ist doch mehr ein Marketinggag als es eventuell Nutzer geben könnte die davon profitieren.
Mit 6-8 GB Vram hätte man die Kuh im Dorf gelassen :evillol:

Aber gerade in Star Citizen sind 6GB zu wenig.
Im Moment ist ja alles was es gibt in der Garage.. füllt meine 6GB Restlos. Und jetzt?
 
WC_Ente schrieb:
Abwarten, wie viel Unwissende / Fanboys sich die Titan X für DP kaufen:lol:

naja von jemand der sich mit Dingen wie DP Leistung beschäftigt erwarte ich schon, dass er sich zuvor schlau macht.
 
Also mein Senf, tolle Karte wenn ich von einer 680er und weniger upgrade und nicht auf das Geld schauen muss.
Aber der Verbrauch bei BlueRay "steigt" :-( Nur DX 12.1 Setlevel, Kein H265 hardwaremäßig, Kühlsystem ist ein Scherz bei 1200€ die man auf den Tisch legt. Auch negativ das es keine 2 8er Stecker gibt, das Powertarget begrenzt.

Es ist ein fetter Chip aber nicht der große Wurf, Spielbarkeit ist bei 4k noch nicht gegeben oder will mir wer sagen das maximal 30fps völlig ausreichen bei einen Shotter und co. ? Hier müsste ich 2fach Sli System aufbauen und dafür ist mir das Geld wirklich zu schade.

mfg

Nachtrag: Ich verstehe nicht wieso nicht bei Nvidia und AMD es nicht möglich ist Sektionmäßig die Karte zu deaktivieren zwecks Strom sparen beim Blue Ray ansehen. Da werden 20% der Shader ausreichen für eine flüssige Darstellung. Oh der neue 4k BlueRay Standard wird auch nicht unterstrützt :-(

Sie sollten man bei ARM nachschauen wie die es hin bekommen mit der Kernabschaltung bei deren Big-little system. Das müsste doch möglich sein dies auf Grafikkarten ansatzweise umzusetzen.
 
Zuletzt bearbeitet:
habichtfreak schrieb:
ich ignoriere einfach mal den preis, denn in erster linie interessiert mich, was kann hardware leisten (deswegen lese ich tests). gleicher stromverbrauch wie ein r9 280X und doppelte leistung. das kann man drehen und wenden wie man will, nvidias chip ist doppelt so effizient wie der von amd. ich bezweifle ganz stark, dass die 300er reihe das aufholen kann.

auch wenn ich niemals bereit wäre 1000 euro für ne graka zu investieren, freut es mich zu sehen, dass die entwicklung nicht nur auf "leistung auf teufel komm raus" beschränkt ist, sondern auch der stromverbrauch beachtung findet. vor vielen jahren war das mal ein argument für amd. schade, dass sie heute intel und nvidia hinterher laufen. vllt ändert sich das eines tages wieder ...

Naja die R9 280X ist ja jetzt nicht unbedingt ein brandneues Produkt, immerhin ist es im Kern eine 7970, die irgendwann Anfang 2011 entwicklet wurde und Ende 2011 auf den Markt kam, das mit einem Produkt zu vergleichen, welches 2014?? entwickelt wurde und 2015 auf den Markt gekommen ist, ist ein bisschen derb.
Sinnvoller wäre es, 290X als Vergleich heranzuziehen, die zwar auch nicht die gleiche Generation ist, jedoch wesentlich näher (vom Datum her) an der Titan X liegt. Sieht zwar immer noch gut für die Nvidia Karte aus, aber nicht mehr ganz so abgehoben. Auch zwischen Thaiti und Hawaii gibt es einen großen Effizienzsprung, warum sollte das AMD dieses mal nicht gelingen?
 
deathscythemk2 schrieb:
Ich verstehe nicht, warum man bei solchen teuren Karten, so schrottigen Kühler verbaut. Die 50 Euro für einen Morpheus samt Lüftern und RAM Kühlung oder ähnliches, hätten sicher wesentlich bessere Temperaturen und somit einen niedrigeren Verbrauch zustande gebracht.

Das Problem dabei ist, dass der Morpheus und ähnliche, offene Kühler die Abwärme nicht direkt aus dem Gehäuse blasen. In einem "worst case" (in wahrsten Sinne des Wortes ;) ) mit sehr schlechter Belüftung wird nicht nur die Grafikkarte selbst Hitzeprobleme bekommen, sondern möglicherweise auch andere Komponenten.

Auch wenn man annehmen sollte, dass jemand, der sich eine 1000€-Karte kauft, auch ein gut belüftetes Gehäuse hat. Bei Referenz-Kühler muss halt auf auch besonders schlecht belüfteten Gehäuse Rücksicht genommen werden. Die Referenzkarte muss auch dann funktionieren, auch wenn sie dabei sehr laut wird und nicht das volle Turbo-Potential ausschöpfen kann.

Eine Alternative zu den geschlossenen Referenz-Blowern sind AiO-Wasserkühler, weil sie ebenfalls die Luft im Gehäuse nicht aufheizen. Würde mich nicht wundern, wenn man sowas nicht nur bei AMD in Zukunft öfter sieht.
 
tja, wenn geld keine rolle spielte würde ich da schon schwach werden... andererseits langweilt sich meine 970 ja schon bei dem was ich zur zeit so zocke:D
relativ schwach finde ich aber das kühlsystem, da könnte man mMn bei dem abartigen preis was besseres erwarten. andererseits werden wohl nicht wenige Titan X unter wasser gesetzt werden... aber trotzdem.
 
Nette Karte.
Aber ist es wirklich nötig sich so ein Monstrum (Stromverbrauch) anzuschaffen?
Na klar werden sich da eineige als Prestigeobjekt anschaffen, aber ich finde Nvidia übertreibt.
12Gb Vram sind NOCH zuviel und die Kühlung ist unzureichend.

Ich für meinen Teil warte auf die neue Amd Reihe und kucke mal wa ich mir neues hole.
 
Schöner Test - Danke.

Aber nix für mich und mein Full HD.
 
Wenn die Gerüchte stimmen bezüglich der AMD 390x (65% + gegenüber 290x) wird Nvidia bald nicht mehr die stärkste SingleGPU stellen. Und dabei bleibt die Chipfläche wohl auch kleiner als bei der Titan X...
 
HisN schrieb:
Aber gerade in Star Citizen sind 6GB zu wenig.
Im Moment ist ja alles was es gibt in der Garage.. füllt meine 6GB Restlos. Und jetzt?
http://abload.de/image.php?img=starcitizen_2015_03_1xxkc5.jpg
Speicherauslastung ≠ benötigte Speichermenge. Ohne die Angabe von Leistungseinbußen, welche ausschließlich auf einen kleinen Speicher zurückzuführen sind, sind diese "Auslastungsscreenshots" als Indiz für die benötigte Speichermenge absolut irrelevant. Einfach möglichst viele Dinge in den Speicher laden, ist nie ein Problem.
 
Wenn man bedenkt, dass die GM200-GPU nach wie vor im 28-nm-Herstellungsprozess gefertigt wird, ist der Leistungssprung erstaunlich. Nicht wenige hielten das Fertigungsverfahren mit der GK110-GPU bereits für ausgeschöpft. Den Stromverbrauch sehe ich überhaupt nicht als Problem an. Wer eine solche Leistung will, muss einfach damit rechnen. Außerdem verbraucht die Karte nicht mehr Energie als eine wesentlich langsamere R9 290X.
 
major_tom111 schrieb:
Ich will deine Meinung in keinster Weise kritisieren oder beeinflussen, aber bist du dir sicher, dass dieses Muster bist 2019 so fortgesetzt wird?
Du könntest, bevor du voreilig zu einem "Technologiesaurier" greifst abwarten, welche Performance HBM in der Realität bringt. Sollte sich durch die hohe Bandbreite herausstellen, dass HBM Speichermengen jenseits der 8gig obsolet sind, ist nichts verwerfliches daran, von Kapazität auf Bandbreite zu wechseln.
Sieh dir doch die CPU Entwicklung an, wen es nach deiner Rechnung geht, müssten derzeit schon 64Kerner mit 10THz in jedem Office Rechner stecken.
Ich möchte mich hier für keine der beiden Farben (rot/grün) aussprechen, aber würde ich bereit sein, 800 - 1300€ für eine PC Komponente auszugeben, würde ich zumindest abwarten, bis es ein passendes Konkurenzprodukt gibt (wie gesagt HBM =! GDDR5) und dann entscheiden, welches Produkt besser für einen 4 Jahreszyklus geeignet ist.
Ich würe mir auch Gedanken darüber machen, dass ab 2016 nur noch (im High End) HBM verbaut wird, und sich uU auch die Spielebranche drehen kann.

Was Kasmopaya schreibt ist keine Meinung sondern einfach eine lineare Interpolation, die sich auch mit dem Mooresches Gesetz deckt (Verdopplung der Integrationsdichte alle 2 Jahre). Bei Profikarten werden wir wohl die 48Gb noch vor 2019 sehen, siehe auch die andere News von Heute zu Voltera. Die Entwicklung im CPU Bereich läuft im übrigen auch noch mit diesen Tempo. Intel tritt zwar momentan etwas auf die Bremse bei dem was sie im Consumerbereich verramschen, im Serverbereich kannst du bereits Heute 18-Kerner kaufen.

Der Rest den du schreibst zeigt nur, dass du die technischen Hintergründe nicht verstehst. Dir bringt der schnellste VRAM nichts, wenn du nicht alle benötigten Daten dort vorhalten kannst. Ist der VRAM zu klein muß aus dem Systemspeicher, oder gar von der HDD geladen werden, und diese sind um Größenordnungen langsamer angebunden. Der einzig relevante Vorteil von HBM bei R390x dürfte die deutlich geringere Leistungsaufnahme gegenüber DDR5 sein. Das was man hier im VRAM einspart wird stattdessen einfach in der GPU verblasen, damit läßt sich die Energieeffizienz der gesamten Karte weiter steigern, als es die Verbesserung des Chips alleine zulassen würde (könnte daher als Gesamtpaket ev. sogar Maxwell schlagen) . Der dramatisch höhere Datendurchsatz ist zumindest bei Grafikkarten momentan nicht relevant, da ich keine aktuelle Performance-/Enthusiast- Karte kenne, die dadurch limitiert ist. Wie es im Profibereich aussieht kann ich aber nicht beurteilen.
 
Zuletzt bearbeitet:
Die wirklich interessante Aussage dieses Tests ist die damit fast schon beschlossene Roadmap für VR-Headsets bis 2018. ;)
 
Seppuku schrieb:
Speicherauslastung ≠ benötigte Speichermenge. Ohne die Angabe von Leistungseinbußen, welche ausschließlich auf einen kleinen Speicher zurückzuführen sind, sind diese "Auslastungsscreenshots" als Indiz für die benötigte Speichermenge absolut irrelevant. Einfach möglichst viele Dinge in den Speicher laden, ist nie ein Problem.

Aber was ist langsamer?
Die Daten im lokalen Speicher, oder die, die ich von RAM oder sogar Festplatte holen muss? Ihr seit an klein Ruckler schon so dermaßen gewöhnt, dass es gar nicht mehr auffällt. Ich wünschte mir, dass alle Entwickler das VRAM einfach sinnlos vollballern. Ungenutztes VRAM ist genau so blöd wie ungenutztes SystemRAM. Aber das letztere ist ja in den letzten Jahren "behoben" worden. Und Du glaubst nicht wirklich dass "nutzlose" Daten im VRAM liegen?
Mir ist jedenfalls volles VRAM lieber, als eine Engine die ständig mit Daten im zu kleinen VRAM jonglieren muss.
Und selbst bei Star-Citizen ist das nachträgliche Laden der verschiedenen Textu-Schichten selbst auf den großen Karten zu bewundern *würg*. Da würde ich mir auch weniger Streaming wünschen.
 
Zuletzt bearbeitet:
Kann mal Einer den Unterschied zwischen der GTX Titan,GTX Titan Black,GTX Titan Z und nun GTX Titan X erklären?

Die Titan Z ist soweit ich weiß ne Dual GPU aus 2 Titan Black oder?
 
Kasmopaya schrieb:

Das hättest du dir schenken können , seidenn deine Glaskugel funktioniert besser als meine, oder deine Kräuter knallen mehr :P
 
Zurück
Oben