Test Nvidia GeForce GTX Titan X im Test

Titan ist Kepler "beschnitten"
Titan Black ist Kepler vollausbau (ein Shaderblock mehr) und schnellerer Speicher
Titan Z ist Kepler, vollausbau aber extrem langsam getaktet als Dual GPU
Titan X ist Maxwell, vollausbau, dafür keine DP-Leistung.
 
Schnuggl schrieb:
@Andy Weil ich eben auf längere Zeit Ruhe haben möchte, auch in Anbetracht von 4k, möchte ich gerüstet sein.

Grüße
Schnuggl

Also nimmst dir Triple SLI nachteile gerne mit. Ok.
 
Hat CB bei dem Testrechner EIST usw ausgeschaltet? Die IDLE-Stromtabelle deutet drauf hin. Ansonsten wären die Werte viel zu hoch. Mein Sys verballert IDLE, halt mit EIST und dem ganzen Zeug in Standardeinstellungen, nur etwas über 50 Watt. Ja ich hab auch hier nachgelesen (https://www.computerbase.de/artikel/grafikkarten/grafikkarten-testverfahren.2435/), nur steht da halt nich, ob ihr den Intel dauerhaft auf den 4,4Ghz laufen laßt oder ob er runtertaken/volten darf.

Wenn CPU-Stromspartechniken dauerhaft aus sind, dann liegt diese Titan im grünen Bereich und saugt IDLE effektiv nicht mehr als meine 780ti und unter Last sogar nen Tick weniger.

Alles supi, bis auf den Preis :cool_alt:
 
Zuletzt bearbeitet von einem Moderator:
Ich hab jetzt nicht den ganzen thread verfolgt aber, Asus & Co dürfen an der Karte nichts verändern oder ? (z.B. 2x 8Pin etc.)
Dann wäre nen Sli Gespann wirklich Reizvoll aber so keine Ahnung. Mal schauen was sich mitner Wasserkühlung ansonsten noch raushohlen lässt.
 
Netter "Test" - oder soll ich lieber "Werbung" sagen?

Die Karte ist schlecht - die R9 295X ist in ziemlich jedem Setting besser. (jaja, Microruckler blablubb... ). Und 4k Gaming packt die Titan auch nicht.

Nvidia Failforce GTX Titan... einfach nur lächerlich, die Karte. Wer die kauft, muss Fanboi/Fangirl sein.
 
ragnarok666 schrieb:
Der einzig relevante Vorteil von HBM bei R390x dürfte die deutlich geringere Leistungsaufnahme gegenüber DDR5 sein.
Da gibts aber noch mehr Vorteile:
- der HBM Controller bzw. Anschluss auf der GPU müsste einfacher gestrickt sein (kleiner sein) als ein GDDR5 controller, da der Großteil der Steurung sich auf dem 0-Layer des Stacks befindet - wobei ich da erstmal ein Die-Shot der 390X sehen würde.
- Wenn man Bandbreite en masse hat, dann kann man sich auch hardwaretechnische Maßnahmen in der GPU, die zur Einsparung der Bandbreite dienen, weglassen (Cache, Datenkompressoren) und durch Shader ersetzen
- Bandbreite ist für GPU Computing eine sehr wichtige Ressource und wird immer relevanter auch für Spiele
 
Ravek schrieb:
Ich hab jetzt nicht den ganzen thread verfolgt aber, Asus & Co dürfen an der Karte nichts verändern oder ? (z.B. 2x 8Pin etc.)

Ja, so ist es. Keine Änderungen am PCB erlaubt. Und Lüfter dürfen nur zur Selbstmontage durch den Endverbraucher beigelegt werden.
 
interessant, aber auch uninteressant.

das fazit ist im grunde: brachial mehrleistung, ABER für fullHD reichen auch die kleineren karten ohne weiteres und für 4k ist das ganze gerademal auf der unteresten ebene was spielbarkeit betrifft...
ich schätze bis 4k gaming wirklich relevant wird, dauer noch eine kleine weile.
ich glaube weder maxwell noch fuji werden da was wirklich reissen, den die technik ist noch nicht so weit...
 
HisN schrieb:
Ungenutztes VRAM ist genau so blöd wie ungenutztes SystemRAM. Aber das letztere ist ja in den letzten Jahren "behoben" worden.
Das habe ich auch nicht bestritten...
Ich habe nicht das "vollladen" des VRAMs kritisiert, sondern die Interpretation des Umstandes und die direkte Korrelation zum tatsächlich benötigten Speicher.
Also ich würde mir ein sinnvolles und kein sinnloses vollballern des VRAMs wünschen. Sprich: die Texturen, welche mit innerhalb der nächsten xx Sekunden überhaupt angezeigt werden können. Eine Textur, welche erst 10 min später am Levelende vorkommt, muss am Levelanfang noch nicht im Vram sein, sonder kann währenddessen nachgeladen werden (und das wird ja auch so gemacht). Wenn du ein Fan davon bist, trotzdem die auf absehbarer Zeit nicht benötigten Texturen in den Ram zu laden, dann darfst du das dir gerne wünschen (auch wenn es objektiv keinen Vorteil bringt, außer dir anscheinend das "gute" Gefühl...). Eine direkte Korrelation des belegten Speichers mit dem benötigten Speicher ist trotzdem unsinnig, ohne weitere Daten zu liefern. Gerade als Ersteller des Threads: VRAM-Gebrauch aktueller Games hätte ich eigentlich eine etwas differenziertere Betrachtung erwartet bzw. finde es sonderbar, dass eine solcher Hinweis überhaupt nötig ist...
 
Raucherdackel! schrieb:
Netter "Test" - oder soll ich lieber "Werbung" sagen?

Die Karte ist schlecht - die R9 295X ist in ziemlich jedem Setting besser. (jaja, Microruckler blablubb... ). Und 4k Gaming packt die Titan auch nicht.

Nvidia Failforce GTX Titan... einfach nur lächerlich, die Karte. Wer die kauft, muss Fanboi/Fangirl sein.

Einer 295X2 würde ich dennoch heute nicht mehr den Vorzug geben, denn was man hier wirklich schön sieht wie innerhalb der nVidia-Familie 4GB VRAM in den Testszenarien sehr knapp werden.
 
Unter Last bleibt die Geräuschkulisse vertretbar
Bleibt sie nicht, das Teil hat Stromverbrauch und Lautstärke einer Stock 290X und wird nicht zerrissen?
Die 290X wurde vor etwas über einem Jahr deswegen auseinander genommen, ist die CB Redaktion etwa durch den damaligen Test taub geworden oder wieso wird das mehr oder minder salopp behandelt?

Ich meine, nette Karte ist es ja, aber wie schaut die Effizienz bei verändertem Powertarget und OC aus?
 
Also irgendwie ist der bittere Nachgeschmack nach dem GTX 970 Speicherdebakel bei Nvidea geblieben. Die Marketingabteilung glaubt es sich leisten zu können, dass keine alternativen Kühllösungen (Titan) für die Boardpartner erlaubt werden müssen und auch keine Freigabe für erweiterten Vram (GTX 970/980) gegeben wird. Die teureren Karten werden immer schön auf die eine oder andere Weise künstlich beschnitten.
 
Klikidiklik schrieb:
Noch nie so viel Dünschiss gelesen. Du vergleichst ernsthaft einen top aktuellen Chip von Nvidia mit einem AMD Chip von 2011? :freak: :lol:

ist das meine schuld, dass amd seit dem keine neuen chips raus gebracht hat? ich kann nur das aktuelle von hersteller A mit dem aktuellen von hersteller B vergleichen. falls es dich interessiert, der fx 8350 ist von 2012. der musste sich mit haswell (refresh) messen, wird sich dieses jahr mit broadwell messen und im nächsten jahr (oder auch in diesem) mit skydingsbums messen. der vergleich ist dann auch - aus deiner sicht - fürn popo, weil der alte chip ist ja alt. so darf man nicht vergleichen. ja ne, is klar.
 
ragnarok666 schrieb:
Was Kasmopaya schreibt ist keine Meinung sondern einfach eine lineare Interpolation, die sich auch mit dem Mooresches Gesetz deckt (Verdopplung der Integrationsdichte alle 2 Jahre). Bei Profikarten werden wir wohl die 48Gb noch vor 2019 sehen, siehe auch die andere News von Heute zu Voltera. Die Entwicklung im CPU Bereich läuft im übrigen auch noch mit diesen Tempo. Intel tritt zwar momentan etwas auf die Bremse bei dem was sie im Consumerbereich verramschen, im Serverbereich kannst du bereits Heute 18-Kerner kaufen.

Der Rest den du schreibst zeigt nur, dass du die technischen Hintergründe nicht verstehst. Dir bringt der schnellste VRAM nichts, wenn du nicht alle benötigten Daten dort vorhalten kannst. Ist der VRAM zu klein muß aus dem Systemspeicher, oder gar von der HDD geladen werden, und diese sind um Größenordnungen langsamer angebunden. Der einzig relevante Vorteil von HBM bei R390x dürfte die deutlich geringere Leistungsaufnahme gegenüber DDR5 sein. Das was man hier im VRAM einspart wird stattdessen einfach in der GPU verblasen, damit läßt sich die Energieeffizienz der gesamten Karte weiter steigern, als es die Verbesserung des Chips alleine zulassen würde (könnte daher als Gesamtpaket ev. sogar Maxwell schlagen) . Der dramatisch höhere Datendurchsatz ist zumindest bei Grafikkarten momentan nicht relevant, da ich keine aktuelle Performance-/Enthusiast- Karte kenne, die dadurch limitiert ist. Wie es im Profibereich aussieht kann ich aber nicht beurteilen.

Es ist immer wieder schön von völlig Fremden belehrt zu werden.

Es ist mir im Moment auch zu mühsam, irgendetwas aus dem Internet herauszukitzeln das etwas beweist bzw widerlegt.
Dennoch bringt die Entwicklung immer wieder neue Technologien hervor, die den Messwert für aktuelle Technologien ad absurdum führt. Beispiele werden dir dafür selber genug einfallen.
Simple Verdoppelung alle heiligen Zeiten ist auch nicht der heilige Grahl, es gibt genug Anwendungsszenarien, die sich nicht zu 100% parallelisieren lassen und demzufolge einfach mehr vom Gleichen nichts oder nur sehr wenig bringt.
Ein weiterer Aspekt zum Thema moorsches Gesetz ist auch die auf die Hardware aufsetzende Software, und da kann man unbestritten sagen, dass diese in weiten Teilen der Hardwareentwicklung hinterher hängt (vorallem im Customer Bereich, von dem wir hier in diesem Forum zum größten Teil reden)

Und das ist auch der Ansatz, den ich in meinem Posting verfolgt habe, denn zum Glück ist nicht nur die Integrationsdichte, sondern auch die zugrundeliegende Technologie und Software relevant.

Du hast natürlich Recht, ich bin selbstverständlich kein Experte was Speichersteuerung und -programmierung betrifft, ich habe auch noch nie selbst einen Speichercontroller designed. Daher kann ich auch nicht ausschließen, was eine neue Technologie (HBM) sonst noch anstößt. Gut, dass du darüber so genau bescheid weist.
 
@habichtfreak
Doch natürlich. Nimm doch die aktuellen Karten zum Vergleich, z.B. die 290X. Alles andere hat ein Geschmäckle.
 
Zurück
Oben