Test Nvidia GeForce GTX Titan X im Test

Irrlicht_01 schrieb:
@mackswell
:freak: - das ergibt keinen Sinn

Da war noch ein Post zwischen deinem und meinem, welcher zwischenzeitlich gelöscht wurde. Deshalb erscheint meiner nun sinnlos, denn er hätte mitgelöscht werden müssen.
 
jetzt ist die titan x raus.

bald kommt bei computerbase die meldungen mit den treiberoptimierungen für spiele ...

paar sinnlose prozent mehr leistung juhuuuuuu
 
Wäre CB nicht so Contra Nvidia hätte man dieses Max weggelassen da es sinnbefreit ist.

Dieses Max verhindert, dass der Takt sinkt.
Dass O ohne Erhöhung des PT oder nur mit leichter mehr bringt, als einfach die Karte auf max zu stellen, ist das Prblem von Nvidia.
Die haben diesen Blödsinn "Boost" erfunden, der nix anderes wie Marketing ist und keinen Nutzen hat.
 
Krautmaster schrieb:
EIST ist fast egal. C-States sind wichiger.
Möglich. Bei meinem MSI-Board macht EIST den Großteil scheinbar. Zumindest, wenn ich C1E abschalte passiert rein garnischt. Bei EIST aber sehr wohl.

Aber ich geb mir die Antwort mal selber, ja Stromsparer sind aus. Muß so sein, glaub nich das die ganze Tabelle falsch ist :evillol:
HeinzNeu schrieb:
Auch der Stromverbrauch erscheint mir sogar ziemlich gering.
Find ich auch! Diese neue Titan macht alles richtig und das man nich den Stromverbrauch der Gtx980 erreichen kann bei soviel Mehrleistung, sollte jedem denkenden Mensch doch klar sein.

Wo viel leistung rauskommen soll, muß auch ein gewisser Input gewährleistet sein. Und wenn ich überlege, das der Lastverbrauch des Testsystems 20-40 Watt unter dem von mir mit der übertakteten 780ti liegt -was will man mehr? Ich schreibs gern nochmal, wer sich diese Karte kauft, den interessiert nich ob sie 200 oder 260 Watt (alleine) aus der Dose zieht. Zahlen nur als fiktive Hausnummer genommen.

Für 600 nehm ich sie im April mit Kußhand. :freaky:

Edit= Jede Wette, das HisN bis zum Sommer 2 davon hat. Ich mein seine alten Titans erzielen ja noch nen guten Gebrauchtpreis ;)
 
@Krautmaster

1. CB hat das "schon immer" so getestet.
2. CB testet nicht mit "Max Übertaktung" bei normalen Tabellen, dafür haben sie eine Extra Seite für so was.

Es ist jetzt völlig egal ob es deiner Meinung nach Schwachsinn ist oder nicht. Also ich halte es für einen Schwachsinn, wenn nicht konsequent so weiter getestet wird wie immer.
 
Zuletzt bearbeitet:
Nur weil immer so getestet wurde heißt nicht dass es "gut" ist.
Man muss sich nur die Tests zu quasi allen neueren Nvidia Karten anschauen. Da hat Max nie viel mit OC zu tun sondern dient vorallem zu einem... den Verbrauch und die Lautstärke nach oben zu treiben ;)

Edit: Bei der GTX 980 sind es 5% durch "Max" und 13-16% durch OC. Die 5% kosten 50W, gut 30% des Gesamtverbrauch der Grafikkarte!! OC wiederum "nur" weitere 24W und das bei 13-16% mehr Power.

Wenn man natürlich darüber hinweg sieht weil man einfach etwas gegen NV hat... dann versteh ich die Argumentation durchaus.

Ich bin absolut der Meinung, dass dieses Max Zeug nichts im Rating zu suchen hat. In der speperaten OC Betrachtung umso mehr. Da kann man aber auch ruhig mal klarstellen dass es mit MAX nichts zu tun hat.
Das hat wenig mit dem Regelwerk zu Tests generell zu tun. Wegen mir kann man gern diese "Max" Balken über verschiedene Grafikkarten hinweg vergleichen, im OC Part eben.

@smilefaker

-> der Boost ist analog das was es bei den CPU beim Turbo gibt, und auch absolut sinnvoll wenn es darum geht die TDP auszulasten. Manche Games lasten die Shader und den CHip unzureichend aus sodass eben hauptsächlich über den Takt noch Raum für Mehrleistung ist, ohne die TDP zu sprengen. Genau genommen ist der Boot wirklich ein gutes Feature, vorallem bei kleineren TDPs. Auch die Trägheit des Kühler kann man so nutzen, wobei auf GPU Seite die Last meist länger anhält als bei der CPU die eher nur kurze Spitzen abfedern muss. Bei CPU ist der Turbo noch sinniger. Gerade bei CPU mit vielen Kernen (zB 12 -15 ) oder auch bei kleinen TDP.
 
Zuletzt bearbeitet:
Es ist doch bloss ein Benchmark und nichts anderes. Was regst du dich so auf...

Max bedeutet da einfach: Ohne Limite (und damit gemeint ist was ohne BIOS Mod möglich ist)
Nichts anderes.


Wenn es für dich so schlimm ist, dann schau dir andere Tests an. Es gibt dutzende davon. Jeder testet es ein kleinwenig anders.
 
Die Karte ist doch etwas enttäuschend:
- miese Kühlung für NV-Verhältnisse, bei 1000€ darf man mehr erwarten
- miese DP, die DP war ja noch einer der Gründe die für die alten Titanen gesprochen hatte
- Der Stromverbrauch fällt einen Ticken zu hoch aus. Mehr als 250W sollte es mMn nicht sein.

Die 12GB sind natürlich eine feine Sache. Der Preis ist mal wieder zu hoch angesetzt, angesichts der Einschränkungen ohnehin. Da dürfen nochmal 300€ wegfallen.
 
Krautmaster schrieb:
Man muss sich nur die Tests zu quasi allen neueren Nvidia Karten anschauen. Da hat Max nie viel mit OC zu tun sondern dient vorallem zu einem... den Verbrauch und die Lautstärke nach oben zu treiben ;)
Wäre auch in Ordnung, wenn Computerbase AMD und der AMD Fanbasis gefallen will. Nur dazu sollte auch mal klar kenntlich gemacht werden, was sich hinter "max" verbirgt. Ist ja seit Jahren ein Geheimnis, das nur mal im Forum erläutert wird.
 
Die Karte lässt sich erst endgültig bewerten wenn ein modifiziertes BIOS verfügbar ist IMO.

Zwischenfazit jedoch: Überraschend hoher Verbrauch, ich denke niemand hat erwartet, dass sie so viel verbraucht wie eine 290X.

Und jetzt etwas subjektiver von mir:
Leider kein guter Lüfter/Lüfterkurve, wenn sie bei Standardeinstellungen wegen der Temperatur bremst. Den "normalen" Titan Käufer wird das nicht stören, da dieser vermutlich nichts auf Standard lässt. Ein wenig schwach jedoch, dass man wieder versucht OC zu limitieren (6+8-Pin, BIOS, keine custom PCB/LuKüs).
EVGA liefert da zum Glück ne WaKü von Haus aus.
Von NVidias Seite IMO ein schwaches Produkt mit einem starken Chip.
 
Zuletzt bearbeitet:
Die Sache mit dem PT würde ich ohnehin über ein Mod.-BIOS lösen. Die paar Watt mehr sind mir ziemlich gleichgültig.
 
poi schrieb:
Die Karte lässt sich erst endgültig bewerten wenn ein modifiziertes BIOS verfügbar ist IMO.
Das kannst du doch selbst erstellen. Der Maxwell-Bios Tweaker sollte da sicherlich taugen
 
HeinzNeu schrieb:
Die Sache mit dem PT würde ich ohnehin über ein Mod.-BIOS lösen. Die paar Watt mehr sind mir ziemlich gleichgültig.
Es gibt keine Garantie, daß dies möglich sein wird. Das Power-Target könnte auch eine Obergrenze haben, welche in Hardware gegossen wurde. Dann kommt man ohne Lötkolben nicht weiter. Es ist grundsätzlich möglich, daß nVidia da Änderungen gegenüber der letzten Titan vorgenommen hat, schließlich konnten sie ja sehen, daß die Begrenzung umgangen wurde.

Ich persönlich hoffe aber auch auf ein Mod-BIOS, eine Kaufentscheidung würde ich aber nicht von dieser Möglichkeit abhängig machen.

Fried_Knight schrieb:
Das kannst du doch selbst erstellen. Der Maxwell-Bios Tweaker sollte da sicherlich taugen
Kann man, das Power Target läßt sich damit aber nicht so einfach aushebeln. Das erforderte beim letzten Mal mehr Mühe und Know-How meines Wissens.
 
Eine solche Hardwarebegrenzung des PTs wäre Seppuku für die Titan x. Solche Modifikationen gehen auch bei allen anderen Maxwell-Karten. So etwas wird es mit sehr hoher (extrem hoher) Wahrscheinlichkeit nicht geben.
 
dexplus schrieb:
Da warte ich lieber auf auf die 980 Ti mit 6 GB und die R9 390X, die nochmals deutlich schneller als die Titan X sein soll.

Das geht garnicht, wie kann du sowas behaupten wenn die Karte nicht Verfügbar ist ? Wenn die Leaks nicht mal bestätigt worden sind ? Nicht das du am Ende weinst weil es nicht so ist, darauf werde ich schon achten und dir es unter die Nase reiben.
 
MADman_One schrieb:
Kann man, das Power Target läßt sich damit aber nicht so einfach aushebeln. Das erforderte beim letzten Mal mehr Mühe und Know-How meines Wissens.
Wos? Nö. Das ging ganz einfach.
 
rockwell1080 schrieb:
Da gibts aber noch mehr Vorteile:
- der HBM Controller bzw. Anschluss auf der GPU müsste einfacher gestrickt sein (kleiner sein) als ein GDDR5 controller, da der Großteil der Steurung sich auf dem 0-Layer des Stacks befindet - wobei ich da erstmal ein Die-Shot der 390X sehen würde.
Da hast du recht. Ist aber nur ein Vorteil für AMD, da der Chip minimal kleiner und damit günstiger wird. Das man das an den Kunden direkt weitergibt bezweifle ich, der Preis wir eher je nach Marktlage so hoch wie möglich sein. Ich weiß aber leider nicht, wie dann letztendlich die 4096 Leitungen vom Stack zum Chip gehen. Wenn hier Silicon Vias verwendet werden ist hier einiges an Platz nötig.

rockwell1080 schrieb:
- Wenn man Bandbreite en masse hat, dann kann man sich auch hardwaretechnische Maßnahmen in der GPU, die zur Einsparung der Bandbreite dienen, weglassen (Cache, Datenkompressoren) und durch Shader ersetzen
Einen großen Cache wird man auch weiterhin brauchen, dieser ist nach wie vor nötig wegen der doch deutlich geringeren Latenz verglichen mit dem VRAM und immer noch deutlich größeren Bandbreite: http://techreport.com/review/26977/intel-core-i7-5960x-processor-reviewed/4
Über die Latenz von HBM weiß ich leider nix, gehe aber nicht davon aus, daß diese nicht mal annähernd an den L1 Cache ran kommt. Und wenn die Daten-Dekompression erst zwischen Cache und ALU erfolgt sollte man diese auch weiter beibehalten, da der Cache dann auch davon profitiert.

rockwell1080 schrieb:
- Bandbreite ist für GPU Computing eine sehr wichtige Ressource und wird immer relevanter auch für Spiele
Da hast du wiederum absolut Recht. Um 5 GFLOPs in SP mit 2 Fetches und 1 Store pro Takt maximal auszulasten bräuchte es im Worst Case (5TFLOPs x 32bit x3 =) 440GB/s. DDR5 ist davon weit entfernt, HBM schon näher dran, der L1 Cache in aktuellen CPUs Schaft aber bereits max 1800GB/s (siehe Link oben). Die maximale Leistung kann, ob mit oder ohne HBM, dauerhaft nur aus dem L1 Cache erreicht werden. Sobald Daten aus dem RAM benötigt werden (wenn die Fetch Prediction mal daneben lag) ist erst mal Pause, bis diese da sind (Latenz!). Hier hilft wiederum ein großer Cache, da damit mehr potentiell benötigte Daten (durch die Fetch Preduction vorhergesagt) vorgehalten werden können.

Du siehst das ist alles ziemlich komplex und man muß im Endeffekt die richte Balance zwischen FLOPs / Cachegröße / Speicherdurchsatz finden. Wenn AMD jetzt mit HBM den Speicherdurchsatz verfünffacht, bei den FLOPs und dem Cahce aber nicht mitzieht, ist das nicht gut Abgestimmt, und der Vorteil kann nur begrenzt genutzt werden.
 
Fried_Knight schrieb:
Wos? Nö. Das ging ganz einfach.
Ahso, ich kannte nur das Mod-BIOS aus diesem Thread.

Früher mit der 680 GTX hatte ich die auch noch selber gemacht mit entsprechenden Tools aber bei der Titan hieß es irgendwann mal, daß es dort nicht so einfach ginge.
Kann sein, daß dies nur für die Anfangszeit galt und ich dann später nicht mehr mitbekommen habe, daß die Tools in der Zwischenzeit entsprechend weiterentwickelt wurden um es auch wieder selbst zu erstellen.
 
Zurück
Oben