Test Nvidia GeForce GTX Titan X im Test

Von PC Games Hardware: "Da wir das Powertarget auf 121 Prozent erhöht haben und somit bis zu 425 Watt umgesetzt werden können, beträgt der Realverbrauch der übertakteten GTX Titan X somit ~350 bis ~400 Watt."

Wie ist das möglich? Die Titan hat doch nur einen 6+8pin Anschluss. Insgesamt stehen damit dann 75 + 75 + 150 W, also insgesamt 300W zur Verfügung. Hmm... letztlich sind die 75 / 150 Watt-Angaben nur Empfehlungen, oder? Wenn ein Netzteil bei den PCIe-Steckern auf der 12V-Schiene eben mehr Ampere liefert, dann kann sich die Graka auch mehr gönnen. Demnach ist da nix (im Sinne einer Sicherung), die bei 75/150W dicht macht, oder?

Sorry für die vielleicht dämliche Frage... ich beschäftige mich noch nicht so lange mit diesen Hardware-Themen :D
 
Na ja wenn du ein Singel Rail Netzteil hast das 500W auf einer Schiene kann, dann geht das schon. Das ist dann aber nicht so ohne wenn du dann So viel Watt über praktisch über ein viel zu kleines Kabel laufen lässt. :-)
 
Zuletzt bearbeitet:
Ja, es handelt sich dabei meines Wissens um einen Standard, nicht um eine technische Maximalgrenze. Das Netzteil wird über ein Kabel soviel Strom liefern wie angefordert wird solange man unterhalb der im Netzteil definierten Grenzen bleibt. Wenn die Karte also mehr zieht, dann bekommt sie auch mehr. Ob das der Karte gut tut hängt davon ab, wie warm das ganze wird und mit wieviel Reserven die Komponenten ausgestattet wurden. Wobei ich mal davon ausgehe, daß die Leistung die über den PCIe-Bus kommt schon etwas genauer abgesichert ist als das was über das Netzteil direkt reinkommt.
 
Das ist richtig erklärt. Die technischen Grenzen sind durch die 75 W Board, 75 W 6 PIN uind 150 W 8 PIN noch nicht ausgereizt.
Ich habe mit dem MOD.-BIOS auch das lästige PT von 106 % auf 125 % raufgesetzt.
 
eremit007 schrieb:
Hauptsache möglichst schnell einen Kommentar schreiben?
"soll die Verfügbarkeit in Deutschland in fünf bis zehn Tagen gegeben sein"

Kann man damit auch Crysis zocken?:freak:

Zum Thema: Die Karte ist an sich ja nicht schlecht, aber der Stromverbrauch enttäuscht mich wirklich derb. Bei dieser Leistung und max. 200 Watt wären wirklich gut gewesen. Naja, dann waret ich ich halt auch die nächste GTX Generation, die GTX680 macht ja noch alles ganz gut mit.

Gruß.
 
HisN schrieb:
Ich glaub der Käuferschicht der Titan X ist das herzlich egal. Kommt was schnelleres (und dabei spreche ich nicht von 5% oder so), wird was schnelleres gekauft.
Aber ich möchte jetzt was schnelleres und nicht in einigen Monaten. Und das es über die Zeit immer etwas schnelleres gibt ist wohl auch allen bewusst. Ich weiß echt nicht warum darauf so rumgeritten wird. Das ist eine natürliche Entwicklung im Graka-Sektor. Es wird immer etwas schnelleres geben irgendwann.

Wer was schnelleres möchte, dümpelt nicht mit läppischen 2Way-SLI dahin :D Mindestens 3 Kärtchen von den derzeit schnellsten für den Bildqualitätsenthustiasten bei Games und 4 Kärtchen für den GrafikBenchenthusiasten.
Für den Rechenenthusiasten das ganze mit Dualsockel .
Ich glaube mich erinnern zu können , Du hattest das Ganze mit GTX480er Quad-sli. Warum nicht mehr so konsequent??
 
Zuletzt bearbeitet:
3 Karten bringen bei nVidia schon nicht mehr so viel, 4 dann eigentlich gar nichts mehr.
Der Test dazu geistert irgendwo im Netz. Jemand ist bestimmt so lieb und gräbt ihn noch mal aus. :)
 
Fried_Knight schrieb:
3 Karten bringen bei nVidia schon nicht mehr so viel, 4 dann eigentlich gar nichts mehr.
Der Test dazu geistert irgendwo im Netz. Jemand ist bestimmt so lieb und gräbt ihn noch mal aus. :)
Hab jahrelang mit 3 Nvidia Karten gespielt ,CrossfireX mit 2 Karten . Die 3. karte ,bzw. 3. GPU bringt oft mehr als 50 % und da für den Enthusiasten Geld keine Rolle spielt, wie von diversen Members hier erwähnt , sind die "nur" 50 % Mehrleistung Pillepalle, bezogen auf den Preis .Die 4. Karte ist fuer synthetische EnthusiastBenchrekorde von Nutzen, aber das schriebe ich ja schon explizit .

Also mindesten 3 TitanX zum Launch , Wasserkühler draufpappen, am besten Koolance und erst danach Klappe aufreisen ;)
 
Zuletzt bearbeitet:
Hundsgrube,

Du wirst es nicht glauben, aber es gibt viele solcher Systeme (Quad SLI). Allerdings nicht in Deutschland. Die meisten kenne zumindest ich aus US-Amerikanischen Foren. Der Grund ist einfach, hoher Wohlstand und billiger Strom. In manchen Bundesstaaten nicht mal Mehrwertsteuer. Denke das spielt hier klar mit rein.
 
Mr.Seymour Buds schrieb:
Hundsgrube,

Du wirst es nicht glauben, aber es gibt viele solcher Systeme (Quad SLI). Allerdings nicht in Deutschland. Die meisten kenne zumindest ich aus US-Amerikanischen Foren. Der Grund ist einfach, hoher Wohlstand und billiger Strom. In manchen Bundesstaaten nicht mal Mehrwertsteuer. Denke das spielt hier klar mit rein.

:) Dem deutschen "Enthusiasten", wie sich hier einige betitulieren oder sich darstellen , kann dies doch schnurzegal sein , sei denn sie kommen aus Schwaben :evillol:
 
Hundsgrube schrieb:
Ich glaube mich erinnern zu können , Du hattest das Ganze mit GTX480er Quad-sli. Warum nicht mehr so konsequent??

Verwechselst Du mich. 3-Way: Schrecklich skalierend. 4-Way: Gar nicht skalierend. Und dazu noch die SLI-Probleme die sich potenzieren. Zwischen toll und Schrott kann ich dann doch gerade noch unterscheiden. SLI ist und bleibt Murks. Je mehr Karten desto mehr Murks.
 
Das einzige Beispiel das ich kenne, das sehr gut mit der Anzahl der Grakas skaliert, ist der Benchmark 3DMark11 Extreme, siehe hier.
 
Nun gut, es gibt bestimmt User, die haben ihre Rechner nur dafür gebaut .. müssen wir respektieren :-)
 
HisN schrieb:
Verwechselst Du mich. 3-Way: Schrecklich skalierend. 4-Way: Gar nicht skalierend. Und dazu noch die SLI-Probleme die sich potenzieren. Zwischen toll und Schrott kann ich dann doch gerade noch unterscheiden. SLI ist und bleibt Murks. Je mehr Karten desto mehr Murks.

Jep, verwechselt mit scully.
Na , bei 3way entschied die Mehrkarte z.B. , ob 4x oder 8x SGSSAA, bei gleicher Auflösung . Von Murks keine Spur.
4way interessant nur fuer bencher, was ich schon schrieb.

Wenn 2TitanX zu murksig wegen SLI, dann eben eine fuer Grafik und eine fuer Physx.
 
^^ dafür kann ich ja meine Titan Black behalten :-)

Ach mist .. ich zocke zur Zeit keine PhysX-Titel.
 
smilefaker schrieb:
Mod Bios drauf? Was ist mit Garantie? Wegen der bisschen Mehrleistung bringts das doch nicht.
So wenig Mehrleistung ist das nicht. Ich habe bisher auf jede meiner Karten ein Mod Bios verwendet (HD5770, GTX 670, GTX 780ti) und nie Probleme gehabt. Im Notfall kann man blind oder von einer andern Bildquelle aus flashen. Und für Garantiefälle wird natürlich wieder das Original draufgespielt.
 
Eine Titan Black nur für PhysX. Jetzt wirds hier dekadent.

Je länger ich hier mitlese und je länger AMD braucht, um endlich das Downsampling per Treiber auch für 4K zu unterstützen, desto mehr bin ich geneigt, von meinen beiden 290er umzusteigen... :D
 
Zurück
Oben