Test Nvidia GeForce GTX Titan X im Test

Nein, ich glaube, ich lasse erstmal Dir den Vortritt, lieber HeinzNeu. Außerdem will ich noch erste Praxis(OC-)tests sehen, denn vielleicht erledigt sich mit dann mein Bedarf nach einem Multi-GPU-System.

Außerdem warte ich noch auf den Watercool-Kühler. Der ist nämlich super-cool. Sagen zumindest meine Kumpels auf dem Campus. Und die sind noch cooler als die Kumpels auf dem Schulhof ;)
 
Für mich würde es absolut Irrelevant sein,ob die neue Radeon 380X in Spiel XY 180FPS Darstellen kann und ne TitanX 160FPS.Man merkt es ehh nicht,ergo wäre für mich noch Monate zu warten unsinnig.Und da ich sowiso TitanX SLI fahre ist die Frage schon geklärt oder?...
 
Was hast Du denn vor? Du sprichst immer nur von SLI... ich hoffe, Deine Zielauflösung ist nicht FullHD, denn das ist (bekanntlich?) nicht der Bereich, in dem man eine Titan X einsetzt . Und erst recht nicht im SLI-Verbund :D
 
Hundsgrube schrieb:
:) Dem deutschen "Enthusiasten", wie sich hier einige betitulieren oder sich darstellen , kann dies doch schnurzegal sein , sei denn sie kommen aus Schwaben :evillol:

Die Verbreitung von (Hochleistungs-) PC Hardware nach Preis folgt aber reiner Statistik (zb nach Einkommen). Schwaben mal ausgenommen... ;) :D
 
Faust2011 schrieb:
Was hast Du denn vor? Du sprichst immer nur von SLI... ich hoffe, Deine Zielauflösung ist nicht FullHD, denn das ist (bekanntlich?) nicht der Bereich, in dem man eine Titan X einsetzt . Und erst recht nicht im SLI-Verbund :D

Natürlich nicht Full HD,momentan 1440p mit G-Sync.Obs dieses jahr Richtung 4k geht sieht man dann....Lieber 1440p und alle Regler nach Rechts,als 4K mit diversen Abstrichen....:D
Ausserdem für mich Wichtig 3DVision..Zieht auch ziemlich Power von der Karte
 
Zuletzt bearbeitet:
Faust2011 schrieb:
Von PC Games Hardware: "Da wir das Powertarget auf 121 Prozent erhöht haben und somit bis zu 425 Watt umgesetzt werden können, beträgt der Realverbrauch der übertakteten GTX Titan X somit ~350 bis ~400 Watt."

Wie ist das möglich? Die Titan hat doch nur einen 6+8pin Anschluss. Insgesamt stehen damit dann 75 + 75 + 150 W, also insgesamt 300W zur Verfügung. Hmm... letztlich sind die 75 / 150 Watt-Angaben nur Empfehlungen, oder? Wenn ein Netzteil bei den PCIe-Steckern auf der 12V-Schiene eben mehr Ampere liefert, dann kann sich die Graka auch mehr gönnen. Demnach ist da nix (im Sinne einer Sicherung), die bei 75/150W dicht macht, oder?

Sorry für die vielleicht dämliche Frage... ich beschäftige mich noch nicht so lange mit diesen Hardware-Themen :D

Frag mal AMD was die davon halten, also von den Pci-E Spezifikationen :D. Lies dir das mal durch.

https://www.computerbase.de/artikel/grafikkarten/amd-radeon-r9-295x2-benchmark-test.2437/seite-2


EDIT:

Der Witz ist, bei ich glaube Tom's Hardware habe ich mal ein Bericht gelesen, der ganz klar gezeigt hat, das es Grafikkarten gibt, die sich den Strom nur vom Netzteil holen und nicht noch zusätzlich vom Mainboard. Sowas gibts also auch, das weiss man aber nicht ohne das es vorher explizit getestet wurde. Bedeutet also, das es so einige Grakas auf dem Markt gegeben hat die auf die Pci-E Spezifikationen geschissen haben.
 
Zuletzt bearbeitet:
Wenn man dann allerdings bedenkt, dass die bei Tomshardware eine R9 295X mit einem be quiet! Straight Power E10 500W stabil betrieben haben, dürfte das Spucken auf die PCIe Spezifkationen wohl noch das kleinere übel sein.

Problematisch wirds eigentlich erst, wenn der Hersteller bei den Kabeln spart oder man billige Adapter (mit minderwertigen Kabeln) im Einsatz hat. Brennende Kabel sind dann weniger lustig, ein abschaltendes NT ist dazu im Gegensatz recht harmlos.

Mit einem wirklich ordentlichen Netzteil, dass der Enthusiast hoffentlich im Einsatz hat, würde ich mir da weniger Sorgen machen. Es könnte höchstens die Grafikkarte durchschmoren, wenn irgendwelche Komponenten nicht auf die erhöhte Leistungsaufnahme ausgelegt sind.
 
Die Garantie könnt ihr aber vergessen, wenn aufgrund des ModBIOS irgendwas an der Karte durchbrennt. Und ich bezweifle doch stark, daß die Komponenten für über 350 Watt Dauerbetrieb ausgelegt sind.
Ist also wirklich nur was für Leute, die komplett auf das Geld scheißen und riskieren eine 1200€ Karte direkt zu himmeln. :-D
 
OC ist kein Wunschkonzert. Wer Angst um seine Hardware hat solls halt lassen :-)
 
Es reicht schon, das Powerlimit aufzuheben, besserer Kühler muss natürlich auch drauf und schon ist das ne völlig andere Karte.
 
nurmalkurz schrieb:
Die Titan X ist mit schlicht zu laut zu dem Preis. Was bringen mir viele FPS, wenn ich mich ständig über die Lautstärke aufrege?
Evtl haben wir Luftpuster ja Glück und Gainward sowie Gigabyte besinnen sich und passen Phantom- sowie Windforce-Kühler auf die X an. Wobei ich mittlerweile sagen muß, das der dreipropellerige Windforce einfach besser is als das Phantomsystem, was ich vorher hatte. Meine jetzige Karte (780ti Windforce 3X) is stärker, kaum heißer -aber eben auch leiser in allen Lebenslagen als die alte (670 Phantom).
Daniel_73 schrieb:
Wieso wurde Far Cry 4 den nicht bei den Benchmarks berücksichtigt?
Wolfgang hat dazu schon geschrieben, die sind dabei, den Testparcours auf nen neuen Stand zu bringen.

editiert=
Depp_vom_Dienst schrieb:
Wenn man dann allerdings bedenkt, dass die bei Tomshardware eine R9 295X mit einem be quiet! Straight Power E10 500W stabil betrieben haben, dürfte das Spucken auf die PCIe Spezifkationen wohl noch das kleinere übel sein.
Wenn man bedenkt, das ich die übertaktete 780ti mit meinem 480er beQuiet stabil laufen lassen kann und Nvidia gleich mal ein 600er empfiehlt...
 
Zuletzt bearbeitet von einem Moderator:
Whoozy schrieb:
Frag mal AMD was die davon halten, also von den Pci-E Spezifikationen :D. Lies dir das mal durch. https://www.computerbase.de/artikel/grafikkarten/amd-radeon-r9-295x2-benchmark-test.2437/seite-2

Danke für den Link. Für High-End Karten sollte ein neuer Stecker spezifiziert werden, damit wieder alles im Rahmen ist. Andererseits wäre die Vorstellung einer Graka mit x 8pin Anschlüssen auch lustig :D

Depp_vom_Dienst schrieb:
Problematisch wirds eigentlich erst, wenn der Hersteller bei den Kabeln spart oder man billige Adapter (mit minderwertigen Kabeln) im Einsatz hat. Brennende Kabel sind dann weniger lustig, ein abschaltendes NT ist dazu im Gegensatz recht harmlos.

Von abgerauchten Mainboards habe ich bereits gelesen. Gab es bereits Berichte von Usern, deren Kabel der PCIe-Stecker geschmort sind?

Eldor schrieb:
Lieber 1440p und alle Regler nach Rechts,als 4K mit diversen Abstrichen....:D

Das sieht nicht jeder so. Kann ich auch nicht nachvollziehen, warum man bei einer hohen DPI eines 4K Displays noch alle Regler (gerade die AA und AF) ganz rechts braucht.
 
Hundsgrube schrieb:
Hab jahrelang mit 3 Nvidia Karten gespielt ,CrossfireX mit 2 Karten . Die 3. karte ,bzw. 3. GPU bringt oft mehr als 50 % und da für den Enthusiasten Geld keine Rolle spielt, wie von diversen Members hier erwähnt , sind die "nur" 50 % Mehrleistung Pillepalle, bezogen auf den Preis .Die 4. Karte ist fuer synthetische EnthusiastBenchrekorde von Nutzen, aber das schriebe ich ja schon explizit .

Habe inzwischen mein drittes 3-way-SLI Setup (EVGA GTX680 Classified / Titan / Titan Black).

Bei allen dreien war es immer so, dass man mit einer "4ten" dezidierten PhysX Karte immer noch einiges an FPS rausholen kann.

Von 2way auf 3way SLI gibt es noch einen FPS Schub - die 4te Karte würde ich immer als PhysX Karte nutzen!
Da tuts meist aber auch eine günstige alte Generation ^^

Zumindest bei der X würde ich auch eine dezidierte Physx Karte verbauen :)
(zocke halt PhysX Games)
 
Zuletzt bearbeitet:
Faust2011 schrieb:
Das sieht nicht jeder so. Kann ich auch nicht nachvollziehen, warum man bei einer hohen DPI eines 4K Displays noch alle Regler (gerade die AA und AF) ganz rechts braucht.
AF hat ja wohl nichts mit der Auflösung zu tun. Mal davon abgesehen braucht gerade AF keine Leistung.
 
Wie kommt nur alle Welt darauf, das 4K gleichbedeutent mit hoherer ppi sind? Das hängt auch von der Bildschirmgröße ab.
 
AF hat sehr wohl was mit der Auflösung zu tun. Wie kann es sonst sein, dass beim Downsampling anisotrophisches Filtern nicht/minimal nötig ist?
 
Weil es Quatsch ist. Anisotropes Filtern ersetzt man nicht mit höherer Auflösung. Es sei den natürlich man steht auf maximal 4xAF (sofern wirklich 4x soviele Pixel bei gleicher Fläche vorhanden wären, was meist nicht der Fall ist) und möchte das fast gratis zu bekommende "normale" AF nicht nutzen.
 
Zurück
Oben