Test Nvidia GeForce GTX Titan im Test: Schnellste Grafikkarte mit großem Namen

TytanOrkun schrieb:
@ SKu

Verstehst du übrhaupt was Ich meine???? :freak:

Ja und diese Boardpartnerkarte erfüllt wohl nicht deine angegeben Werte, was? :freak:

Schlag du deine 10-15% OC noch drauf und nimm die Max. Werte als Referenz. :rolleyes:
 
@Krautmaster:

Hier damit du weißt auf welchen Kommentar ich mich von dir bezogen hab:
Krautmaster schrieb:
hier bin ich ;)

Naja, schau die Werte doch an.

Bei meinen Schätzungen gibt ich nicht von "Throtteln" aus - und auch nicht von 1920x1080 ohne AA.

Meine Spekulationen um um 40-60% sind doch nicht so abwegig. Dreht man den Lüfter hoch sodass die Karte nicht Throttelt liegt die Leistung wohl recht nahe am "Max" (ohne OC).
In Realität dürfte die Leistung wohl irgendwo knapp unter Max liegen , je nach Temperaturen im Gehäuse. Und bei "max" sieht es noch nicht so übel aus oder?

bei 4x AA sind es immerhin schon bei Full HD 29-42% Mehrleistung

Bei 8x AA schon 39-50% (!)

bei 2560x1600 oder MultiHead siehts noch ganz anders aus, und genau da ist die Karte aufgehoben.

8x AA sind es dort 43-58%

jetzt ist die Frage wie weit ich mit meinen spekulierten 50% eher daneben lag als du mit deinen 25%.

Ich denke die Leistung dieser 900€ GPU bemisst sich nicht an Full HD ohne AA ^^

OC kommen 5% dazu. Allerdings hatte ich schon geschrieben dass ich auch etwas mehr erwartet habe, zumindest nicht von dieser Differenz "max" -> "Durchschnitt" ausging.

Schlechte Ergebnisse sehen anders aus. gerade im vergleich zur HD7970 die doch dagegen ganzs chön Federn lassen muss.
So, und das war dein Tipp den ich mitbekommen habe:
Ich geb auch nen Tipp ab 50% über der GTX 680. Oder gar mehr... - aber nur in GPU lastigen Games.
https://www.computerbase.de/forum/threads/angebliche-bilder-und-spezifikationen-der-geforce-gtx-titan.1176144/page-11#post-13517831

Hattest also recht in der Formulierung! Bei GPU Lastigen Games Abseits von Full HD kann der Titan so um die 50% drauflegen im Vergleich zur GTX680! Das gilt dann aber wirklich nur für den Bereich, und wenn man deinem Tipp Full HD Weglässt! (Ich will ja jetzt auch nicht hier den kleinkarrierten Klugscheißer spielen^^)

Wenn man aber wirklich alles Berücksichtigt, wo auch abstürze mit 0% Leistung reingehören, schätze ich mal grob 30-40%. (Wenn überhaupt)
Aber das ist ein anderes Thema :evillol:

BTW: Interessant das Anandtech so andere Ergebnisse hat.

Trotzdem finde ich die Leistung nicht allzu toll, sicherlich legt Ordentlich drauf, aber bei 900 okken will ich nicht das in manchen Szenarien so ne 400€ Karte ala 7970 GHz an mir vorbeizieht. Und in OpenCL siehts dann auch düster aus, womit die Effizienz wieder zugunsten der 7970 oberhand Gewinnt.

Und deshalb sollte man ganz vorsichtig sein mit Verallgemeinernden Aussagen, wie durchgehend schneller oder sonstwas, das ist nämlich nicht der Fall.

Ums mal wieder CB Typisch mit nem schlechten Autovergleich zu erklären, das wäre wie ein Supersportwagen der dann auf bestimmten Autobahnen langsamer fährt als nen Opel.
(Und nein ich red nicht von Geschwindigkeitsbegrenzungen ;) )
 
Zuletzt bearbeitet:
Unyu schrieb:
[
7970Ghz ruckelt sich in Skyrim mit 32 fps inklusive Mikroruckler durch, während die Titan 52 fps bringt.

wenn das im Video die Testszene ist die sie zum Testen nehmen ist die in meinen Augen sowieso falsch,
man sollte wenigsten einmal ein Mausblick Bewegungswechsel machen,
einfach nur gerade die Wiese runterlaufen ist mir zu einfach.
 
HongKong Fui schrieb:
. Es ist halt leider so, dass auch der Preis ein Faktor ist, der zu berücksichtigen ist. :

Da geht unsere Meinung wohl etwas auseinander. Ich finde P/L ist etwas was der Käufer mit sich selbst ausmachen muss. Es ist wichtig diese P/L aufzuzeigen und zu erwähnen, aber man sollte das von dem Produkt und dessen Beurteilung trennen.

Zudem hat CB das ja gut im Fazit erwähnt.

Jemand der 50€ Taschengeld im Monat bekommt wird natürlich eher über das schlechte P/L abkotzen als wer der sich 3 davon vom Ersparten jeden Monat zulegen könnte ;)

@anonymous_user

ja sicher. Ich schrieb ja auch schon dass ich etwas mehr erwartet hätte. Das Ergebnis enttäuscht in erster Linie auch dadurch, dass die Karte ab 80 Grad throttelt. Als Consumer erreicht man diese "max" Werte ja im "Handumdrehen".

Dass Nvidia die Karte ab 80 Grad runterregelt konnte auch keiner schmecken. Bei ~ 1 Ghz was OC technisch auch zu erwarten war steht ja auch bei Full HD gut 40-50% an Mehrleistung bereit.

Bei extremer GPU Belastung also in sehr hoher Auflösung skaliert die Karte dann fast mit den technischen Daten. 60-80% (in etwa das Shaderverhältnis)

Edit: Anandtech... du meinst?

titanzjiml.jpg


Naja, das eben ne passende Auflösung und vermutlich etwas kühlere Umgebung. Passt doch ganz gut zu den CB Werten.
 
Zuletzt bearbeitet:
Das Ding ist zum Zocken da und soll mir Crysis in Full-Settings mit 60 fps auf die Röhre zaubern, alles andere interssiert mich nicht.
Macht sie doch.

Ach ne lass mich raten, du bist einer der 2500x1400er Monitor Fraktion(auch wenn du 1080 in der Signatur hast) der noch nicht kapiert hat das die Wahnsinns Auflösung SLI Gebiet ist. Na dann warte mal schön weiter auf eine single Karte die das schafft. Die wird es nie geben, denn das nächste Game schraubt die Anforderungen wieder höher und dein Monitor sorgt wieder dafür das zb. Maxwell einbricht. Graz für den Kauf eines Teufelskreises.

Derweil zocken andere mit einer GTX 580 3GB mit maximalen Details mit Trick 17...
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Unter Anbetracht dass es ein Treiberbug einer brandneuen Karte ist als auch der Tatsache dass genau diesen Test wohl kaum jemand einsetzen dürfte und wir hier mehr auf einer Consumer / Gaming Seite sind als auf einer für professionelle OpenCL Anwender kann man wohl darüber schon im Fazit hinwegsehen. Gut dass es überhaupt getestet wurde.

Die Karte ist doch eigentlich nicht brandneu, im Serverbereich gibt's die ja schon seit fast einem Jahr. Wenn man jetzt immer noch solche Bugs im Treiber hat, dann wurde da einfach geschlampt.

Insofern ist es auch schade, dass im Fazit unter den negativen Punkten auch nicht erwähnt wird, dass die OpenCL Leistung der Karte aktuell indiskutabel ist, da hat sie immer noch keine Chance gegen die 7970er.

Auch interessant wäre, welches Feature Set die Karte bietet. Immer noch DX11 oder endlich mal DX11.1??? Wird auch nicht erwähnt...nachdem die neue XBox und PS AMD GPUs mit DX11.1 bekommen, dürfte das bei kommenden Konsolenports vielleicht schon interessant werden und sollte daher durchaus erwähnt werden. Sonst muss die Titan in einem Jahr vielleicht auf einen DX10 Renderpfad ausweichen, weil das die dann erscheinenden Konsolenports nur einen DX11.1 Pfad aber keinen DX11 Pfad bieten...
 
leckerbier1 schrieb:
Die Mehrleistung ist schon gigantisch. Da muss die nächste Grafikkartengeneration von AMD und Nvidia aber kräftig zulegen um die Leistung zu erreichen.:D

Du bist echt witzig. Gigantisch ist bei mir aber etwas anderes. Und glaube mir die nächste
Genration wird auch die Titan wieder auf einen anderen als den ersten Platz verweisen.
 
Kasmopaya schrieb:
Macht sie doch.

Ach ne lass mich raten, du bist einer der 2500x1400er Monitor Fraktion(auch wenn du 1080 in der Signatur hast) der noch nicht kapiert hat das die Wahnsinns Auflösung SLI Gebiet ist. Na dann warte mal schön weiter auf eine single Karte die das schafft. Die wird es nie geben, denn das nächste Game schraubt die Anforderungen wieder höher und dein Monitor sorgt wieder dafür das zb. Maxwell einbricht. Graz für den Kauf eines Teufelskreises.

Derweil zocken andere mit einer GTX 580 3GB mit maximalen Details mit Trick 17...

Also laut dem CB Bench erreicht sie bei FullHD 56,1 FPS als Singlevariante, die GTX680 44,6.
 
Pilstrinker schrieb:
Nö, mir reicht dazu schon eine 1000€-Karte. :D

ja gut, die muss aber nicht zwangsläufig "Professionell" eingesetzt werden ^^

Ich denke auch unter den Titan Usern wird die Nutzung als OpenCL Karte selten der Fall sein. Ich denke Nvidia dürfte den Bug vermutlich schon zur Verfügbarkeit entfernt haben, imho laufen die Tests ja auf den eigenen anderen Produkten auch.

@Oberst08

da müsste man nun aber eine K20X herziehen um zu sehen dass dies für die professionelle Karte auch zutrifft.

Das wäre in etwa wie wenn man erwähnen würde dass der GTX TITAN Aufkleber oder Schriftzug etwas schräg sitzt, einen gewissen Bruchteil der potentiellen Kunden wird sich daran stören. Die Frage ist auch nicht ob es unschön ist, das ist es, aber obs im Fazit was zu suchen hat...

Bei nem speziellen OpenCL Review sicherlich, hier auf CB, wo die Hälfte der Leser noch Taschengeld bekommt... ich bezweifle es ^^


naja ^^ wohl eher November
 
Zuletzt bearbeitet:
Wo schafft sie es denn Crysis 3 spielbar aufs Bild zu zaubern? 1920x1080 ohne anständigem AA?
Prost Mahlzeit, dafür brauch ich keine Titan.

Die Titan wird von nvidia selbst und von vielen anderen Hardware-Seiten für die 2.560 x 1.600 Auflösung als präsdestiniert angepriesen.
Da schafft sie in Crysis 3 mit 2TX SMAA/16xAF "satte" 33fps, yippie yeeh.

Wir fassen mal zusammen:

Die "Titan" packt die aktuellsten Spiele nicht auf 2.560 x 1.600 (Siehe Crysis 33 fps, Farcry 34 fps, Hitman 44)
Für BlackOps 2 brauch ich keine Titan.

Also bleibt 1.920 x 1.080 als Einsatzgebiet. Ooh moment mal, das geht auch mit ner schmodder 7970ghz für einen Drittel des Preises.

Also bringe wir es mal auf den Punkt: Für was ist die Karte gedacht?
Da ihr bei 2.560 x 1.600 die Puste ausgeht, bleibt nur 1.920 x 1080 übrig und das ist in Witz.

Entweder ich gehöre zur 1920x1080-Fraktion -> GTX 680/7970 Ghz
oder ich gehöre zur 2560x1600-Fraktion -> SLI oder CF.

Für die Titan müssen wir irgendwo in der Mitte eine neue Auflösung als Standard definieren. Totgeburt.

titan_crysis3.png
 
Zuletzt bearbeitet:
SaarL schrieb:
Was wäre denn eigentlich theoretisch an einer Karte möglich?
Kann der Hersteller X nicht einfach mal "aus Lust und Laune" 20Mrd. Transistoren auf nen PCB klatschen, 2x 8Pin für genügend Stromversorgung und gucken was rauskommt?

Max. Größe der Die wäre 26x33mm (858mm²)

GK110 hat 7,1 Mrd. Transisistoren bei 551mm² -> bei 28nm sind max. 10-11 Mrd. Transistoren pro Die möglich.
 
Die Titan wird von nvidia selbst und von vielen anderen Hardware-Seiten für die 2.560 x 1.600 Auflösung als präsdestiniert angepriesen.
Da schafft sie in Crysis 3 mit 2TX SMAA/16xAF "satte" 33fps, yippie yeeh.
Marketing Geblubber, NV wartet nur darauf das ihr euch so eine Auflösung anschafft und dann ständig die neusten GPUs kaufen müsst.


Also bleibt 1.920 x 1.080 als Einsatzgebiet. Ooh moment mal, das geht auch mit ner schmodder 7970ghz für einen Drittel des Preises.
Nur wenn man die Microruckler wegzaubert, vorher ist die Karte keinen Pfifferling wert. Dein Punkt gilt aber für die GTX 680 4GB, wirklich tolle Karte.

Also mal ehrlich Leute, stellt euch doch nicht so an, die Karte wurde fürs OC gebaut. Wasserkühlung drauf OC(bzw. die Karte OC ja automatisch) und ihr habt Kantenglättung und hohe FPS kombiniert. Und sagt jetzt nicht ihr wollt das Teil hier mit Luft laufen lassen, wie billig ist das denn?

Wenn ihr beim aktuellen Wetter das Fenster aufmacht könnt ihr noch mehr raus pressen. Dann wirds auch was mit den 60FPS+:D

Ergo fassen wir zusammen eine single Titan ist für 1080P perfekt, für alles darüber ist SLI, TRI und Quad SLI Titan perfekt. Durch den üppigen Vram die perfekte SLI Karte. So schwer ist das doch gar nicht.
 
Zuletzt bearbeitet:
@Wolfgang @computerbase
Ich besitze den gleichen Monitor (Dell U2312hm) und habe versucht per software den Bilschirm auf die genannten 75HZ zu "übertakten". Jedoch beschwert sich der Monitor sofort mit der Meldung "the current input timing is not supported by the monitor display" und zeigt nicht das Bildsignal der Graka an.
Wie kann es sein, dass es mit der Titan Graka bei euch funkioniert hat, wenn der Monitor selbstständig erkennt, dass das Signal nicht den Spezifikationen entspricht?
 
Nvidia (nicht: der Kunde) hat auf ganzer Linie gewonnen.
Das Projekt 999$-GPU ist nun Realität.

Damit geht für Nvidia ein langgehegter, vielfach versuchter, aber bis dato niemals geglückter (feuchter) Wunschtraum in Erfüllung.
Seit Intel diese unsägliche "Extreeeme"-Linie anbietet, wollten sie ein GPU-Pendant auf den Markt pushen.
Hat jetzt geklappt, nennt sich Titan und ist genauso sinnfrei wie jeder CPU-Counterpart von Intel mit demselben Preisschild...

Erinnert sich noch jemand an die Ultra?
...gut, dass unser Gedächtnis nur von hier bis zum nächsten Werbeblock reicht.
 
Zuletzt bearbeitet:
@Krautmaster:
Interessant fände ich auch noch wie's mit dem Titan dann noch so im Sommer aussieht, ob der sich da nicht noch eventuell weiter drosselt.
Ich sehs schon kommen im Forum: "Grafikruckler seit XY" in der Sig. dann irgendwo nen Titan stehen :D

Edit: Anandtech... du meinst?
Ach sorry, meinte nicht die Ergebnisse der Leistung, schau dir mal bei Anandtech den Stromverbrauch und die Lautstärke an un Vergleiche mit den hier! (7970 vs. Titan)
 
Zuletzt bearbeitet:
Lustiges Stück Hardware, obwohl ich mich Frage, wie NVIDIA damit Geld machen will... sie hätten die Entwicklung lieber in double-precision ALUs für casual-Grakas stecken sollen. Aber vielleicht machen sie das ja in der nächsten Generation.

Zum Test: Mal wieder sehr gut und ausführlich von CB, eine Ergänzung zu den Benchmarks wäre noch der Blender-Renderer "Cycles". Da Blender freie Software ist, wäre das ein reales Anwendungsszenario, und für viele Nutzer interesant.
 
Ist wohl echt der Monat der Enttäuschungen!
Zuerst die eher mäßige Verstellung/Ankündigung der PS4
und dann die TITAN.

Klar sie ist ganz eindeutig sie schnellste Single GPU-Karte die
man haben kann, aber so das Brett ist die jetzt auch nicht.
Und vor allem rechtfertigt eine 20-40% Mehrleistung nicht
einen fast 3x höheren Preis.

Aber immerhin die Effizienz von dem Ding ist wirklich beeindruckend!
Da kann sich AMD gerne ne Scheibe von abschneiden, aber unterm
Strich wohl ein zu ehrgeiziges Prestigeprojekt das den Preis durch
die Leistung alleine auf keinen Fall rechtfertigen kann.
 
Ich hatte für 3D Vision satte Single GPU power am Plan.
Jetzt muss ich doch wieder zu Sli switchen.
Schade, i'm not amused.
 
Zurück
Oben