Test Nvidia GeForce GTX Titan im Test: Schnellste Grafikkarte mit großem Namen

Der primäre Zweck der Karte ist es die Single-GPU-Krone zu holen, ob sie dann auch noch verkauft wird ist eher nebensächlich. Ein paar Stück wird man schon irgendwo absetzen das reicht dann auch.
 
Vielleicht wurde das ja schon irgendwo auf den letzten 20 Seiten beantwortet, aber warum zeichnet die Titan bei so gut wie jeder Qualitätseinstellung mit 5.760 × 1.080 mehr Bilder/sec als mit 2.560 × 1.600, obwohl sie da knapp 2 Millionen Pixel mehr berechnen muss? Siehe Seite 7 und 9 im Test.
 
Sagt mir doch bitte eine Alternative wenn mann auf 5760x1080 in guter Qualität spielen möchte und kein Sli/CF haben will?
 
In der Schweiz für 1049 Franken gelistet. Habe mit den 950€ eher mit fr. 1200 gerechnet.
Mal schauen ob eine oc Karte wie die Galaxy in einigen Wochen Für 900 sfr. Erhältlich ist
 
PoiPoi schrieb:
Diese Testergebnisse sind auch sehr interessant ;)
Danke für den Link, der Test ist wesentlich detaillierter und geht auch etwas mehr in die Tiefe. Vor allem das Fazit auf der letzten Seite bestätigt mich in meiner Entscheidung. ;)
 
@Panerai
Wenn ich mir die Benchmarkergebnisse z.B. auf CB anschaue, dann bleibt auch die Titan auf 5760x1080 bei den meisten Spielen unter 30 FPS. Spätestens wenn man die Qualitätseinstellungen hochdreht, geht ihr die Puste aus.

Um auf einem Multimonitor-Setup oder auch nur 2560x1600/1440 durchweg spielbare Ergebnisse bei guten Qualitätseinstellungen hinzubekommen, fehlen auch der Titan noch einige Prozent. Wären es die vorab vermuteten >50% mehr als eine GTX680 gewesen, dann hätte es wohl ausgereicht, aber so nicht. So bleibt in solchen Fällen weiterhin nur Multi-GPU (mit all seinen Nachteilen) oder halt warten auf die nächsten Generationen.

Klar ist die Titan immer noch besser als die bisherigen Single-GPU-Flaggschiffe und macht in einigen Fällen vielelicht gerade so den Unterschied zwischen unspielbar und spielbar aus. Das würde durchaus einen Aufpreis rechtfertigen, aber nicht mehr als das Doppelte.
 
aivazi schrieb:
hier http://www.tomshardware.de/geforce-gtx-titan-performance-review,testberichte-241213-12.html

da Verbraucht die Titan nochmal wesentlich mehr als Die GHZ Edition...... auf HWL und THW verbrauchen die Titanen weitaus mehr und die GHZ Edition hat im Vergleich zur GTX 680 einen nur marginal Mehrverbrauch...das sind nciht mal 10% Mehr die eine GHZ im Vergleich zu einer GTX 680 verbraucht.... Diese Werte sind mir neu !!, hat jemand evt. noch eine weitere Seite ?, weil auf CB und PCGH stänkert die GHZ gegenüber der Titan und GTX680 ab...

Das liegt daran weil CB und PCGH eben die grüne Brille auf haben. Aber schön wenn du das jetzt auch mal endlich merkst.
 
Ziemlich enttäuschende Leistung. Bei dem anvisiertem Preis habe ich schon deutlich mehr erwartet. :freak:
 
He also found that repeating the same benchmark twice tends to lead to lower scores on Titan, because its Boost is temperature-dependent. For example: in Anno 2070: 75 FPS on the first run, 63 FPS with a warm card. That's a pretty massive difference, and I wonder how many reviewers even noticed.

Awesome. Da hat nvidia DEN PR Stunt des Jahres hingelegt. :rolleyes::

http://www.hardware.fr/articles/887-10/gpu-boost-tests.html

die ham nicht nur EINMAL durchlaufen lassen, witzigerweise kommt die Karte da einer 7970 nicht wirklich davon :rolleyes::
16% schneller in fullhd,
12% schneller in 2560x1600 als eine 7970 - im durchschnitt aller spiele
 
Zuletzt bearbeitet von einem Moderator:
R4yd3N schrieb:
Vielleicht wurde das ja schon irgendwo auf den letzten 20 Seiten beantwortet, aber warum zeichnet die Titan bei so gut wie jeder Qualitätseinstellung mit 5.760 × 1.080 mehr Bilder/sec als mit 2.560 × 1.600, obwohl sie da knapp 2 Millionen Pixel mehr berechnen muss? Siehe Seite 7 und 9 im Test.

dort sind nicht bilder/sek angegeben, sondern prozentzahlen.

und 690 und 680 gehen in 5.760 × 1.080 der speicher offensichtlich aus, daher gewinnt titan dort relativ gesehen gegen diese.
 
Panerai
http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/7/

Eventuell eine sapphire 7970 ghz toxic, diese hat eben auch 6 GB

Aja für alle die es schon vergessen habe:

http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/7/

Wie war das noch mal ? Zwar keine 480GTX, aber wäre diese als Gtx 680 wesentlich früher auf den Markt gekommen und das nicht so marktreif wie jetzt, hätte man vllt parallelen ziehen können. Somit musste man lediglich auf die eigentliche mainstream karte warten, die die jetzige 680 gtx ist

Mein Fazit, die damals geplante Karte wäre vllt wie eine 480gtx auf den Markt gekommen. Hier handelt es sich zum Vergleich um eine 580 GTX. Die Titan ist also schon die verbesserte Karte der damals geplanten High End Karte. NV macht mit viel Marketing was gabz spezielles. Als AMD mit der 7970 und 5870 auf den Markt kam und wesentlich mehr Performance angeboten hat als NV hat man nicht so derartige Preise verlangt, aber man hat sich aufgeregt, AMD sei so teuer lol.
 
Zuletzt bearbeitet:
@Ulukay:
Das ist allerdings ein massiver Unterschied, wird die Titan also besser dargestellt als sie eigentlich ist :(
 
Ulukay schrieb:
die ham nicht nur EINMAL durchlaufen lassen, witzigerweise kommt die Karte da einer 7970 nicht wirklich davon :rolleyes::

CB hat doch gesagt, sie haben die karte "aufgewärmt", um diesen kaltstart-vorteil zu umgehen.
 
Zum Thema temperaturabhängiger Boost muss man aber auch bedenken, dass Benchmarks ja nicht unbedingt reale Szenarien wiederspiegeln, selbst wenn sie mit echten Spielen gemacht werden. Oft hat eine GPU oder auch CPU zwischendurch Gelegenheit etwas abzukühlen und dann kann der Boost wieder greifen.

Ansonsten sollte man den Boost einfach als das nehmen, was er ist, ein "Sahnehäubchen oben drauf". In den technischen Daten wird ja in erster Linie der garantierte Standardtakt und daneben eine eher konservativen Boost-Frequenz angegeben, die selbst in Dauerlast durch Benchmarks oft deutlich überboten wird.
Es ist also nicht so, dass durch den Boost Leistung verloren geht, sondern er gibt manchmal noch ein kleines bisschen extra dazu.

Vor allem aber sollte man doch davon ausgehen, dass sich jeder Kunde einer Titan nach der Anschaffung so eines Luxusobjektes auch noch die Mühe gibt, die für ihn optimalen Einstellungen zu wählen und nicht einfach alles auf Werkseinstellungen zu lassen. Die Titan lässt einem da ja sehr weitgehende Freiheiten.
Man kann das Temepraturlimit hoch drehen oder auch ganz abschalten und den Boost wie gewohnt nur per Power-Target steuern. Oder man kann die Lüfterkurve anpassen, um (bei mehr Lautstärke) die Temperaturen niedriger zu halten, und wenn man will auch auf den ganze dynamischen Boost-Schnickschnack verzichten und einfach per festem Offset übertakten.

Es gibt viele berechtigte Kritikpunkte an der Titan, aber den temperaturgeregelten Boost sehe ich nicht als solchen. Der ist einfach nur eine interessante zusätzliche Option auf der Suche nach der für einen maßgeschneiderten, perfekten Einstellung. Hoffentlich mach das in der nächsten Generation auch bei den normalen Karten Schule.
 
@chappy086
Ich bin mir sicher, je genauer man Titan betrachtet, desto weniger toll sieht es dann aus.

z.B.: Dass nur der Stromverbrauch vom Basis-Takt veröffentlich werden durfte und diesen Top-Wert für 2 Tage verinnerlichen durfte.
Da wird es wohl neben neuartigen den Marketing-Tricks noch andere neuartige Tricks geben.

Für die meisten ist es sicher nicht sichtbar, weil der hohe Preise noch den scheinbar gerechtfertigten Luxus-Faktor rüberbringt.

Bei der Performance-Steigerung bei diesem Preis wunder ich mich nicht mehr, warum AMD sich noch zurückgehalten hat.
 
Eventuell eine sapphire 7970 ghz toxic, diese hat eben auch 6 GB

Ja danke für den Tip, aber guck dir mal diese tests hier an da ist ja selbst die 7970 GHZ Edition zu langsam:

http://www.hardwareluxx.de/index.ph...-geforce-gtx-titan-im-3-way-sli.html?start=25


Also was es an diesen Werten auszusetzten gibt werde ich nie verstehen... min. 70 FPS bei allen aktivierten Qualitätsverbesserungen Skyrim gegenüber 50 FPS der 7970, da brauch ich net lang überlegen..
 
Zuletzt bearbeitet:
1.) Warum sollte Crysis 3 in FullHD auf Max nicht mit einer 7970 Ghz gehen? 42FPS sollten doch locker reichen?? Hab ich was falsch interpretiert?

edit: Oh.. übersehen..aber.. 31,8 könnten gaanz knapp ausreichen....

2.) Was passiert überhaupt, wenn der Grafikspeicher ausgeht? ôo Geht das in den virtuellen Speicher auf der HDD? xDD Oder in den PC-RAM?

MfG,

Anon
 
Zuletzt bearbeitet:
Wenn man für sein Geld selber arbeiten muss und so eine Karte nicht geschenkt bekommt (z.B. zum testen) ist sie einfach völlig obsolet.
Was für ein Blödsinn...

Und das man beim Benchmark besser immer mal eine Pause einlegt, damit sich das gute Stück wieder beruhigt ist bei so einem Edelteil besonders stark. Frei nach dem Motto: bitte beim Porsche RS nach 3 Minuten auf der Rennstrecke erstmal 15min Boxenstopp einbauen. :eek:
 
Zurück
Oben