Statistik Nvidia Grafikkarten - Performance-Zuwachs immer geringer?

XxIcemanxX schrieb:
Dafür brauchen die NVIDIA Karten weniger Strom und sind im Referenzdesign leiser ;)

Richtig. Mal davon abgesehen werde ich mit den AMD-Treibern nach wie vor nicht warm. Die haben sich zwar schon verbessert im Vergleich zu "damals", aber NV bietet nach wie vor noch die besseren Treiber. Muss man halt entsprechend bezahlen. Sofern NV seine aktuelle Politik (weniger Stromverbrauch bei mehr Leistung, kühle und leise Lösungen) fortsetzt werde ich vermutlich auch nicht das Lager wechseln. Ich wüsste auch nicht warum ich das aktuell tun sollte. Wer dann mit Sprüchen kommt wie "NV-Karten werden warscheinlich hauptsächlich von Fanboys gekauft" sollte lieber erstmal nachdenken bevor er postet.
Ich warte mal gespannt ab was die Zukunft bringt, bin aber momentan mit meiner 580 (3GB) voll und ganz zufrieden. :)
 
Vivster schrieb:
Milchmädchenrechnung.
Wenn du auf die absoluten Zahlen schaust relativiert sich das.(...)

Sebl schrieb:
Eben, man muss dass immer relativ sehen.


Und eine Prozentrechnung macht was genau, wenn nicht "relativieren"? :rolleyes: Klar hat ne 680 gegenüber einer 580 in absoluten Zahlen mehr Rechenpower zugelegt als eine 8800 gegenüber einer 7800, aber wenn die 680 am Ende nur 30 % schneller ist als ihr Vorgänger, während ne 8800 über 100 % Mehrleistung ausgepackt hat, welche von den beiden Karten hat dann "relativ" gesehen mehr zugelegt?


Die riesigen Sprünge bei der 8800 GTX und GTX 280 waren unter anderem möglich, weil die "Schmerzgrenze" beim Verbrauch noch nicht erreicht war. Seit der 480 saugen die jeweiligen High-End-Karten sowohl bei AMD als auch bei Nvidia 200 - 250 Watt, und solang man nicht grad 3x 8 Pin Stromversorgung und eine abartige Luftkühlung verbauen will ist das in etwa die obere Grenze für den Verbrauch und die Abwärme. Wo früher zusätzliche Rechenleistung mit zusätzlichem Stromverbrauch erkauft werden konnte ("dann machen wir den Chip halt doppelt so groß"), geht seit einigen Generationen fast alles nur noch über die Architektur weil die Hersteller probieren, nicht über 200-250 W für ne Single-GPU-Karte zu gehen. Und da zaubert man dann halt nicht mal kurz 100 % Mehrleistung bei gleichem Verbrauch ausm Hut, zumindest nicht von einer Generation auf die nächste und nicht innerhalb von einem Jahr ;)
 
Zuletzt bearbeitet:
Seid wann ist TITAN denn ne Neue Grafikkarten Generation?

und "CD" hat natürlich recht, man sollte als Leistungsvergleich immer Power/Watt hernehmen.
denn Heutzutage spielen auch Ökologische Faktoren eine Rolle.
Doppelt so groß, doppelter Verbrauch, Doppelte Leistung wäre für die Hersteller kein Problem, aber wollen sie scheinbar nicht.
 
Ich glaube der Stromverbrauch ist jetzt hier sekundär. Es mag sein, dass die Grafikkarten relativ gesehen weniger Leistung mit den neuen generationen bringen, aber dazu werden die Spiele immer stärker auf die Grafikkarten optimiert, sowie spielen immer besser werdende Treiber eine große Rolle, deshalb kann man das nicht so pauschal sagen. Auch spielt die Engine des jew. spiel eine Rolle usw.
 
@florian

Das ist die erste gk110 Karte die man kaufen kann.

Die profi teile mal ausgenommen k20 k20x
 
und dennoch gibt es diesen Chip quasi gleich lang wie den GX104 alias GTX680
von Neuer Generation würde ich da nicht reden.
 
Ich bin über die vergleichsweise geringe Mehrleistung der Titan (besonders in Verbindung mit dem Preis) auch enttäuscht, aber Erstens müsste man die Titan aufgrund ihrer GPU-Klasse eigentlich mit der GTX580 vergleichen (und die GTX680 mit der GTX560Ti), und zweitens würde die Tabelle ganz anders aussehen, wenn man nicht nur Prozentwerte nimmt, sondern absolute Leistungszuwächse. Z.B. wieviele 7800GTX zwischen einer GTX580 und einer Titan passen würden.

1% einer 7800GTX ist nunmal was ganz anderes, als 1% einer GTX680.

Dass die Leistung in alle Ewigkeit von einer Generation zur nächsten um 100% oder z.B. auch nur 50% zulegt, ist deshalb einfach nicht drin. Dann würde man sich exponentiell unendlich schnellen GPUs annähern. Es ist nur natürlich, dass sich irgendwann eine eher lineare Steigerung einstellt.

Was mich aber an der Entwicklung bei den Grafikkarten in letzter Zeit stört ist die Preisentwicklung seit den 600ern/7000ern. Da wurden ganze GPU-Familien mal eben in höhere Preissegmente geschoben und mit der Titan sogar ein ganz neues Preissegment geschaffen.
Bis vor Kurzem hätte so was wie die Titan noch höchstens 500-600 Euro gekostet. Was früher zwar auch nicht billiges aber noch für viele erschwingliches High-End war, ist jetzt ein exklusives Luxusobjekt.
 
ELQuark schrieb:
Ich glaube der Stromverbrauch ist jetzt hier sekundär. (...)

Für dich, für mich und genügend andere wahrscheinlich schon ;) Wer sich ne 400 € Grafikkarte (oder gleich ein paar) verbaut, den stören dann auch selten hundert Watt mehr oder weniger. Höchstens aus kühltechnischer Sicht, weil auf gleichem Raum 300 oder 400 W abzuführen ist dann nochmal was anderes als mit 200-250 W fertig zu werden. Irgendwie machbar wäre es. Nur gehen die Branche und das allgemeine Befinden eher in Richtung "Green IT" und mehr Rechenleistung auf Kosten von mehr Verbrauch wird heutzutage eher verpönt. Und da sowohl AMD als auch Nvidia ihre High-End-Karten als "Aushängeschilder" sehen, dürfen das natürlich auch keine absolut üblen Stromschlucker ala 3x 8 Pin Stromversorgung und ~400 W Lastverbrauch sein. Aber wie gesagt, diese Grenze legen sie sich selbst auf. Bei den Desktop-CPUs mit 125 bzw. 140 W Verbrauch hat man ja das gleiche beobachten können, irgendwann hat man halt gesagt "ok, so viel verbrauch und nicht mehr", und seither gehts teilweise sogar wieder rückwärts, aber die Performance-Sprünge zwischen den einzelnen Generationen sind dort ähnlich gering geworden wie bei den Grafikkarten. Wobei ich das auch garnicht mal sooooo schlecht finde. Wenn die Hersteller Null auf den Stromverbrauch schauen würdne, dann hätten wir je nach dem schon 200 W CPUs und 400 W Grafikkarten in nem typischen Gamer-PC. Und mal ganz abgesehen von dem Mehrverbrauch erfordert das auch ne ganz andere Kühlung, die man seinen Ohren je nach dem nicht antun will ;)

Also es hat seine Vor- und Nachteile, dass "Stromverbrauch" ein wichtigeres Kriterium ist bei der Entwicklung neuer GPUs, einerseits könnte man ohne da drauf zu achten wahrscheinlich vergleichsweise üble Rechenmonster bauen, dem gegenüber stünden dann aber auch mehr Leistungsaufnahme, eine aufwendigere und eventuell lautere Kühlung, sowie erhöhte Anforderungen ans Netzteil (wobei wenn man sich diverse Sigs anschaut rüsten manche Leute Rechner mit vielleicht 300 W Spitzenverbrauch einfach provisorisch mit 0.5 bis 1 kW Netzteilen aus, und die Netzteilhersteller würden sich über den Mehrverbrauch auch nicht grad ärgern, dann hätten ihre 500+ W Netzteile tatsächlich eine Mainstream-Berechtigung).

Aber abgesehen von dem ganzen blabla und tl;dr von mir hätte ich auch wieder Bock auf ne neue Grafikkarte, hatte mich irgendwie an diesen Jahresrhythmus gewöhnt. Andererseits erwarte ich mir von den (vermutlich) Ende des Jahres erscheinenden Karten auch keine überraschend hohen Zuwächse, 20-30 % vielleicht bei ungefähr gleichem Verbrauch und das wars.
 
CD schrieb:
Andererseits erwarte ich mir von den (vermutlich) Ende des Jahres erscheinenden Karten auch keine überraschend hohen Zuwächse, 20-30 % vielleicht bei ungefähr gleichem Verbrauch und das wars.

Ich rechne da, zumindest bei Nvidia, eher mit noch weniger. Ist schließlich nur ein Refresh der aktuellen Kepler-Architektur. Da ist erfahrungsgemäß eher nur eine Steigerung von ca. 15% drin.
Außerdem, wäre die GTX780 (mit GK114) bis 30% schneller als eine GTX680, wäre sie schon auf Augenhöhe mit der Titan. Das wäre zwar früher mal nichts besonderes gewesen, dass eine Grafikkarte nach einem halben Jahr schon wieder abgelöst wird, aber ich fürchte diese Zeiten sind vorbei.

Wahrscheinlicher ist, dass die 700er-Generation nur ca. 10-15% schneller ist und dann kann die Titan weiter als exklusives Enthusiastenmodell darüber einsortiert bleiben, bis irgendwann auch ein neuer Big-Chip kommt, der sie ablöst.
Allerdings würde ich mir wünschen, dass sich die Verhältnisse bis da hin wieder normalisiert haben und die Big-Chips auch wieder zu normalen High-End-Preisen verkauft werden. Also dass die Karte mit GM100 nicht als Titan 2 für 950 Euro kommt, sondern als GTX880 für 500Euro und bitte auch nicht mit über einem Jahr Verspätung.

Schwer zu sagen, wie die Chancen dafür stehen. Die GTX680 hat sich trotz ihrer Performance-GPU zum High-End-Preis offenbar gut verkauft. Ohne Not (externen Konkurrenzdruck) wird Nvidia sicher nicht davon abrücken.
 
Stimmt, Refresh und in gewissem Maße Titan sind gute Argumente für eine geringere Leistungssteigerung. Irgendeine Wunder-Generation mit 50 oder 100 % Mehrleistung darf man Ende des Jahres sicher nicht erwarten.



Und jeder der hier argumentiert, dass die absoluten Leistungssteigerungen in TFlop/s enorm steigen im Vergleich zu früher - ja stimmt, aber die Anforderungen der Spiele (zumindest wenn es kein halbherziger 0815-Konsolenport ist) halten damit Schritt und entwickeln sich in einem vergleichbaren Maß. Unterm Strich bieten die neuen Karten von Karte zu Karte enorm viel Mehrleistung (absolut gesehen), aber spätestens wenn man über Full-HD-Auflösungen rausgeht oder mit 120 Hz/3D anfängt, geht auch den aktuellsten Karten relativ schnell die Puste aus, auch wenn sie über den Unterschied zwischen einer 7800 GTX und einer 8800 GTX nur müde lächeln können.
 
boxleitnerb schrieb:
1080p + 4xAA ist keine normale Bedingung, das ist CPU-Limit und Käse für so eine Karte wie Titan. Zudem ist Titan der technologische Nachfolger von GF110, da kommen dann die 90-100% schon hin, was vergleichbar mit dem Sprung von GTX280 auf 480 ist z.B.

Doch das sind normale Bedingungen unter denen eine GTX 680 ihr volles Potenzial ausspielen kann, bei höheren Auflösungen verliert die GTX 680 aufgrund ihrer viel geringeren Bandbreite zu 2560x1600 nochmal etwa 5% an Leistung und aufgrund des zu geringen V-rams einige Prozentpunkte, dann noch bei höheren Auflösungen wie Tripple Monitor.

Das aufs CPU Limit zu schieben ist ein Scherz oder?


Denn ein CPU Limit ist es definitiv nicht, das ist falsch.
Die GTX 690 skaliert völlig im Rahmen und ist 25% schneller. Auch die Titan OC skaliert genauso wie bei der höchsten Auflösung.
Von einem CPU Limit ist man hier also noch weit entfernt, was anderes wäre 1280x1024 oder die nächst höhere Auflösung.

Wenn man sich die Spiele ansieht hat Computerbase diese gut ausgewählt.

[QUOTESweepi]Danke. Ich haette das aggressiver geschrieben.
Btw: die 8800GTX hat zwar relativ immer noch den größten Sprung gemacht, aber warum wird das mit einer 7800GTX verglichen? Es gab eine 7950GTX. [/QUOTE]

Agressiver im Bezug zu was? Die Karte leistet im GPU Limit knapp 30% mehr als eine standard GTX 680 unter Full HD.
Bei 2560x1600 leistet sie 35% mehr, während der Vorsprung auf die HD 7970 ghz 22% beträgt.

Titan gewinnt nicht wegen dem angeblichen CPU Limit in höheren Auflösungen ( ich meine diesen Test), sondern weil 50% mehr Bandbreite und mehr V-ram zur Verfügung stehen.

Einprägsamer Name, Leistungskrone - die Titan kann man gar nicht hoch genug bewerten. Durch sie werden Massen an Laienkäufern zu NV greifen.

Die Titan ist 25% schneller als eine HD 7970ghz , die GTX 480 war 20% schneller als eine HD 5870, besonders wenn Direct x11 Spiele verwendet wurden.
Ich sehe da wenig Gründe eine Karte für so einen exobitanten Preis sehr hoch zu bewerten.
Dass das Gesamtpaket sehr gut ist und die Karte klar die Leistungskrone inne hat, steht nicht in Abrede.
 
Die Frage ist ja auch warum man als Chiphersteller ne teure GPU konstruieren sollte, wenn kein Spiel die Leistung gebrauchen könnte. Und die Kunden mit ihrer 4k Auflösung bzw. ihren 3 Monitoren sind leider in der Minderheit um auch nur irgendwie die Entwicklung von solchen potenten Killern wie damals der GTX 8800 zu rechtfertigen. Die Nachfrage ist halt zu gering - also haut man relativ günstig zu produzierende Ware für viele Euros raus und freut sich über das Firmenkonto :)

Wenn dann noch alle Entwickler auf Konsolenports setzen, da der PC-Markt an sich nicht rentabel genug ist, kommt das dabei raus was die letzen 5 Jahre geschehen ist. Schwächere werdende Performancezuwächse - dafür wird halt massiv an der Effizienz gearbeitet.
 
samuel89 schrieb:
Doch das sind normale Bedingungen unter denen eine GTX 680 ihr volles Potenzial ausspielen kann, bei höheren Auflösungen verliert die GTX 680 aufgrund ihrer viel geringeren Bandbreite zu 2560x1600 nochmal etwa 5% an Leistung und aufgrund des zu geringen V-rams einige Prozentpunkte, dann noch bei höheren Auflösungen wie Tripple Monitor.

Das aufs CPU Limit zu schieben ist ein Scherz oder?


Denn ein CPU Limit ist es definitiv nicht, das ist falsch.
Die GTX 690 skaliert völlig im Rahmen und ist 25% schneller. Auch die Titan OC skaliert genauso wie bei der höchsten Auflösung.
Von einem CPU Limit ist man hier also noch weit entfernt, was anderes wäre 1280x1024 oder die nächst höhere Auflösung.

Wenn man sich die Spiele ansieht hat Computerbase diese gut ausgewählt.

In 1080p mit MSAA kannst du Titan nicht immer ausreizen. Warum ich das weiß? Weil ich selbst zwei Stück habe. Niemand kauft sich so eine Karte für diese Auflösung, es sei denn er benutzt SSAA oder sowas. So oder so ist Titan keine neue Generation, daher ist die Tabelle aus dem Startpost eh Käse.
 
Zuletzt bearbeitet:
Die Titan hatte ich nur mal der Vollständigkeit halber mit erwähnt, ist klar das sie zur Kepler-Generation gehört und der Vollausbau des "großen Chips" GK110 und der eigentliche Nachfolger zur GTX 580 ist (wobei Vollausbau hier ja auch nicht wirklich zutrifft, da nur 14 von 15 SMX aktiv sind). Mal schauen wann sie uns die Titan x2 präsentieren (analog zur 590), also 2 GK110 auf einem PCB ;)

P.S. Habe die Tabelle im Startpost dahingehend angepasst.
 
Zuletzt bearbeitet:
Zurück
Oben