News Nvidia GeForce GTX 980/970 mit 4 GB GDDR5

ProfessX schrieb:
Und das Spiel sieht trotzdem nicht viel besser aus als GTA 4 mit Mods. Das Spiel ist einfach 0 optimiert.
Soweit ich weiß startet COD Ghosts auch nicht, wenn man weniger als 6gb ram eingebaut hat und nutzt dann nur 1-2 gb^^

Echt? Naja typisch Ubisoft irgendwie :D deren Spiele (auch AC4, FC3, Splinter Cell) sind irgendwie meist nicht gerade super optimiert ^^
 
Kann ich nicht bestätigen, außer im Bereich Triple-Buffer *zwicken die Engines gelegentlich*, aber es gibt diverse Abhilfe, die gewisse Drops erst gar nicht entstehen lassen ...:D
 
Sogar eine 8800GTX brach komplett ein wenn man die Auflösung auf extremes Level aufdrehte, jede Karte macht hier schlapp, das hat 0 mit dem Vram zu tun. Der mehr als üppige Vram der 8800 GTX war einer der Grundsteine für die extreme Langlebigkeit der Karte, in Kombination mit guter Rohleistung ging da über viele Jahre max. Details. Ergo nur Rohleistung, oder nur Vram bringt gar nix. Beides ist für eine perfekte langlebige Karte von Nöten. Dh. wenn NV Monate auf gute Karten warten lässt ist genau das das Ziel, Schnellschüsse die die Kunden ausbaden müssen.
 
Kasmopaya schrieb:

Sozusagen GDDR6-Speicher. GDDR5 ist doch auch mittlerweile asbach-uralt.

Und der "GP210" wäre dann der Nachfolger für mein GM210. Dann noch neues Board mit NV-Link-Anbindung oder so. :D

Stichwort: Geplante Obsoleszenz.

Dann kann man ja auch unterstellen, dass das Lot schlecht ist, weil damit geplante Obsoleszenz betrieben wird. Die meisten Karten sind doch im A****, weil der Speicher Fehler produziert, weil die Verbindung fehlerhaft ist.

Thanok schrieb:
@Speicher-Debatte:
Es kommt drauf an was man spielt und wie. Alle Games die so auf den Markt kommen skalieren quasi mit ihrem Speicherverbrauch. Wenn der Speicher nicht mehr ausreicht um vernünftig zu spielen muss man idR ohnehin die Grafikeinstellungen aufgrund mangelnder GPU-Leistung anpassen. Sobald man anfängt zu modden ist das eine andere Geschichte. Ich kriege meinen VRam auf FullHD locker ausgelastet, die ganzen aktuellen Spiele ziehen aber meistens nur ~2,8GB von Haus aus.
Einzige Ausnahme dürfte derzeit wohl Watchdogs sein. Das zieht @Ultra +MSAA auch schnell mal 4,5GB.

Dann noch Spiele, die "ohne Grund" den Speicher vollballern. Für Two Worlds 2 reicht eine Karte mit 1GB. Es macht aber auch 3GB voll, immer bei Wechsel in Räume usw.

Thanok schrieb:
Mein VRAm Liebling ist aber derzeit noch Minecraft: Lockere 6GB + GPU-Limit. Zugegeben, das ist gemodded.

[Ironie]Die Titan Black ist auch ******* und lahm. Entsorge sie bei Banger.[/Ironie]
 
Sozusagen GDDR6-Speicher. GDDR5 ist doch auch mittlerweile asbach-uralt.
Jo wär schon Nice. Aber Big Maxwell Käufer können darüber nur müde lächeln, die überspringen Pascal locker und warten auf die nächste Architektur(Volta). Wichtig ist nur das man gute GPUs kaufen kann(inkl. üppigen Vram für die nächsten Jahre), nicht was als nächstes geplant wird in Sachen GPUs.

Der Nachfolger von Pascal(Volta) wird dann wieder was haben was Pascal Käufer gerne gehabt hätten. Von sowas darf man sich aber nicht beeinflussen lassen. Erst kaufen wenn ein wirklich wichtiges Game die Leistung auch haben will. Zur Zeit stehen Witcher III EE und Star Citzien; Rome II EE vor der Tür.

Und so sieht das bei mir aus Architektur Springen vom feinsten:
.
.
.
2001: GF 3 TI 200 64MB
2003: 5900 FX 128MB
2007: 8800 GTX 768MB
2011: GTX 580 3GB (schlägt sich dank üppigen Vram prächtig, genau so wie der Vorgänger)
2015/16: Big Maxwell: 8-12GB
2020/21: Volta? 48GB GDDR? Unified Memory Architecture + stacked Memory
.
.
.
Dann kann man ja auch unterstellen, dass das Lot schlecht ist, weil damit geplante Obsoleszenz betrieben wird.
Also meine Karten rauchen mir nicht ab, da bräuchte man schon genaue Zahlen und wie die Karten gekühlt wurden. Der 3GB Vram der 780TI geht sicherlich früher aus, als das Lot des Vrams schlapp macht.

Zeig mir mal eine 680 2GB im Forum die den Lot Tot gestorben ist, das Forum ist aber voll von Vram Krüppel Theads über die Karten.
 
Zuletzt bearbeitet:
Meine Glaskugel verriet mir, dass auch bei Pascal erst die Midrange-Chips kommen. Daher nicht nur GM204 überspringen, sondern "GP204".

Edit: Das sind ja prmär die legendären 8800-Karten, die reihenweise abrauchen, auch wenn sie immerhin 6 Jahre alt sind. Aber für Leute, die kein Geld für sowas mehr haben, reichen die ja evl. noch für alte Spiele.
 
Zuletzt bearbeitet:
Wenn man da genau Zahlen hätte dann könnte man weiter reden. Aber wenn von Millionen Karten ein paar im Forum auftauchen... Meine 8800 GTX geht auf ihr Jahrzehnt Nutzungszeit zu und ist zur Zeit im Office PC für 0 € im Einsatz. Wird wohl die langlebigste PC Komponente die ich je hatte.
 
Natürlich habe ich bei meinem Speicher-Screen (den ich übrigens erst mit dem Prescision OSD machen wollte, welches aber wohl derzeit kein 64bit beherrscht) die Settings und die Szene so gewählt dass der Speicher auch voll wurde. Im Normalfall erreicht man mit Ultra + 8x MSAA/TXAA 2 aber auch ganz schnell 4-4,5GB Nutzung.

@Banger: Ich tausche gerne gegen eine GM210 Karte. Meine High-End Chips werden nur durch andere High-End Chips ersetzt, Mittelklasse kommt mir nicht in die Kiste!

@AMD-Mafiosi: Woher weißt du dass es nicht möglich ist eine rein durch den Takt schnelle Architektur zu erschaffen? Bisher haben alle Architekturen versucht eine hohe IPC zu erreichen (was bei GraKas eben durch Shader wesentlich einfacher, aber auf Kosten der Chipgröße, geht als bei CPUs) und diese dann mit einem mehr oder weniger hohen Takt kombiniert.
In erster Linie ist das Silizium der limitierende Faktor. Über 5Ghz hat Silizium extreme Probleme so dass man extreme Spannungen benötigt (Physikalische Grenze!). Außerdem ist der Entwicklungsaufwand für eine reine "Hochtakt-Architektur" relativ groß verglichen mit den Kompromisslösungen die wir bekommen. Eine sehr hohe IPC ist auch nicht mal eben hingekleistert, ab einem gewissen Punkt wird es auch sehr aufwändig.
Was für eine GraKa nutzt du eigentlich? Da du laut eigener Aussage nur auf IPC achtest bleibt ja eigentlich nur die 780Ti oder Titan Black. Uns anderen ist das vermutlich egal so lange die Leistung (und die Leistungsaufnahme) am Ende passt.
 
@Kasmopaya

Naja 1 Jahrzehnt? Erstmalig präsentiert wurde am 8. November 2006. Also noch 2 ganze Jahre warten ;)
 
Locker, der Office PC(Q9450; 250GB 510 SSD) wird erst durch meinen aktuellen Ivy-E 6 Kern ersetzt und der dürfte dank DX 12 und Mantle diesmal extra lange durchhalten. Ergo rechne ich mit über einem Jahrzehnt 8800 GTX Einsatz. https://www.computerbase.de/forum/threads/ivy-e-ca-2000eur-pc-absegnung.1253584/

Könnte zwar dann die freie GTX 580 3GB einbauen, aber das werde ich absichtlich nicht machen. :D
 
Zuletzt bearbeitet:
Banger schrieb:
(...)
Edit: Das sind ja prmär die legendären 8800-Karten, die reihenweise abrauchen, auch wenn sie immerhin 6 Jahre alt sind. Aber für Leute, die kein Geld für sowas mehr haben, reicht die ja evl. noch für alte Spiele.

Die Karten und Komponenten sind idR vollkommen ok. Wo es nach mehreren Jahren meist anfängt zu krieseln ist die Lötverbindung zwischen dem PCB und den Speicherchips. Da hat man bei der Herstellung wohl leider etwas gepfuscht. Schlimmstenfalls führen die Speicherchips einen Großteil ihrer Abwärme über die Pins zum PCB ab und "schmelzen" dabei langsam aber stetig die Lötverbindung auf. Dass die Karten idR "über Kopf" verbaut werden hilft dabei nicht sonderlich, da die Schwerkraft die Chips dann zusätzlich noch vom PCB wegzieht. Gerade deswegen funktioniert bei vielen älteren Karten ja auch der "Schmeiß sie mal bei 100 °C in den Backofen"-Trick.

Disclaimer: Der Schmelzpunkt von Lötzinn ist natürlich deutlich über 100 °C - durch lang anhaltend hohe Temperaturen kann es aber aufgeweicht werden und wenn dann noch eine externe Kraft - zB die Gravitation - an den Bauteilen zieht anstatt sie aufs Board zu drücken, dann verliert irgendwo irgendwann ein Pin mal den Kontakt zum Board und schwupps is die ganze Karte "Tot".
 
Thanok schrieb:
Natürlich habe ich bei meinem Speicher-Screen (den ich übrigens erst mit dem Prescision OSD machen wollte, welches aber wohl derzeit kein 64bit beherrscht) die Settings und die Szene so gewählt dass der Speicher auch voll wurde. Im Normalfall erreicht man mit Ultra + 8x MSAA/TXAA 2 aber auch ganz schnell 4-4,5GB Nutzung.

@Banger: Ich tausche gerne gegen eine GM210 Karte. Meine High-End Chips werden nur durch andere High-End Chips ersetzt, Mittelklasse kommt mir nicht in die Kiste!

@AMD-Mafiosi: Woher weißt du dass es nicht möglich ist eine rein durch den Takt schnelle Architektur zu erschaffen? Bisher haben alle Architekturen versucht eine hohe IPC zu erreichen (was bei GraKas eben durch Shader wesentlich einfacher, aber auf Kosten der Chipgröße, geht als bei CPUs) und diese dann mit einem mehr oder weniger hohen Takt kombiniert.
In erster Linie ist das Silizium der limitierende Faktor. Über 5Ghz hat Silizium extreme Probleme so dass man extreme Spannungen benötigt (Physikalische Grenze!). Außerdem ist der Entwicklungsaufwand für eine reine "Hochtakt-Architektur" relativ groß verglichen mit den Kompromisslösungen die wir bekommen. Eine sehr hohe IPC ist auch nicht mal eben hingekleistert, ab einem gewissen Punkt wird es auch sehr aufwändig.
Was für eine GraKa nutzt du eigentlich? Da du laut eigener Aussage nur auf IPC achtest bleibt ja eigentlich nur die 780Ti oder Titan Black. Uns anderen ist das vermutlich egal so lange die Leistung (und die Leistungsaufnahme) am Ende passt.

Woher ich das weiß? Nunja ich weiß es nicht, aber es hat eben Gründe warum Intel als auch AMD als wohl auch NV keine Hochtakt Generationen bringen. Ich erinnere mich an das Desaster mit dem P4 Presskopf, 10Ghz und mehr waren das Ziel.. Gottseidank besann man sich auf eine gute Grundleistung und baute diese aus. Ich sehe es bei CPU wie mit Motoren.. du kannst nicht immer nur an einen 70PS Motor einen riesen Turbo hängen, das Verhältnis muss stimmen. So ists auch bei CPUs und eben auch bei GPUs, nur dass man eben viele kleine Turbos nimmt.. Das mag bis zu einem Gewissen Maße gehen. Da wir aber auch Fertigungstechnisch immer mehr auf der Stelle Treten und die Zyklen länger werden, kann man es eben nur über Chipgröße ausgleichen.. und da frag jeden VWLer, das ist nicht Erstrebenswert
Und ja ich achte sehr auf IPC, aber ich bin eher der Architekturfetischist, sowohl GK110 als Ti noch als TITAN sind mir absolut zu wider, weil der Preis das Übersteigt, was ich gewillt bin für eine Graka auszugeben. Ich geh auf die 30 zu, Spiele sind eher ältere nur Vorhanden und vor allem kaufe ich mittlerweile nicht mehr das Neuste vom Neuen. Sollte also die GTX980 schneller werden als die Ti, was ich bezweifel, dann würde ich mit einer GTX770 gebraucht liebäugeln. Für WoT, WoWs und solche Sachen wie Shogun oder EU4 reichts allemal.. Wichtig ist nur, dass die jetzige GPU Leistung nicht ansatzweise für 4k im Mainstream reicht, was erklärtes Ziel Intels bis 2020 ist.
 
Mr.Seymour Buds schrieb:
Autsch. Beides in einem Satz. Dreimal darfst Du raten warum bei gleicher Leistung der Stromverbrauch sinken wird. Tipp: Es hat was mit dem Speicherinterface zu tun...

Keiner weiß alles und dass das speicherinterface in so einer relation zum stromverbrauch steht hör ich bei dir zum ersten mal.Bisher dachte ich läge es hauptsächlich am fertigungsprozess/spannungswandler etc...
Dennoch sollte nvidia versuchen ne 512bit karte für unter 200 Watt hinzubekommen.
 
Dennoch sollte nvidia versuchen ne 512bit karte für unter 200 Watt hinzubekommen.
512SI Karten waren schon immer eher Mittelmaß, grad was die Effizienz angeht. NV hatte ja mit der GT 200 Monster Chip schon einen Versuch. AMD gleich 2x. Nee, lieber die goldene Mitte wie 8800 GTX und Titan. Ich kenne auch keinen Bandbreiten Krüppel, von dem her reicht hoch gezüchteter GDDR5 noch aus.
 
AMD-Mafiosi schrieb:
Wichtig ist nur, dass die jetzige GPU Leistung nicht ansatzweise für 4k im Mainstream reicht, was erklärtes Ziel Intels bis 2020 ist.
Da stimme ich dir voll und ganz zu. Die derzeitige Generation sehe ich persönlich als geeignet für FullHD an, aber mehr auch nicht. Natürlich ist es möglich höhere Auflösungen mit nur einer GPU zu fahren, aber dann eben mit Abstrichen bei der Qualität. Die Tatsache dass sich 120+Hz Monitore etabliert haben macht es natürlich nicht besser.

@Speicherinterface: GDDR6 soll ja 2015 kommen von daher kann es gut sein dass es keine weiteren Karten mit 512er SI geben wird. Hochgezüchteter GDDR5 Speicher + 384bit Interface reicht derzeit eigentlich locker aus. 512er SIs sind ja eher Notlösungen bis die nächste Speichergeneration verfügbar ist.
 
@Sheldon

Selbst wenn wir von deiner Argumentation ausgehen und ein Setting wählen bei dem Vsync eingeschaltet ist und wir beide Karten mit 60fps fix laufen lassen kannst du in diesem Setting bei der 680 ein höheres AA benutzen oder sogar DS nutzen, wo die 580 grad so die 60fps schafft.

Die 680 GTX war vom Performancesprung zur 580GTX unter Einberechnung des Verbauchen ganz gut.

__
Naja wenn stacked memory kommt und die Versprechungen von NV stimmen hat sich damit vorerst das Bandbreitenproblem sowiso erledigt und sollte auf längere Sicht nicht bremsen, sondern eher die Rohpower oder VRAM Grösse ;)
 
Zuletzt bearbeitet:
Vitec schrieb:
höheres AA benutzen oder sogar DS nutzen
Etwas besseres AA, welches man fast nicht sieht - ok
DS? Klar, wo die 580 gerade so die 60 fps schafft schafft die 680 UHD. Oder willst du nur in eine Richtung verdoppeln? Unschön. Oder etwa kein ganzzahliges Vielfache? Unschön. Ne Stock 680 ist vllt. 10% schneller als ne OC 580, das merkt man nicht. Und wegen des Verbrauchs von einer 580 auf eine 680 umzusteigen ist richtig dämlich - was man da drauflegt holt man nie wieder rein.
 
Natürlich reicht die Mehrleistung der 680 nicht für DS, es sei denn beide Karten hängen tief im VSync-Limit. Vernünftiges AA ist mit 33% Mehrleistung locker drin. Vl. nicht 8xMSAA, aber 4x. Und das nützt je nach Spiel eine ganze Menge. Dadurch werden nicht nur unschöne Kanten geglättet sondern auch flimmernde Texturen beruhigt - vor allem bei Hochauflösenden Texturen macht das riesige Unterschiede (trotz AF) aus.

Des weiteren behauptest du dass eine 680 vl. 10% vor einer OC 580 ist. Das ist gleich doppelt Haarsträubend.
1. Vergleichst du Stock mit OC. Wenn schon dann musst du auch OC mit OC vergleichen und da sind die Abstände dann wieder gleich.
2. Eine 580 müsste um der 680 auf 10% nahe zu kommen auf 925Mhz getaktet werden: Ja, das ist möglich. Meine alte 580 schafft das auch. Allerdings habe ich da Glück mit dem Chip gehabt, einen Thermalright Shaman drauf und die SpaWas werden mit dem SpaWa-Kühler für die 480 gekühlt; das Ding hat mehr Kühlleistung als jeder Fertig-Custom-Kühler und läuft dann trotzdem ziemlich warm. Dazu kommt noch die Spannung die nötig ist. Wenn ich selbst tweake kann ich die Karte ans Limit drücken (was bei 1,15V 980Mhz waren), das kann ein Boardpartner aus diversen Gründen nicht. Hier geht es vor allem darum bei Bedarf noch Lust zu haben. Selbst mit ordentlicher Selektierung sind 900Mhz @ 1,15V schon ziemlich gut, was man auch an den Herstellerdesigns sieht: Meines Wissens gab es keines mit mehr als 850Mhz.

Aber, wie bereits erwähnt wird die Menge der Qualitätssteigernden Features durch die Auslastung begrenzt. Wenn die 580 gerade so die 60fps halten kann ist auf einer 680 nicht mehr als AA drin. Wenn die 580 aber mit vollem AA noch locker die 60fps hält ist Downsampling auf der 680 nicht unwahrscheinlich.
 
Von einer 580 aufzurüsten lohnt schon. Aber dann gleich auf 980. Release war immerhin Nov.2010, also heute eine uralte Karte.
 
Zurück
Oben