Test Nvidia GeForce: Kepler, Maxwell und Pascal im Treibervergleich

Was im Ende doch so ist wie ich es gesagt habe Entwickler sind faule .... und ja bin selbst einer bevor hier wieder jemand was sagt nur mehr im bereich nennen wir es mal Sicherheitstechnik. ;)

Naja mir persönlich gefällt es nicht wie der PC Markt kaputt gemacht wird. Auch wenn ich nicht mehr soviel spiele wie früher.
 
verträgt sich nicht wirklich mit meiner realität...ich staune jedesmal, wenn neue Spiele rauskommen und die 780ti ne ganze Ecke schlechter als ne 290 performt und meist nur noch zwischen gtx 960 und 970.

In eurem eigenen "Performance-Index" liegt die Ref 980 dann auch mal 25% vor der Ref 780ti, in FHD, also ne ganze Ecke mehr, als es hier suggeriert wird.
 
@ Cris-Cros
(erstmal cooler Avatar)
Das stimmt und manche spiele wie gta V haben beide schattentechniken. Aber mir gefällt das trotzdem nicht. besonders mass effect mit seinem verlangen nach physix ist grütze. Danke GAMEdreck


Hab ne 970 und imme rausgewogen amd und nvidia.
 
Die GTX1060 hat wohl mehr durch aktuelle Treiber gewinnen können..das ist mir bei der aktuellen GPU-Kaufberatung schon aufgefallen.

Test der GTX1060
Bildschirmfoto_GTX1060Test.png
Die GTX1060 ist 5% schneller als die RX480
Mit Crimson hat die RX480 5% seit dem ersten Treiber zugelegt
Bildschirmfoto_CrimsonTest.png

Trotzdem ist in der aktuellen Kaufberatung die GTX1060 immernoch 5% schneller!?
Bildschirmfoto_Kaufberatung.png

Eigentlich will/brauche ich keine Antwort... es zeigt mir, das diese ganzen %-Vergleiche voll fürn Popo sind.
Wenn ich jedoch noch eine eine alte GTX480 nutze, die mit den neuen Treiber deutlich langsamer läuft, und nach downgrade auf 'nen Asbach-Uralt-Treiber wieder deutlich schneller wird, spricht das Bände.
Kann man mit diesem Test leider nicht herausfinden, dafür ist der gewählte Zeitrahmen zu klein gehalten.

Wie hätte ich das untersucht?: Ein Windows7 Rechner, GTX ab Fermi bis Pascal mit ersten Treibern gegen Aktuelle... ich denke da wird das 'Problem' deutlicher! Das ist jedoch nur Ínteressant für die kleine Gruppe Käufer, die nicht alle 1,2 Jahre eine neue Grafikkarte kaufen ;)
 
Bei 50% Speicher-Ersparnis durch die effizientere Adressierung des Vega-Architektur-Speichercontrollers also demnach vergleichbar mit 16 GB auf Basis aktueller Grafikkarten-Architektur (somit klar Pascal und Polaris überlegen). Das würde für WQHD und Full-HD zumindest eine ganz schön lange Weile ausreichen
Aktuell kursieren Grüchte das Vega nur big Maxwell OC Rohleistung erreichen wird. Dann reichen 16GB dicke für 4 Jahre, würde passen.(bei Titan XM Rohleistung würden 12GB reichen) Wenn Titan XP(und mehr) Rohleistung zur Verfügung steht 3 Jahre. Auch ordentlich.

Allerdings will ich diese Aussage erstmal in Tests bewiesen haben das ein Vega 8GB hier keine Probleme bekommt bei den Frametimes wenn ein Spiel 10-12GB Vram haben will.(und ich meine wirklich brauchen, egal wie man den Vram Verbrauch zustande bringt, für diese Tests muss man den Vram Verbrauch einfach hoch prügeln um Vram mäßig in die Zukunft schauen zu können, was man eigentlich bei jedem Test schon hätte machen müssen, dann wäre ein 970 3,5GB Desaster sofort aufgefallen, aber interessiert ja wieder keinen außer mir) 16GB zu simulieren wird schwierig wenn es keine Karten von NV gibt die soviel einlagern können.

Das NV günstiger ist und mehr Vram hat kommt nur sehr selten vor, eher im Gebrauchthandel, oder auf Schnäppchenjagd. Ich meinte damit auf keinen Fall das man erwarten kann das sowas eintritt. NV geizt seit ewiger Zeit extrem mit dem Vram. Nur könnte man über so einen Fall schon stolpern. Eine Fury X 4GB ist zb. so ein Fall wo das eintreten könnte. Aber nicht muss!

Wollte damit nur die pauschalen Aussagen die hier getätigt werden aufweichen. Ein AMD Vram Krüppel ist genauso wenig wert wie einer von NV. Egal wieviel Rohleistung die GPU dahinter hat. Und ein Vram Krüppel in rot ist genau so kurzlebig wie in grün, da helfen auch keine Treiberboosts mehr. Geht der Vram aus ist Ende.

Ich ahne da schon übles für Vega. Höchstwahrscheinlich keine hochwertige TSMC Produktion und nur 8GB Vram fürs erste. Auf das Marketing bla bla gab ich bei der Fury schon nichts, von wegen HBM ist GDDR überlegen etc. Alles nur heiße Luft. Da müssen wir auf Beweise in Form von Tests warten, fürs erste bleiben 8GB 8GB.
 
Zuletzt bearbeitet:
Naja bei HBM1 war halt nicht mehr möglich und GDDRX z oder was auch immer ist einfach veraltet mann. Nur weil NV dass nicht ein sieht und dem Kunden sagt GDDR ist dass modernste der Welt ist klar. Ganz einfach modernen GPUS ist immer der Speicher dass was ihm dass Genick bricht ist nun mal so und da setzt HBM an ohne dass man ein Ultra Großes Si Braucht. Nicht falsch verstehen für Mid und Low End reicht GDDR noch völlig aus nur bei Highend halt nicht.
 
Ganz einfach modernen GPUS ist immer der Speicher dass was ihm dass Genick bricht
Nö, Titan XM braucht kein HBM, Speicherbandbreite passt noch und 12GB perfekt ausbalanciert im Verhältnis zur Rohleistung.

Und eine Titan XP mit 8-10GB HBM wäre der absolute super fail. Ich würde sie 1:1 mit der Fury X 4GB gleich setzen. Wahrscheinlich auch noch für 2000€ weil de HBM so teuer ist. Also dann schlimmer wie die Fury X.

Diese ganze HBM Geschichte ruft bei mir ein so heftiges Déjà-vu hevor. HD 2900 XT v. 8800GTX. Dauerte ewig bis AMD die 8800GTX Speed knackte. Die AMD hatte Ringbus und 512SI und somit massiv Vram Bandbreite. 512MB Vram und der Fokus auf max. Bandbreite brach der AMD so heftig das Genick.

Fury X HBM technisch nur winzige 4GB möglich und viel zu viel Bandbreite wieder der Fokus auf max. Bandbreite. Der aller selbe Fehler 1:1 wiederholt. Noch dazu die Gerüchte das sich AMD schwer tun könnte die Titan XM im Komplettpaket zu knacken(Speed, Effizienz; Vram). Das fehlt noch, dann hätte sich die Geschichte komplett wiederholt. (man erinnere sich der Nachfolger die HD 3870 wurde von der 8800GTX belächelt)

HBM ist extrem teuer, das lohnt erst wenn man ausreichend Vram Volumen verbauen kann technisch und vom Preis her. Wenn eine 16GB Vega 2000€ kosten müsste wegen dem HBM Preis, dann würde das auch nix bringen. NV wird aber wohl mit Volta auf HBM gehen denke ich mal für die High End Karten.

Zu 99% bricht zu wenig Vram Volumen einer high End Karte am Ende das Genick, niemals die Bandbreite.

Jetzt müssen erstmal AMDs Marketing Aussagen bezüglich der Vega 8GB stimmen, sonst floppt sie genau so wie die Fury. Mit dem aller gleichen Problem, den Fehler 1:1 wiederholt.
 
Zuletzt bearbeitet:
@mrc-king
Wie definierst du hier ausreichen? Die Leistung der GTX 1080 ist doch mehr als beachtlich und schneller als eine Fury X ist die auch und das obwohl sie nur GDDR und keinen HBM Speicher hat. Der Strombedarf ist auch mehr als akzeptabel.
Ich bin ein Freund von Fortschritt und finde es gut, dass AMD die Technik pusht, auf Biegen und Brechen muss das aber nicht sein. Ich denke mit HBM2 ist die Technik wirklich marktreif, was die Größe betrifft. Ganz so billig in der Produktion wird er aber nicht sein, sonst würde AMD nicht "nur" 8GB verbauen.
Auf Dauer wird HBM hoffentlich die Lösung werden, was die GPUs betrifft, dass aber deswegen GDDR nun auf einmal der absolut limitierende Faktor ist, ist so nicht richtig. Da lässt sich eher an der grundlegenden Architektur der GPU mehr optimieren, um einen Leistungszuwachs zu erzielen. Das hat AMD ja hoffentlich bei Vega getan.
 
Kasmopaya schrieb:
... das Vega nur big Maxwell OC Rohleistung erreichen wird. Dann reichen 16GB dicke für 4 Jahre, würde passen.(bei Titan XM Rohleistung würden 12GB reichen) Wenn Titan XP(und mehr) Rohleistung zur Verfügung steht 3 Jahre. Auch ordentlich.
Allerdings will ich diese Aussage erstmal in Tests bewiesen haben das ein Vega 8GB hier keine Probleme bekommt bei den Frametimes wenn ein Spiel 10-12GB Vram haben will ... aber interessiert ja wieder keinen außer mir) 16GB zu simulieren wird schwierig wenn es keine Karten von NV gibt die soviel einlagern können.
Wollte damit nur die pauschalen Aussagen die hier getätigt werden aufweichen. Ein AMD Vram Krüppel ist genauso wenig wert wie einer von NV. Egal wieviel Rohleistung die GPU dahinter hat. Und ein Vram Krüppel in rot ist genau so kurzlebig wie in grün, da helfen auch keine Treiberboosts mehr. Geht der Vram aus ist Ende.
Ich ahne da schon übles für Vega. Höchstwahrscheinlich keine hochwertige TSMC Produktion und nur 8GB Vram fürs erste. Auf das Marketing bla bla gab ich bei der Fury schon nichts, von wegen HBM ist GDDR überlegen etc. Alles nur heiße Luft. Da müssen wir auf Beweise in Form von Tests warten, fürs erste bleiben 8GB 8GB.

Naja zu Beginn (bei OC) bis zu GTX 1080Ti Leistung wäre meine Schätzung (auch abhängig von Spiel(-Umsetzung) und API, mit Pauschalaussagen wird man da ein wenig auf dem Schlauch stehen), also im Schnitt mehr als Big-Maxwell OC, davon gehe ich schon aus (später vielleicht noch mehr als GTX 1080Ti OCed, wenn die überlegene Vega-Architektur ausgereizt werden sollte).

Volta wird m.E. noch ordentlich an Leistung etwas oben drauf setzen, was aber Features sowie gleichwertige Low-Level API Nutzung angeht, wird man warten müssen auf passende Tests, keine Frage. Wenn man sich die Titan X(P) anschaut, so ist diese erstens kein GP 102 Vollausbau, noch hat sie mehr Speicher als der Vorgänger, auch weil es sich nVidia leisten kann die Entwicklungschritte kleiner ausfallen zu lassen in dem Bereich (etwas an die CPU Politik Intels erinnernd in den letzten Jahren).

Dazu kommt, dass man unter DX11 die besseren Karten hat, die Marktmacht ausspielt und die Entwicklung von DX12/Vulkan nur wenig bis gar nicht fördert, bis man auch ebenbürtig auf dem Gebiet zu AMD ist, da kann man sich bei der proprietären Gedöns-Politik seitens nVidia bedanken. Bleibt die Hoffnung, dass nVidia endlich mehr Innovation/Fortschritt durch eine vollwertige Architektur mit Volta GPUs erlauben wird.

Da bist Du nicht der einzige, interessant fände ich das auch allemal, aber bei der GTX 970 noch nVidia mit so einem überfälligen Test vor den Bug zu schießen, damit hätte man sich bei Huang & Co. sicher nicht beliebt gemacht und ohne Akzeptanz seitens nVidia und deren Boardpartnern, sieht man als Hardwareseite/-Magazin evt. auch ziemlich alt aus bzw. wird man bald in der Versenkung/Bedeutungslosigkeit verschwinden für viele von deren Lesern.

Gewiss könnten Entwickler bei doppelter Effizienz bspw. mit 8GB trotzdem einem einen Strich durch die Rechnung machen, indem sie bestimmte Detailstufen gar nicht freischalten, wenn nicht nativ 12 oder 16 GB als Speichermenge der GPU erkannt wird, aber das wäre dann schon extrem unsinnig seitens der Entwickler. Mit den Fiji Karten wie der Fury X mit HBM1 wirst Du wegen älterer Architektur und Speicheradressierung wohl nicht ganz in den Genuss der Effizienz von Vega kommen, wenn man Koduri da Glauben schenken will. Bleibt zu hoffen, dass es sich auch dann in Tests irgendwo zeigen wird.

Natürlich hast Du Recht, Speicherkrüppel gibt/gab es von beiden Chip-Entwicklern, das ist keine reine nVidia-Spezialität, auch wenn es bei letzteren insgesamt deutlich verbreiteter ist.

Ich peile 12 GB an, ob nun durch Speichercontrollereffizienz oder nativ, um für die kommenden 4 Jahre (bis zur GPU-Generation nach Navi oder zwei GPU-Generationen nach Volta) genug für Full-HD und gelegentliches WQHD Downsampling zu haben, und mir würden daher vermutlich schon 50% mehr Effizienz bei HBM2 Adressierung mit Vega (8 GB) im Vergleich zum GDDR5(X) älterer Generation reichen, es müssten keine 100% zusätzlich (Unterbringung von 16 GB) sein, aber mitnehmen würde ich diese dann trotzdem gerne :).

Da Spiele immer noch in Full-HD entworfen werden und das noch ziemlich lange so bleiben wird - auch wegen der Konsolen - 4K/UHD somit zu unausgereift und noch zu teuer ist und natives WQHD sich für mich nicht lohnt bzw. als Schritt zu klein ist, mache ich mir erst einmal wenig Gedanken darüber, wie die neuen Vega-Karten unter 4K/UHD laufen werden. TSMC muss nicht unbedingt sein, die kochen auch nur mit Wasser und Samsung oder GF würde mir wohl auch in 14/16nm reichen.

Solange die Karte ca. 5+ Jahre durchhalten kann und die GPU wie versprochen die Leistung abruft (da ist mir der Boardpartner und dessen Bauteilequalität und Garantie schon um einiges wichtiger, dieses Mal trotz guter Erfahrung vermutlich keine GigaByte-Karte, sondern entweder erstmals MSI oder wieder XFX oder HIS, evt. auch Sapphire oder Powercolor sind denkbar), ist mir die Chip-Produktionsstätte relativ egal.
 
Zuletzt bearbeitet:
Tja so jetzt sage ich mal den ganzen HBM Verweigerer übertaktet mal nur den RAM, aber ordentlich so wie ich und dann nur die GPU um die gleichen Prozent und schaut euch dass Ergebnis an. Also wenn Volta auch nur mit GDDR rauskommt dann nehme ich AMD mit HBM. Also langsam klaube ich NV und Intel wollen gar keinen Fortschritt und ja Pascal ist nix weiter als ein hoch getakteter Maxxwell 2.1 oder so ähnlich. Auch ein Grund warum ich noch warte was Volta bringt vielleicht auch mal DX12 Komplett nach wie lange gibt es dass jetzt naja.
 
Gewiss könnten Entwickler bei doppelter Effizienz bspw. mit 8GB trotzdem einem einen Strich durch die Rechnung machen, indem sie bestimmte Detailstufen gar nicht freischalten, wenn nicht nativ 12 oder 16 GB als Speichermenge der GPU erkannt wird, aber das wäre dann schon extrem unsinnig seitens der Entwickler.
Vor allem haben wir mittlerweile das Problem das die Spiele Engines die Details dynamisch drosseln wenn der Vram überläuft. Es also spezielle Spiele braucht die das noch nicht können. Sonst kann gar kein klares Bild erstellt werden was Vega macht wenn mehr als 8GB wirklich gebraucht werden. In Zukunft wird es immer schwieriger werden eine klare Einschätzung der Vram Lage zu bekommen bei solchen Umständen. Ich denke ein extra geschriebenes Programm, in dem man einstellen kann wieviel Vram adressiert werden soll und man dann die Frametimes misst wäre hier vielleicht eine Lösung. Sollte es irgend wann überhaupt keine Spiele mehr geben, die nicht automatisch die Details zurück drehen.

Samsung oder GF würde mir wohl auch in 14/16nm reichen.
Hoffen wir mal das Vega nicht wie die 480 dann Verbrauchstechnisch so bluten muss. (ich meine das 75Watt Desaster, das es mit TSMC wohl nicht gegeben hätte) Ich denke hier wurden die AMD Ingenieure ordentlich überrascht, wie schlecht der GF Prozess ist. Das ganze Paket wackelte als man dann irgend wie den Strom einsparen wollte.
 
Vor allem haben wir mittlerweile das Problem das die Spiele Engines die Details dynamisch drosseln wenn der Vram überläuft.

das ist ja ne spannende Aussage. Kannst du das irgendwie belegen?Von welchen Spielen reden wir denn?

ansonsten würde ich leicht abändern:

Vor allem haben wir mittlerweile das Problem dass das Forum vor lauter Dummgeschwätze überläuft


Voila
 
Zuletzt bearbeitet:
Erst mal, sehr guter Test.
Hab ne 780ti unterstützt von nem ollen I7 950@ 3,8GHz.
Den Rechner hab ich seit sieben Jahren, die GraKa erst seit drei Jahren.
Diese Kombo läuft seit Jahren ohne Crash absolut easy.
Das DrumRum hat mal gezickt, Netzteil, HDD und auch mal das RAM, aber der Prozzi und die Graka liefen immer sauber.
Vor nem halben Jahr war ein neuer Rechner am Start.
Skylake und ne EVGA 980ti Classified, einfach der Hammer.
Schnell und gut, alle Spiel laufen, egal ob jung oder alt, egal ob Kepler oder Maxwell.
Das ist einfach nur gut gemacht, was will man sonst?
 
Kasmopaya

Mit dem Vergleich der Fury als HD2900 wäre Polaris eher die HD 3800 und Vega somit mit der HD 4870/90 zuvergleichen...

Was HBM Si angeht, hat AMD diesen ja nicht noch weiter ausgebaut (spreche von Übertragungsrate). Stattdessen hat der Chef Entwickler erklärt, dass der neue HBM Cache Controller den Speicher schneller und Effizienter (welche Texturen werden wirklich genützt) belegt. Deshalb nennt AMD den vermutlich Cache Controller, weil er so arbeitet und nur das hinterlegt was viel und ständig genützt wird. Bisherige Grafikkarten sollen das also unbehandelt einfach abspeichern.
Sprich, NV hat stark daran gearbeitet GDDR5 besser auszunützen, wenn es um Übertragungsrate geht (Kompression) während AMD offensichtlich mit HBM an ein Cache ähnliche Methode gearbeitet hat, welche weniger VRAM belegt. Ich kann mir gut vorstellen, dass AMD früher oder später dann auch weitere Cache Stufen mit NAND erweitert, was man teils bei den Profi Karten schon macht.

Aber ja, AMD muss mal beweißen, ob somit 8GB dann einen völlig anderen Wert hat und mit 12-16 GB mithalten kann.
 
Hach ist das wieder amüsant hier :))))

@Guru: Hab jetzt auch seit ~ 2 Jahren mein System (Signatur) und auch nie Probleme mit Treibern und sonstigen gehabt :)
Mein Knecht mit der bösen nvidia rennt und die Leistung stimmt auch und ob nun eine r9 290 mittlerweile 5% schneller ist als zu Release, wayne.....
 
Finde das interessant, dass es hier tatsächlich Leute gibt, die Bananenprodukte, die erst über die Jahre beim Kunden "reifen" )wenn man Glück hat, wenn man Pech hat bleiben sie auf ewig unausgereift), hier schönreden gegenüber tatsächlich ausgereiften Produkten, die gleich am ersten Tag das tun, was sie sollen-

Cris-Cros schrieb:
Ich bin ein Freund von Fortschritt und finde es gut, dass AMD die Technik pusht, auf Biegen und Brechen muss das aber nicht sein.
Fortschritt ist es erst, wenn die neue Technik dann auch tatsächlich besser (billiger, effizienter) als die alte ist, ansonsten ist sie einfach nur neuer und das ganze ist kein Fortschritt!

@edenjung Du lästerst ja jetzt ganz gut über Gameworks, kannst du eigentlich irgendwelche deiner Behauptungen belastbar belegen?
 
Kasmopaya schrieb:
Ich denke ein extra geschriebenes Programm, in dem man einstellen kann wieviel Vram adressiert werden soll und man dann die Frametimes misst wäre hier vielleicht eine Lösung. Sollte es irgend wann überhaupt keine Spiele mehr geben, die nicht automatisch die Details zurück drehen. Hoffen wir mal das Vega nicht wie die 480 dann Verbrauchstechnisch so bluten muss.

Jo, das wäre optimal, wenn man Speicherverbrauch und -adressierung mit einer Software auslesen könnte, dann könnte wohl man auch gleich sehen wieviel Speicher sich Spiele maximal genehmigen und in Wirklichkeit benötigen, ohne nennenswerten Leistungsverlust in den Frametimes.

Das denke ich eher nicht, denn mittlerweile sollen die neueren Karten, insbesondere die RX 460, doch relativ effizient sein und somit die 14/16nm Fertigung bei GF und Samsung sich insgesamt verbessert haben, als noch bei der ersten Fuhre der RX 480, auf denen die Tests basieren. Hoffen wir das beste, denn ich würde ungerne gezwungen werden beim nächsten Kauf wieder auf nVidia (im Vergleich zu AMD Mindestmaß an Innovation) in Form von Volta zu setzen.

GEZ-Verweigerer schrieb:
Von welchen Spielen reden wir denn?

Ich meine mich zu erinnern, dass Battlefield 1 in diese Kategorie gehört, bei der man per Einstellungen dynamisch die Details anpassen lassen kann bzw. letztere heruntergeregelt werden, wenn vorhersehbar die Speichermenge oder aber Leistungsfähigkeit der GPU nicht mehr ausreichend oder grenzwertig ist.

Bestimmt gibt es da auch noch andere Beispiele für den PC, denn bei Konsolen ist dynamische Anpassung ja mittlerweile schon relativ weit verbreitet.
 
Zuletzt bearbeitet:
GEZ-Verweigerer schrieb:
das ist ja ne spannende Aussage. Kannst du das irgendwie belegen?Von welchen Spielen reden wir denn?

An deiner Stelle würde ich mich erstmal informieren, bevor ich andere Forenmitglieder so angehe. Ändere bitte deinen Umgangston, oder gehst du mit den Menschen, mit denen du sonst Kontakt hast (Partner, Kinder, Eltern, Kollegen...) etwa auch so um?
 
Lustig wie hier manche von Bananen Produkten reden naja, dann müssten über 50% der Games auch welche sein und trotzdem kaufen sie die meisten gleich ohne Test am ersten Tag. Des weiteren ist es bei der One/PS4 auch so am Anfang konnten die nicht mal BDs abspielen. Also jetzt mal schon sachlich und zurück zum Thema okay. So wenn man dass ganze anders betrachtet könnte man auch sagen das NV auch nichts mehr über die Software an Leistung rausholen kann vielleicht liegt es ander Architektur, oder sie sagen sich wo zu optimieren sollen die Leute mal schön in einem Jahr neue Produkte kaufen. Ich sage nur noch GTX1050 nur 2GB wie zeitgemäß. Obwohl die GTX1060 3GB ist auch nur noch lächerlich. So da haben wir gleich wieder einen Grund mehr warum ich diese GEN aus lasse und einen Bogen drum mache.
 
Zurück
Oben