Test VRAM bei Grafikkarten: Das Ende von 4 GB für Modelle über 300 Euro naht

Status
Für weitere Antworten geschlossen.
SchaGur schrieb:
Ist doch alles GCN, oder? So oder so, AMD hält die GCN sehr lange am Markt und das ist keine Kritik, im Gegenteil.
Aber die Treiber müssten doch viel besser sein. Auch wenn der Treiber nicht negative erwähnt wird (im Test) so ist es aber auch die Mitschuld der Schrott Treiber. Die AMD Karten haben einfach mehr Rohleistung und dazu schneller im gpu computing.

Nur weil der Verfasser des Artikels vermutet, dass die Treiber von AMD schuld sind, heißt das noch lange nicht, dass das stimmt. Es sollte inzwischen bekannt sein, dass DirectX (11) der Flaschenhals ist und Nvidiahardware besser liegt, weil sie besser darauf optimiert wurde. Mit den Low-Level-APIs wird sich das Blatt wenden, das zeigt ja schon der DirectX 12 Benchmark von Ashes of the Singularity. Dann wird die deutlich höhere, bisher brachliegende Computingleistung auch endlich genutzt, neben dem nativ von der Hardware unterstützten Asynchronous Shader (das kann jetzige Nvidiahardware nicht, was sich auch rächen wird) und dem Aufheben des CPU-Limits, da nun alle Kerne die Drawcalls berechnen.

Warum die Fury X trotz gleicher Speichermenge besser als die R9 290X abschneidet, liegt wohl an der Speicherkomprimierung und HBM, beides fehlt nämlich letzterer.

Der Blödsinn mit der GTX 970 nimmt auch kein Ende. Wieder verteidigen die Leute ihr überteuertes, schwachbrüstiges, abgespecktes Stück Silizium, bloß weil sie nicht zugeben wolllen, ins Klo gegriffen zu haben. Die Karte ist ein Desaster, anspruchsvolle Spiele laufen nur flüssig, weil Nvidia den idiotisch angebundenen Speicher mit ihren Gamereadytreibern, die den Speicherverbrauch deckeln, kaschiert. Sobald Nvidia den Support einstellt (und das werden sie!) habt ihr ein dickes Problem. Guckt euch doch mal an, was die mit den Keplerkarten gemacht haben. Seit dem Release von Maxwell bauen die einen Stolperstein nach dem anderen ein, weshalb sie leistungstechnisch deutlich zurückgefallen sind. Wohlgemerkt auch gegenüber der einst gleichstarken Konkurrenz aus dem Hause AMD!

@ Computerbase

Wie wäre es mal wenn ihr euch mit den Grafiksettings der Spiele allgemein befasst? Der breiten Masse ist nämlich nicht bekannt, wie sinnlos es ist, die Regler einfach nach rechts zu schieben. Die Unterschiede sind oft gar nicht sichtbar, oder extrem gering, dafür steigt der Leistungsbedarf enorm.

Das ist letztendlich nur ein Taschenspielertrick, um die Leute zum Kauf neuer Hardware zu überreden. Macht doch mal einen Test mit einer Palette von Spielen und deckt mal auf, wie groß die Unterschiede bei der Bildqualität tatsächlich sind, bzw. welche Einstellungen überhaupt etwas bringen.

Denn damit könntet ihr genau aufzeigen, wie oft trotz "zu geringem Grafikspeicher" das Limit mit sinnvoll eingestellten Einstellungen umgangen werden kann. Und das ist doch das wichtigste für den Kunden und von dementsprechend großer Relevanz.
 
@Krautmaster

Bei TombRaider 2015 in 4K ist meine 980ti nicht mehr das Wahre, deshalb schrieb ich ja es ist so schade, das durch die Titan 12gb der Deckel für eine 980ti mit 12gb drauf ist. Rohleistung geht noch, aber am Speicher klemmts. Ich zahle gern auch mehr für "HIend" habe ich schon seit meiner ersten GraKa Matrox Millennium mit 4MB WRAM für 750 Mark gemacht, da konnten die meisten noch nichtmal PC buchstabieren. :)

Die Matrox läuft übrigens immer noch. Aber im Moment stimmen einfach nicht die Preis/Leistungswerte, es ist einfach traurig.
 
Zuletzt bearbeitet:
Dark-Silent schrieb:
Wie fändest du es wenn du ein Auto kaufst mit 6 Zylinder beworben aber nur in 4 ist auch ein Pleul und Kolben drin . Weil ist ja rechtlich korrekt das der Motor 6 " Zylinder " hat .

Gibts das nicht als Feature? Zylinderabschaltung heißt das glaube ich :D

Ich kaufe ein Auto nach Hubraum, PS und Verbrauch. Ob die Leistung die ich kaufe mit 4 oder 6 Zylindern erreicht wird ist mir relativ egal. Bin halt kein Autonarr. Von mir aus können sie auch 4 echte Zylinder und 2 Atrappen aus Plastik danebenbauen.

Will sagen: Manchen sind solche "under the hood"-Dinge nicht wichtig. Sie schauen sich Benchmarks an und schließen auf die zu erwartende Leistung. Fertig.

Ich habe übrigens überhaupt nicht gesagt dass ich das gut finde. Ich habe lediglich gesagt dass die Angaben rein formell nicht gelogen sind. Persönlich kam die GTX970 für mich eh nie in Frage, weil sie - selbst ohne die Beschneidung - mit 4GB für meinen Geschmack und meine Planungen für die nähere Zukunft unterdimensioniert ist. Genauso wie die GTX980.
 
Zuletzt bearbeitet:
interessanter Test, aber wenn ich mich an die Auswertung von Sommer 2015 zurückerinnere - "nur ein sehr geringer Prozentsatz der Spieler mit Auflösung 1440+ unterwegs" - denke ich mal nicht so tragisch falls nur 4GB...

Auch wenn sich hier einige angesprochen fühlen so ist doch die Mehrheit der Spieler gerade mal bei FHD angekommen(wenn überhaupt), auch wenn sich in Sachen Werbung und Preispolitik sehr viel bewegt, in Richtung höherer Auflösung,
denke ich es wird trotzdem noch lange dauern bis - "das Ende für 4GB naht" bzw. auch den "Großteil" betrifft...
 
Buttermilch schrieb:
Wo ist da jetzt die Kausalität?
Evtl hat man doch Gründe eine GTX960 ( De & Encoder für HEVC videobearbeitung) oder die DP Rechenleistung einer R9-280 bei einer 4 Jahre alten Karte einer mega goilen 980TI vorzuziehen.
Deine Argumente mit “sagt einer mit einer xxx uralt Karte“ klingen nach pubertären Minderwertigkeitskomplexen. Das ich dich hier nicht für voll nehmen kann.

Deine Gründe sind Stark an den Haaren herbeigezogen, wenn du wie für voll hälst oder nimmst ist mir ziemlich Wumpe..
Die Starken Karten können das alles ebenfalls, die billigen werden gekauft weil sie zum Portmonaie passen.

ausserdem sprach ich von der Uralt Rebrandeon 380x die nicht die modernen Features der GTX 960 bzgl Videos hat..
 
Tyler654 schrieb:
@ Computerbase

Wie wäre es mal wenn ihr euch mit den Grafiksettings der Spiele allgemein befasst? Der breiten Masse ist nämlich nicht bekannt, wie sinnlos es ist, die Regler einfach nach rechts zu schieben. Die Unterschiede sind oft gar nicht sichtbar, oder extrem gering, dafür steigt der Leistungsbedarf enorm.

Das ist letztendlich nur ein Taschenspielertrick, um die Leute zum Kauf neuer Hardware zu überreden. Macht doch mal einen Test mit einer Palette von Spielen und deckt mal auf, wie groß die Unterschiede bei der Bildqualität tatsächlich sind, bzw. welche Einstellungen überhaupt etwas bringen.

Denn damit könntet ihr genau aufzeigen, wie oft trotz "zu geringem Grafikspeicher" das Limit mit sinnvoll eingestellten Einstellungen umgangen werden kann. Und das ist doch das wichtigste für den Kunden und von dementsprechend großer Relevanz.

Das passiert quasi bei jedem Game-Test.
 
tic-tac-toe-x-o schrieb:
Guess what... Wenn die Karte mal nicht mehr kann, und das nur wegen den langsamen .5 GB Speicher, dann werden 90% der 970 Kunden einen Pascal statt einen Polaris holen.

Insofern macht Nvidia leider alles richtig. Wirtschaftlich zumindest. Also ich persönlich finds zum k...

Ist ja auch verständlich, bis dahin hatten sie 2 Jahre (und deutlich mehr, nicht jeder steigt direkt um) eine sehr gute Karte mit der Sie zufrieden waren.
 
EchoeZ schrieb:
Das passiert quasi bei jedem Game-Test.

Nein, das reicht nicht.

Es würde eine kleine Revolution auslösen, wenn man genau sagen würde, was jetzt die Ultrasettings wirklich optisch bringen. Ideal wäre ein Roundup mit möglichst vielen Spielen, wo der Sweetspot aus Performence und Bildqualität ausgewertet wird. Sowas braucht die Welt dringend. Für mich ist nämlich klar, dass wegen der weit verbreiteten Unwissenheit in dieser Sache schon völlig unnötig aufgerüstet wurde.
 
Und noch dazu haben 90% hier ne neue GPU bis Dx12/Vulkan und Co mal verbreitet sind und sich Unterschiede auftun würden. Zudem haben die Game Publisher nunmal kein Interesse daran die Partei mit 80% hart auflaufen zu lassen, sofern es den möglich wäre. Dabei dürfte AoS schon eher ein negativbeispiel sein, eher ein von AMD gefördertes Marketing Projekt das nebenbei wohl auch wirklich spielbar ist. :)
Darüber auf Vulkan DX12 usw zu interpolieren halte ich für gewagt und erst in Jahren für relevant.
 
Waelder schrieb:
interessanter Test, aber wenn ich mich an die Auswertung von Sommer 2015 zurückerinnere - "nur ein sehr geringer Prozentsatz der Spieler mit Auflösung 1440+ unterwegs" - denke ich mal nicht so tragisch falls nur 4GB...

Auch wenn sich hier einige angesprochen fühlen so ist doch die Mehrheit der Spieler gerade mal bei FHD angekommen(wenn überhaupt), auch wenn sich in Sachen Werbung und Preispolitik sehr viel bewegt, in Richtung höherer Auflösung,
denke ich es wird trotzdem noch lange dauern bis - "das Ende für 4GB naht" bzw. auch den "Großteil" betrifft...

Jo, sehe ich ähnlich. Wird mMn auch alles heißer gekocht als es gegessen wird...
Ich selber habe seit gut nem halben Jahr einen 1440p Monitor und meine übertaktete HD7950 (für den Hinterkopf: die hat "nur" 3GB VRAM) bringt noch genug Leistung, dass ich die mir wichtigen Spiele in annehmbaren Detail- und AA-Stufen spielen kann


Und "aktuelle" Grafikkarten finde ich von der P/L eh komplett uninteressant, vor allem im Vergleich zu den ~170€, die ich vor gefühlten Ewigkeiten für meine gezahlt habe...
 
Tyler654 schrieb:
Nein, das reicht nicht.

Es würde eine kleine Revolution auslösen, wenn man genau sagen würde, was jetzt die Ultrasettings wirklich optisch bringen. Ideal wäre ein Roundup mit möglichst vielen Spielen, wo der Sweetspot aus Performence und Bildqualität ausgewertet wird. Sowas braucht die Welt dringend. Für mich ist nämlich klar, dass wegen der weit verbreiteten Unwissenheit in dieser Sache schon völlig unnötig aufgerüstet wurde.

Ich würd mal über die letzten Jahre behaupten das der sweetspot bei medium bis hoch liegt wenn man von 4 presets ausgeht. Von Low auf medium sieht man fast immer einen massiven gewinn an Bildqualität und auch von medium auch high ist der Gewinn meistens sichbar. Allerdings sagt das noch nichts über die performance aus :) .

Das Problem das ich auch noch kenne war halt das früher mit ner high End Karte genug Reserven vorhanden waren . Pb man die ualität nun gemerkt hat oder nicht aber da konnte man auch teilweise einfach mal 8x msaa reinhaun weils egal war das lief trotzdem flüssig .
Heute musste ja froh sein wenn du mit 980ti und Titan noch alles max. spielen kannst und die fps nicht zu sehr nach unten gehen.
 
Hab jetzt nur die ersten Kommentare hier gelesen, daher die Frage: hat sich Kasmopaya bei seinem Lieblingsthema gemeldet? Und vor allem hat er wieder seine wissenschaftliche Analyse hier verlinkt? :D
https://www.computerbase.de/forum/attachments/12052015492-jpg.495986/

Wegen der 8GB Konsolen ist der Grafikspeicher Hunger deutlich gestiegen, aber man braucht jetzt wirklich nicht so zu tun als bräuchte man nächstes Jahr 16GB und 2018 32GB :lol:
Man hat erkannt, dass 4GB GDDR5 die neue Minimalspeicherausstattung sein muss. Der Polaris wird also sicherlich 4GB haben, der größere, der wahrscheinlich Hawaii und GM204 schlägt, 6 oder 8 GB GDDR5 und der High End Chip dann wohl 16GB HBM2. Sind eigentlich 12GB HBM2 möglich? Also 3 1GB Schichten pro Stapel? Eigentlich wären ja 8GB HBM schon absolut ausreichend...
 
Tyler654 schrieb:
Nein, das reicht nicht.

Es würde eine kleine Revolution auslösen, wenn man genau sagen würde, was jetzt die Ultrasettings wirklich optisch bringen. Ideal wäre ein Roundup mit möglichst vielen Spielen, wo der Sweetspot aus Performence und Bildqualität ausgewertet wird. Sowas braucht die Welt dringend. Für mich ist nämlich klar, dass wegen der weit verbreiteten Unwissenheit in dieser Sache schon völlig unnötig aufgerüstet wurde.

Das sehe ich ähnlich, wobei sich das ganze schwierig gestalten wird. Was dem einen noch reicht, bezeichnet der andere schon als "Augenkrebs". Aber es gibt genügend Spiele, die auf "Ultra" nicht wirklich besser aussehen als auf "High", dafür aber ordentlich FPS schlucken. Bin vom Grundsatz her ganz Deiner Meinung @ Tyler654
 
@ Vitec

Sehe ich auch so.

Die, die sich damit auseinandersetzen wissen das ja recht genau. Aber wenn ich mich so im Netz umsehe, heißt es trotz der Einzeltests für die Spiele nur "brauche Grafikkarte für xyz auf Ultra". Sprich die machen sich um die wirklich nötigen Settings keine Gedanken und verpulvern FPS und Geld dafür. Wenn man jetzt ein klar strukturiertes Roundup mit dem Schwerpunkt auf diesem Gebiet veröffentlicht, denke ich, dass man mehr Menschen erreicht. Und damit auch ein Umdenken stattfindet.

@ Flomek

Ja, das mit dem subjektiven Eindruck ist so eine Sache. Aber mit den üblichen Screenshots und ein paar Videos kann man schon veranschaulichen, was sich ändert. Einen Versuch ist es wert, gerade jetzt beim Thema VRAM-Limit rückt dieses Problem wieder in den Vordergrund.
 
Zuletzt bearbeitet:
Also ich habe ja auch COD Black Ops III und spiele ja auf 1080p mit 16.GB RAM und der MSI GTX 970 und das funktioniert seit dem ich den RAM nochmals aufgerüstet habe [auf die genannten 16.GB] nochmals deutlich smoother unter Win10. Jetzt habe ich das ganze mal getestet mit DSR x1.78 auf 2560X1440p und alles auf Hoch eingestellt mit FXAA und das läuft auch wenn die FPS unter 60 sinken dennoch sehr flüssig. Verstehe nicht was CB hier genau getestet hat, das ein Gamen auf 2K nicht möglich sein soll. Habe dazu mal ein Video gemacht und lade es gerade auf YouTube hoch, sonst heißt es ja gleich wieder, das man sich alles nur schön redet. Kann das sein, das CB nicht den aktuellsten Patch nutzt? Ich habe es auch nochmals mit Filmisches 2xTXAA getestet, aber auch da läuft das Game auf 2K mit der GTX 970. Hat CB hier noch irgenetwas anderes eingestellt? Nachtrag:Vsync habe ich im Game natürlich aktiviert.
 
Zuletzt bearbeitet:
@zeedy: Ist der "Graph" von Kasmopaya? Man braucht also 48GB Vram 2019? das ist ein Scherz oder? Ich kenne ihre..nennen wirs mal witzigen...Anal ysen, aber es ist anscheinend noch schlimmer.
 
Natürlich richtet sich der Test (Kompliment dafür @ CB) an diejenigen, die immer sofort die neuesten Titel auf Ultra-Einstellungen spielen wollen (nicht unverständlich die Ansprüche, wenn man so viel Geld für Grafikarten der aktuellen und kommenden Generation berappt) und natürlich macht es dann Sinn die anspruchsvollsten (a.k.a. größtenteils ziemlich mies programmierten) Spiele (ein Hoch auf Ubisoft :p ) für den Test einzuspannen. Dass die schlechte Optimierung bzw. Ressourcenverwertung bei der Programmierung dabei ein nicht unwesentlicher Faktor für den immer größeren Leistungshunger bei diesen Spielen und Preistreiberei bei Grafikkarten ist, habe ich ja schon seit Monaten bekundet. Somit wird den Herstellern (nVidia und AMD) natürlich seitens der Entwickler in die Hände gespielt und der Verbraucher muss wohl dann mehr Geld für das Aufrüsten in die Hand nehmen um leistungstechnisch/bei hohen Ansprüchen eben oben mit zu schwimmen oder öfter/regelmäßig nachrüsten; ergo mehr Geld für das Gebotene zukünftig veranschlagen.

Die Ergebnisse habe ich auch in etwa so erwartet und unter 8GB würde ich heute keine neue GPU mehr in Betracht ziehen oberhalb von 1080/1200p, zumal die Spiele trotz DX12/Vulkan sicherlich nicht sauberer programmiert werden und die durch neue APIs freigewordenen Reserven wohl sofort verpulvert werden (u.U. für GameWorks oder Gaming Evolved Effekte, die die Welt nicht wirklich braucht). Selbst für 1080/1200p würde ich mindestens zu 6GB oder besser 8GB greifen beim Kauf einer neuen Grafikkarte wenn in absehbarer Zeit evt. doch Downsampling genutzt werden soll und um für ein paar Jahre Ruhe zu haben. Bei meinen 2GB werde ich mich dann wohl eine Weile mit stark reduzierten Details in neuen Spielen begnügen müssen oder besser gleich darauf verzichten (was kein Problem sein dürfte, da ich an älteren Titeln noch reichlich Nachholbedarf habe und mich die getesteten/anspruchsvollen aktuellen (08/15 bzw. AAA) Spiele im Großen und Ganzen eher weniger interessieren, Ausnahmen bestätigen natürlich die Regel).
 
Zuletzt bearbeitet:
Super Bericht, vielen danke CB Team.
Der bericht deckt sich genau mit meine Erfahrungen die ich in letzter Zeit immer häufiger mache.
Obwohl ich nur eine GTX 770 4GB habe, wird auch hier immer öfter der Speicher knapp und das bei nur 1080p, daher muss ich bei den neueren spielen immer öfter auf DS verzichten.
Nachladeruckler durch vollen Vram ist ätzend.
Anno 2205 nach mehreren Spielstunden sind die 4 GB voll obwohl noch leistung vorhanden ist.
Ich hoffe das die nächsten Karten auf 8-12GB Vram setzen, in der bezahlbaren Preisklasse.
Wenn ich jetzt ne neue Karte nehmen müsste wäre einzig die 980TI interessant aber die will und kann ich nicht bezahlen.
Also Nvidia den Nachfolger der 970 bitte 8GB(8GB komplett schnell angebunden und nicht so eine Mogelpackung wie bei der 970) oder mehr spendieren. Alles andere macht keinen Sinn.
 
Ich spiele leider keines dieser Spiele.
Der Text umfasst nur Egoshooter und Rollenspiele mit ähnlichem Charakter.

Aktuell spiele ich z.B: Cities Skylines, ETS2/ATS2, LS15, Anno1404, Firefall, Ark, Skyrim, Borderlands2
Interessant wäre noch die ultra-wide Auflösung 2540x1080.

***

Spiele richten sich immer gerne nach der verfügbaren Hardware, daher finde ich es nicht gut, wenn zeitnah bezahlbare Grafikkarten mit 32GB VRAM erscheinen würden.
 
Zuletzt bearbeitet:
Es gibt kaum Spiele bei denen ich Ultrafeatures wegen Sinnlosigkeit abschalte, TW2 ubarsampling (weils mit VSR effektiver ist) und Tesselation bei TW3 runtergestellt. Ansonsten ist vsync vsync wieso sollte man da was abstellen?
Es gibt ja auch Leute die behaupten Spiele auf 4k Monitor auf Low sehen besser aus als auf Ultra mit FHD, wird da schwierig Qualität zu definieren, dafür gibts keine Benchmarks x)
Spiel xyz sieht auch auf Mittel/Low toll aus ist ca. die gleiche Aussage wie mein V3 fährt nicht schlecht für den kleinen Motor.

Es wird nie einen Konsens geben und für einige Spiele gabs durchaus im Netz sehr detaillierte Test zu Settings und Performance, z.b. bei TW3
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben