News GeForce, Radeon & Arc: Wie viel Speicher hat eure Grafikkarte und reicht euch das?

Für WQHD reichen bei mir die 8GB nach wie vor. Und wenn der RAM mal bis zum Anschlag vollläuft stellt das erstmal noch kein Problem dar.
 
Habe 12 GB und spiele auf 1080p. Kann mich nicht erinnern, dass die Games, für die mein PC ausgelegt ist, jemals den Speicher ausgelastet hätten.
 
Zuviel VRAM ist auch nicht gut, dann kommen die Spielehersteller auf dumme Gedanken.

Sieht man aktuell schon bei DLSS, wie exzessiv das als Entschuldigung für schlechte Performance in nativer Auflösung missbraucht wird.
 
  • Gefällt mir
Reaktionen: C4rp3di3m, Nine-tailed Fox, Gsonz und 2 andere
Also ich betreibe Spiele nicht am Maximum was Texturen angeht. Ist bei den älteren Spielen die ich hier habe auch nicht nötig.
Ja es gibt Spiele , WoW hust, die nicht grade mit Frameratezahlen glänzen wie man sie erwarten würde, aber das kann auch einfach an schlechtem Code liegen.
 
Da ich mit einem Notebook unterwegs bin, reichen mir mit FHD (habe extra die kleine Auflösung genommen) auf 17 Zoll die 6 Gb der 3060m aus. Ich bin schon lange kein Indianer-Adlerauge mehr.

Wenn die zu wenig sind, ist das Spiel schlecht programmiert oder es soll ein Kaufargument sein, neue Hardware zu kaufen.

Viele von Nvidia unterstütze Spiele, ballern die Ressourcen raus, als wenn es kein Morgen gäbe.

Versteht man auch, Nvidia will Hardware verkaufen. :evillol:

mfg
 
Simanova schrieb:
Zuviel VRAM ist auch nicht gut, dann kommen die Spielehersteller auf dumme Gedanken.

Sieht man aktuell schon bei DLSS, wie exzessiv das als Entschuldigung für schlechte Performance in nativer Auflösung missbraucht wird.
Ich versuch dlss wenn immer moeglich auszuschalten.

Ich hab die lieber ein "how it is meant to be played".

Eine skalierung ohne artefakte, ok, aber bei dlss is mir bislang meist artefaktbildung staerker aufgefallen, was speziell bei spielen die auf viel atmosphaere und story setzen mir nicht gefaellt.
 
Edit: a bit late to the party.

Meister1982 schrieb:
Eine 4070Ti mit 12 GB ist zwar schnell und ausreichend aktuell aber mir wäre das zu knapp alleine deshalb würde ich bei NV zur 4080 greifen.
Deine Begründung kann ich grundsätzlich nachvollziehen - bis auf eine Ausnahme:
Für so viel Geld diese künstliche Verknappung ist totaler Unfug.
Das gilt wiederum auch für die 4080. "Was, für 1.300€ nur 16 GB?" (gemäß Milchmädchen befinden sich die Speicherpreise pro GB sogar auf gleichem Niveau).

Bei mir ist es mit der 4070Ti nun meine erste Nvidia geworden. Bei meinem Anforderungsprofil (1440p, 60 Hz, keine Regleraversion) halte ich die 12 GB Videospeicher für genauso zur Leistung der Karte "passend" (im Sinne von ausgewogen) wie zuvor die 8 GB der Vega 56 und erwarte daher eine ähnlich lange Nutzungsdauer (mind. 4 Jahre).

Sollten sich meine Anforderungen überraschenderweise früher/schneller ändern, rüste ich halt auf.
 
Zuletzt bearbeitet: (a bit late to the party)
  • Gefällt mir
Reaktionen: [wege]mini
minimii schrieb:
4090.
24GB
Reicht.

Edit: aber auch die 16GB der 6800XT haben trotz 4K gereicht.
Definitiv reichen dir 16 GB für 4k im Moment noch vollkommen aus, da braucht es keine 20GB oder 24GB. 4k Gaming setzt sich so langsam für den normalen Consumermarkt als Mainstream durch. Oder hast du es schon erlebt, das deine 24GB VRAM vollgelaufen sind ? Da gibts sicherlich noch nicht allzuviele Games oder ? Bei 8K Gaming würde das wohl schon ganz anders aussehen.
Grandepunto schrieb:
Bis jetzt reicht die 6700xt mit ihren 12GB für WQHD in allen Lebenslagen. Bevor hier der Speicher ausgeht, ist Sie eher mit der Rohleistung am Ende.
Ich frage mich eh, wofür die so viel Speicher brauchen ? Bei einer Entwicklerkarte kann ich das ja noch nachvollziehen, aber bei einer Gaming Graka irgendwie nicht.

Ich denke das viele Gamer hier auch noch in 1080p oder 1440p unterwegs sind und hier haben 8GB VRAM bisher immer gereicht, aber die Hi Res Texturen werden immer aufgeblähter und beschränken die üblichen 8GB DDR5 oder besser immer öfters. Hier ist aber meistens 4k dann der beginnende Flaschenhals.

Meistens ist ein überfüllter Grafikspeicher aber auch eine Ursache schlechter Optimierungen, denn es gibt Spiele die sehen fantastisch aus, fressen aber nicht den VRAM der Karte auf.

Ich könnte auf Hi Res Texturen auch ganz gut verzichten, denn sie machen nicht alles an einem guten Spiel aus.

Mal sehen ab wann der Trend einsetzt, das 16GB VRAM ein Minimum darstellen. Ich reize im Moment nicht mal ansatzweise in WQHD den Speicher meiner RX 6800 aus. Das würde sich wohl erst dann ändern, wenn ich einen sehr guten 4k Flatscreen daran betreiben würde und selbst dann wird es wohl noch ein wenig dauern bis die Spiele den Strich durch die Rechnung machen werden.
 
Wenn man sich anschaut was auf früheren Konsolen mit extrem wenig Speicher möglich war ist es traurig zu sehen wie Speicher heutzutage verschwendet wird nur weil man nicht mehr optimieren kann oder will (Zeit=Geld).

Vielleicht wäre das mal ein Nutzen von AI, die Programmierung von Software so zu optimieren das sie weniger (System)-Ressourcen benötigt.
 
  • Gefällt mir
Reaktionen: Nine-tailed Fox und [wege]mini
Grandepunto schrieb:
Bis jetzt reicht die 6700xt mit ihren 12GB für WQHD in allen Lebenslagen. Bevor hier der Speicher ausgeht, ist Sie eher mit der Rohleistung am Ende.
Ich trauere meinem wqhd Monitor ja etwas nach. Der Schritt zu 32' 4K war zwar erstmal WOW, aber gerade mit FSR 2 hätte ich mir mit wqhd auf Jahre keine Gedanken machen müssen.

Mit 4K ist das anders... Wobei auch da viele (die allermeisten) Titel gut laufen.
 
immerhin nur jeder 4. hier in der Umfrage hat gevotet, dass der Speicher noch nicht limitiert hat.
Alles richtig gemacht, nvidia (Wink mit dem Zaunpfahl).
 
Hab eine 3080 10GB. Spiele auf 3440x1440 und bin eigentlich ganz zufrieden damit. Die Spiele die ich so zocke haben damit weniger ein Problem. Also z.b Deep Rock oder Hunt Showdown laufen mit allem auf Ultra bei 100-120fps.

New World ist so ein Beispiel wo der Speicher z.b nach gut ner Stunde komplett voll ist. Aber zocken geht trotzdem ohne Probleme. Also zumindest habe ich bisher nie welche bemerkt.

Hogwarts ist jetzt das erste Spiel wo ohne RT es „okay“ läuft. Mit RT keine Chance.

Was mich aber so stört an der Sache, es müsste nicht so sein. Man kann spiele und Treiber gut optimieren, wofür haben wir denn einen PC. Eben weil er diese Möglichkeiten bietet. Dann vllt 1-2 Mio‘s weniger in die Werbung stecken und das Game sauber optimieren. Die wenigsten meiner Freunde haben solche Hardware wie ich. Die zocken alle auf ner Hardware jenseits der 5-6 Jahre.

Aber ich muss ehrlich zugeben am WE habe ich mich ernsthaft nach einer PS5 umgesehen. Ich hab mich schon selbst über mich gewundert…..
 
  • Gefällt mir
Reaktionen: Nine-tailed Fox
Syrato schrieb:
Dann spiel Hogwarts Legacy auf max. Details, da reichts nicht mehr. Nvidia müsste einfach nicht so knausrig sein.
Das liegt wohl eher daran, dass dieses Spiel in einer Beta Version ohne jegliche Optimierung auf den Markt geworfen wurde. So ein Vorgehen ist heute ja leider zum Standard geworden. Viele Entwickler denken sich, einfach DLSS rein, reicht dann schon irgendwie.
 
Doch interessant wie viele noch 8GB haben. Das scheint ja so der goldene Standard zu sein. Ich will im Q1 endlich aufrüsten hoffe das es mal eine Varinate vonm Nvidia mit 16GB gibt. Das wäre Cool. Die 24GB Varianten sind mir einfach zu teuer und auch sinnlos für WHQD. 12GB dagegen etwas knapp bemessen.. vl. füllen sie diese Lücke ja endlich mal !
 
Grandepunto schrieb:
Bis jetzt reicht die 6700xt mit ihren 12GB für WQHD in allen Lebenslagen. Bevor hier der Speicher ausgeht, ist Sie eher mit der Rohleistung am Ende.
Die neuen Games 2023 in Wqhd 🤔
 
ExigeS2 schrieb:
nur weil man nicht mehr optimieren kann oder will

Beides. Spiele werden immer größer. Von der Welt her, von der Grafik her, von der Story her. Irgend wann kann man nicht mehr alles optimieren und will es irgend wann auch nicht mehr, weil es einfach Zeit und damit Geld kostet.

Die Jungs und Mädels können es noch, die haben das gelernt, wie das geht. Billige Dinge wie gekachelte Texturen sind aber sehr Zeitaufwändig und wenn 4K für viele mittlerweile ein Qualitätsmerkmal ist, kann man auch nicht mehr mit 512x512 Pixel Texturen arbeiten. Das sieht einfach nicht gut aus.

ExigeS2 schrieb:
ein Nutzen von AI, die Programmierung von Software so zu optimieren

Hier bin ich nicht bei dir. Wenn die AI das machen würde, würden sich die "Controller" durchsetzen und die AI würde noch mehr Hardwarefresser bauen.

Natürlich will die Hardware verkaufende Industrie, dass die Software mit aktuellen Karten nicht "perfekt" läuft. Man soll als Kunde neues kaufen.

Und die Softwareindustrie will eigentlich auch kein Game entwickeln, welches aktuell hervorragend läuft, da man es in 2 Jahren besser verkaufen kann, wenn es dann endlich richtig geil aus sieht.

Ich habe z.B. schon für die Siedler 1 eine RAM Erweiterung für den A600 gekauft, um die Vögel im Wald zwitschern hören zu können oder eine Turbokarte für den A1200, um Breed3D spielen zu können. :evillol:

Ein CD-ROM Laufwerk kam in den PC, weil ich Rebel Assault spielen wollte. :heilig:

mfg
 
  • Gefällt mir
Reaktionen: C4rp3di3m
Zurück
Oben