Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce, Radeon & Arc: Wie viel Speicher hat eure Grafikkarte und reicht euch das?
-=[CrysiS]=-
Commodore
- Registriert
- Juni 2011
- Beiträge
- 4.526
Wow meine letzte hatte auch nur 1.024 MB GDDR3 Speicher, oha GTX285
Warum auch nicht?Balu_ schrieb:Solange ich in WQHD spiele, sollte in 99% der Fälle die 6800 XT MB ausreichen.
Also ich betreibe Spiele nicht am Maximum was Texturen angeht. Ist bei den älteren Spielen die ich hier habe auch nicht nötig.
Ja es gibt Spiele , WoW hust, die nicht grade mit Frameratezahlen glänzen wie man sie erwarten würde, aber das kann auch einfach an schlechtem Code liegen.
Ja es gibt Spiele , WoW hust, die nicht grade mit Frameratezahlen glänzen wie man sie erwarten würde, aber das kann auch einfach an schlechtem Code liegen.
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
Da ich mit einem Notebook unterwegs bin, reichen mir mit FHD (habe extra die kleine Auflösung genommen) auf 17 Zoll die 6 Gb der 3060m aus. Ich bin schon lange kein Indianer-Adlerauge mehr.
Wenn die zu wenig sind, ist das Spiel schlecht programmiert oder es soll ein Kaufargument sein, neue Hardware zu kaufen.
Viele von Nvidia unterstütze Spiele, ballern die Ressourcen raus, als wenn es kein Morgen gäbe.
Versteht man auch, Nvidia will Hardware verkaufen.
mfg
Wenn die zu wenig sind, ist das Spiel schlecht programmiert oder es soll ein Kaufargument sein, neue Hardware zu kaufen.
Viele von Nvidia unterstütze Spiele, ballern die Ressourcen raus, als wenn es kein Morgen gäbe.
Versteht man auch, Nvidia will Hardware verkaufen.
mfg
Ich versuch dlss wenn immer moeglich auszuschalten.Simanova schrieb:Zuviel VRAM ist auch nicht gut, dann kommen die Spielehersteller auf dumme Gedanken.
Sieht man aktuell schon bei DLSS, wie exzessiv das als Entschuldigung für schlechte Performance in nativer Auflösung missbraucht wird.
Ich hab die lieber ein "how it is meant to be played".
Eine skalierung ohne artefakte, ok, aber bei dlss is mir bislang meist artefaktbildung staerker aufgefallen, was speziell bei spielen die auf viel atmosphaere und story setzen mir nicht gefaellt.
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
Ericus schrieb:Miles Morales mit 6K DLSS 3 macht die auch direkt voll.
Was kaufst du auch so einen VRAM Krüppel für 6k.
mfg
ComputerJunge
Captain
- Registriert
- Sep. 2018
- Beiträge
- 3.415
Edit: a bit late to the party.
Bei mir ist es mit der 4070Ti nun meine erste Nvidia geworden. Bei meinem Anforderungsprofil (1440p, 60 Hz, keine Regleraversion) halte ich die 12 GB Videospeicher für genauso zur Leistung der Karte "passend" (im Sinne von ausgewogen) wie zuvor die 8 GB der Vega 56 und erwarte daher eine ähnlich lange Nutzungsdauer (mind. 4 Jahre).
Sollten sich meine Anforderungen überraschenderweise früher/schneller ändern, rüste ich halt auf.
Deine Begründung kann ich grundsätzlich nachvollziehen - bis auf eine Ausnahme:Meister1982 schrieb:Eine 4070Ti mit 12 GB ist zwar schnell und ausreichend aktuell aber mir wäre das zu knapp alleine deshalb würde ich bei NV zur 4080 greifen.
Das gilt wiederum auch für die 4080. "Was, für 1.300€ nur 16 GB?" (gemäß Milchmädchen befinden sich die Speicherpreise pro GB sogar auf gleichem Niveau).Für so viel Geld diese künstliche Verknappung ist totaler Unfug.
Bei mir ist es mit der 4070Ti nun meine erste Nvidia geworden. Bei meinem Anforderungsprofil (1440p, 60 Hz, keine Regleraversion) halte ich die 12 GB Videospeicher für genauso zur Leistung der Karte "passend" (im Sinne von ausgewogen) wie zuvor die 8 GB der Vega 56 und erwarte daher eine ähnlich lange Nutzungsdauer (mind. 4 Jahre).
Sollten sich meine Anforderungen überraschenderweise früher/schneller ändern, rüste ich halt auf.
Zuletzt bearbeitet:
(a bit late to the party)
Painkiller72
Commander
- Registriert
- März 2011
- Beiträge
- 2.586
Definitiv reichen dir 16 GB für 4k im Moment noch vollkommen aus, da braucht es keine 20GB oder 24GB. 4k Gaming setzt sich so langsam für den normalen Consumermarkt als Mainstream durch. Oder hast du es schon erlebt, das deine 24GB VRAM vollgelaufen sind ? Da gibts sicherlich noch nicht allzuviele Games oder ? Bei 8K Gaming würde das wohl schon ganz anders aussehen.minimii schrieb:4090.
24GB
Reicht.
Edit: aber auch die 16GB der 6800XT haben trotz 4K gereicht.
Ich frage mich eh, wofür die so viel Speicher brauchen ? Bei einer Entwicklerkarte kann ich das ja noch nachvollziehen, aber bei einer Gaming Graka irgendwie nicht.Grandepunto schrieb:Bis jetzt reicht die 6700xt mit ihren 12GB für WQHD in allen Lebenslagen. Bevor hier der Speicher ausgeht, ist Sie eher mit der Rohleistung am Ende.
Ich denke das viele Gamer hier auch noch in 1080p oder 1440p unterwegs sind und hier haben 8GB VRAM bisher immer gereicht, aber die Hi Res Texturen werden immer aufgeblähter und beschränken die üblichen 8GB DDR5 oder besser immer öfters. Hier ist aber meistens 4k dann der beginnende Flaschenhals.
Meistens ist ein überfüllter Grafikspeicher aber auch eine Ursache schlechter Optimierungen, denn es gibt Spiele die sehen fantastisch aus, fressen aber nicht den VRAM der Karte auf.
Ich könnte auf Hi Res Texturen auch ganz gut verzichten, denn sie machen nicht alles an einem guten Spiel aus.
Mal sehen ab wann der Trend einsetzt, das 16GB VRAM ein Minimum darstellen. Ich reize im Moment nicht mal ansatzweise in WQHD den Speicher meiner RX 6800 aus. Das würde sich wohl erst dann ändern, wenn ich einen sehr guten 4k Flatscreen daran betreiben würde und selbst dann wird es wohl noch ein wenig dauern bis die Spiele den Strich durch die Rechnung machen werden.
Wenn man sich anschaut was auf früheren Konsolen mit extrem wenig Speicher möglich war ist es traurig zu sehen wie Speicher heutzutage verschwendet wird nur weil man nicht mehr optimieren kann oder will (Zeit=Geld).
Vielleicht wäre das mal ein Nutzen von AI, die Programmierung von Software so zu optimieren das sie weniger (System)-Ressourcen benötigt.
Vielleicht wäre das mal ein Nutzen von AI, die Programmierung von Software so zu optimieren das sie weniger (System)-Ressourcen benötigt.
Ich trauere meinem wqhd Monitor ja etwas nach. Der Schritt zu 32' 4K war zwar erstmal WOW, aber gerade mit FSR 2 hätte ich mir mit wqhd auf Jahre keine Gedanken machen müssen.Grandepunto schrieb:Bis jetzt reicht die 6700xt mit ihren 12GB für WQHD in allen Lebenslagen. Bevor hier der Speicher ausgeht, ist Sie eher mit der Rohleistung am Ende.
Mit 4K ist das anders... Wobei auch da viele (die allermeisten) Titel gut laufen.
SonyFriend
Commander
- Registriert
- Jan. 2006
- Beiträge
- 2.052
immerhin nur jeder 4. hier in der Umfrage hat gevotet, dass der Speicher noch nicht limitiert hat.
Alles richtig gemacht, nvidia (Wink mit dem Zaunpfahl).
Alles richtig gemacht, nvidia (Wink mit dem Zaunpfahl).
Nick.Bo
Lieutenant
- Registriert
- Apr. 2017
- Beiträge
- 627
Hab eine 3080 10GB. Spiele auf 3440x1440 und bin eigentlich ganz zufrieden damit. Die Spiele die ich so zocke haben damit weniger ein Problem. Also z.b Deep Rock oder Hunt Showdown laufen mit allem auf Ultra bei 100-120fps.
New World ist so ein Beispiel wo der Speicher z.b nach gut ner Stunde komplett voll ist. Aber zocken geht trotzdem ohne Probleme. Also zumindest habe ich bisher nie welche bemerkt.
Hogwarts ist jetzt das erste Spiel wo ohne RT es „okay“ läuft. Mit RT keine Chance.
Was mich aber so stört an der Sache, es müsste nicht so sein. Man kann spiele und Treiber gut optimieren, wofür haben wir denn einen PC. Eben weil er diese Möglichkeiten bietet. Dann vllt 1-2 Mio‘s weniger in die Werbung stecken und das Game sauber optimieren. Die wenigsten meiner Freunde haben solche Hardware wie ich. Die zocken alle auf ner Hardware jenseits der 5-6 Jahre.
Aber ich muss ehrlich zugeben am WE habe ich mich ernsthaft nach einer PS5 umgesehen. Ich hab mich schon selbst über mich gewundert…..
New World ist so ein Beispiel wo der Speicher z.b nach gut ner Stunde komplett voll ist. Aber zocken geht trotzdem ohne Probleme. Also zumindest habe ich bisher nie welche bemerkt.
Hogwarts ist jetzt das erste Spiel wo ohne RT es „okay“ läuft. Mit RT keine Chance.
Was mich aber so stört an der Sache, es müsste nicht so sein. Man kann spiele und Treiber gut optimieren, wofür haben wir denn einen PC. Eben weil er diese Möglichkeiten bietet. Dann vllt 1-2 Mio‘s weniger in die Werbung stecken und das Game sauber optimieren. Die wenigsten meiner Freunde haben solche Hardware wie ich. Die zocken alle auf ner Hardware jenseits der 5-6 Jahre.
Aber ich muss ehrlich zugeben am WE habe ich mich ernsthaft nach einer PS5 umgesehen. Ich hab mich schon selbst über mich gewundert…..
therealsnub
Cadet 2nd Year
- Registriert
- Sep. 2020
- Beiträge
- 24
Das liegt wohl eher daran, dass dieses Spiel in einer Beta Version ohne jegliche Optimierung auf den Markt geworfen wurde. So ein Vorgehen ist heute ja leider zum Standard geworden. Viele Entwickler denken sich, einfach DLSS rein, reicht dann schon irgendwie.Syrato schrieb:Dann spiel Hogwarts Legacy auf max. Details, da reichts nicht mehr. Nvidia müsste einfach nicht so knausrig sein.
Doch interessant wie viele noch 8GB haben. Das scheint ja so der goldene Standard zu sein. Ich will im Q1 endlich aufrüsten hoffe das es mal eine Varinate vonm Nvidia mit 16GB gibt. Das wäre Cool. Die 24GB Varianten sind mir einfach zu teuer und auch sinnlos für WHQD. 12GB dagegen etwas knapp bemessen.. vl. füllen sie diese Lücke ja endlich mal !
Die neuen Games 2023 in Wqhd 🤔Grandepunto schrieb:Bis jetzt reicht die 6700xt mit ihren 12GB für WQHD in allen Lebenslagen. Bevor hier der Speicher ausgeht, ist Sie eher mit der Rohleistung am Ende.
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
ExigeS2 schrieb:nur weil man nicht mehr optimieren kann oder will
Beides. Spiele werden immer größer. Von der Welt her, von der Grafik her, von der Story her. Irgend wann kann man nicht mehr alles optimieren und will es irgend wann auch nicht mehr, weil es einfach Zeit und damit Geld kostet.
Die Jungs und Mädels können es noch, die haben das gelernt, wie das geht. Billige Dinge wie gekachelte Texturen sind aber sehr Zeitaufwändig und wenn 4K für viele mittlerweile ein Qualitätsmerkmal ist, kann man auch nicht mehr mit 512x512 Pixel Texturen arbeiten. Das sieht einfach nicht gut aus.
ExigeS2 schrieb:ein Nutzen von AI, die Programmierung von Software so zu optimieren
Hier bin ich nicht bei dir. Wenn die AI das machen würde, würden sich die "Controller" durchsetzen und die AI würde noch mehr Hardwarefresser bauen.
Natürlich will die Hardware verkaufende Industrie, dass die Software mit aktuellen Karten nicht "perfekt" läuft. Man soll als Kunde neues kaufen.
Und die Softwareindustrie will eigentlich auch kein Game entwickeln, welches aktuell hervorragend läuft, da man es in 2 Jahren besser verkaufen kann, wenn es dann endlich richtig geil aus sieht.
Ich habe z.B. schon für die Siedler 1 eine RAM Erweiterung für den A600 gekauft, um die Vögel im Wald zwitschern hören zu können oder eine Turbokarte für den A1200, um Breed3D spielen zu können.
Ein CD-ROM Laufwerk kam in den PC, weil ich Rebel Assault spielen wollte.
mfg
Ähnliche Themen
- Antworten
- 118
- Aufrufe
- 9.189
- Antworten
- 168
- Aufrufe
- 13.069
- Antworten
- 92
- Aufrufe
- 8.949
- Antworten
- 469
- Aufrufe
- 39.816
- Antworten
- 412
- Aufrufe
- 19.938