News GeForce, Radeon & Arc: Wie viel Speicher hat eure Grafikkarte und reicht euch das?

M1 Max, 32Core, 64GB RAM:
Das sind maximal ca. 40GB RAM für die GPU.
Eine Auslastung schaffe ich nur mit Stable Diffusion und Unreal.
Die GPU-Leistung limitiert hier eher. 😉
 
Alle AMD User so: :freak: wieso vram Knappheit mir geht der GPU die puste aus. 😂.
Ma im ernst. AMD verbaut seit Jahren genügend VRAM die RX500er hatten schon 8gb. Vergleichbare Nvidia Karten damals 2/3/4 oder mit Glück 6gb.

Ne 3080 10gb hat Nvidia uns als zukunftssicher für UHD gaming verkauft... Da gab's bei AMD schon 16gb. Und selbst im mid-end wo Nvidia noch mit 8gb rumgegeizt hat gibt's bei AMD 12gb. Für 12gb vram muss man bei nvidia 900€ hinlegen...

Und solange das so ausschaut... Werd ich im Traum auch keine grüne Karte kaufen. Da geh ich lieber n paa Mal lecker essen. Oder rauche mir n paa Stangen kippen. Oder verbrenn das Geld. Is immernoch besser angelegt als in ne Nvidia Karte 😅. ( sarcasm off. )
 
  • Gefällt mir
Reaktionen: KurzGedacht
Bulletchief schrieb:
Das erste Mal, dass ich es gemerkt habe, war bei einer 290X. Seitdem achte ich auf ausreichend Speicher.
Nur radeon hat ausreichend Speicher zum günstigen, weil kein rtx bonus, Preis haha
 
Wenn die Porno Industrie soweit ist, dass für ihre VR Sachen die Karten 16GB RAM wollen, wird das Standart.

Kling komisch, ist aber so.

Mark my words. :evillol:

mfg

p.s.

Daher haben wir heute DVDs und BlueRays. Die Konkurrenten waren auch nicht schlecht. Die guten Pornos haben aber erst auf DVD und dann auf BlueRay gesetzt.

Die Daddelkids, sind nur ein kleines Stück im ganzen Puzzle. :heilig:
 
  • Gefällt mir
Reaktionen: fairhext, Bulletchief und Leon_FR
fairhext schrieb:
Alle AMD User so: :freak: wieso vram Knappheit mir geht der GPU die puste aus. 😂.
Ma im ernst. AMD verbaut seit Jahren genügend VRAM die RX500er hatten schon 8gb. Vergleichbare Nvidia Karten damals 2/3/4 oder mit Glück 6gb.

Ne 3080 10gb hat Nvidia uns als zukunftssicher für UHD gaming verkauft... Da gab's bei AMD schon 16gb. Und selbst im mid-end wo Nvidia noch mit 8gb rumgegeizt hat gibt's bei AMD 12gb. Für 12gb vram muss man bei nvidia 900€ hinlegen...

Und solange das so ausschaut... Werd ich im Traum auch keine grüne Karte kaufen. Da geh ich lieber n paa Mal lecker essen. Oder rauche mir n paa Stangen kippen. Oder verbrenn das Geld. Is immernoch besser angelegt als in ne Nvidia Karte 😅. ( sarcasm off. )
Klar die 4070 ti hat nur 12 gb vram aber ne Leistung einer 3090 ti klar durch die Limitierung wirds in 4k schwer aber dann halt WQHD im 3stelligem 👊🏻
 
therealsnub schrieb:
Das liegt wohl eher daran, dass dieses Spiel in einer Beta Version ohne jegliche Optimierung auf den Markt geworfen wurde. So ein Vorgehen ist heute ja leider zum Standard geworden. Viele Entwickler denken sich, einfach DLSS rein, reicht dann schon irgendwie.
Henne-Ei: Müssen die GPU-Hersteller genug RAM reinpacken oder die Programmierer sparsamer damit umgehen?
Ich denke, dass in den niedriegeren GPU-Klassen das RAM-Minimum definiert wird und die Hersteller der Spiele schon dafür sorgen, dass es passt. Wer dann in 2020 700+€ ausgibt für eine GPU, kann erwarten, dass mehr als die Minimumbestückung von 8GB drin ist, um damit auch schöner zu spielen als an der Basis.

Meine Meinung ist: Wenig Speicher ist nicht nachhaltig und lässt das Produkt unnötig früh altern, auch wenn der Chip - welcher der technologisch und finanziell limitierende Faktor ist - mehr kann. Daher bin ich persönlich nicht mehr bereit Speicherkrüppel zu kaufen und zu empfehlen - gibt es ja bei beiden grossen Herstellern.

Klar, werden die dennoch immer verteidigt von ihren Käufern, die dann auf einmal von Premiumkäufern zu Regelerjongleuren werden, aber in Ordnung ist es nicht. Intel macht es da ganz gut finde ich, und lässt dem Käufer die Wahl.
 
AndroidNougat7 schrieb:
PS: ich brauche kein Raytracing, weil es meines Erachtens nach noch nd ganz marktreif ist
Atomic Heart hats gezeigt haha
Ergänzung ()

Pizza! schrieb:
Die Preise klingen nach 2015 mit dem Wunsch was es heute hätte sein sollen.
Nun sind es eher 500 > 800 > 1300€
Bei Radeon sind das die Preise bei nvidia sind es deine haha
Ergänzung ()

Gsonz schrieb:
Für WQHD reichen bei mir die 8GB nach wie vor. Und wenn der RAM mal bis zum Anschlag vollläuft stellt das erstmal noch kein Problem dar.
Hast die neuen games 2023 noch nicht gezockt haha
 
Hab schon vor Jahren Titel gehabt, die mit meiner 980 TI nicht wollten, weil der VRAM mit 6GB zu klein war bzw. die GPU selbst mehr hätte leisten können, die Texturen aber runter geschraubt werden mussten. Meine RTX 3080m hat mir ihren 16GB mehr als genug Speicher, da kann ich auch Texturmods und anderen Kram bei aktuellen Titeln (Cyberpunk) nutzen. Finde es unerhört, die Zukunftstauglichkeit seiner Karten so künstlich zu beschneiden, bei AMD Karten hatte ich nie das Problem.

Werde auch nie wieder eine Karte mit geiziger Speicherausstattung kaufen, den Tanz habe ich zu oft mit gemacht. Alles unter 16GB geht im Performance-Bereich 2023 für mich gar nicht mehr, da sind die Probleme in 2-3 Jahren schon am Horizont zu erkennen. Aber das passt Nvidia sicher in den Release-Zyklus ;)

Btw: Macht CB eigentlich was mit den Umfragen? Werden die Ergebnisse irgendwie genutzt in Gesprächen mit Herstellern oder so?
 
  • Gefällt mir
Reaktionen: Gsonz
DaHell63 schrieb:
Noch peinlicher ist das Gehate und der klägliche Versuch sich hinter dem VRam zu verstecken.
Nein. Ich finde es eher peinlich, Nvidia für seine VRAM Politik zu verteidigen. Aber jedem das seine.
 
minimii schrieb:
Gabs doch schon.
War das EDO RAM ?
Nein, gabs schon früher. (war Ende 80er und Anfang 90er sogar recht üblich da der RAM oft genau so teuer oder teurer wie der rest der Grafikkarte war).
Problem heute düften eher die ambitionierten Timings und Taktraten sein. Wobei.... Bei CPUs ist es seit jeher auch kein Problem.
 
  • Gefällt mir
Reaktionen: minimii
Habe gerade ein Upgrade hinter mir: Von 3,5GB zu 8GB.
Reicht mir völlig, moderne AAA Spiele spiele ich nicht und mein Monitor=1080p

Wobei die 3,5GB mir lange noch gereicht hätten, war ein Luxus-Upgrade.
 
  • Gefällt mir
Reaktionen: Klever
Mit den 16GB fühle ich mich derzeit auf der sicheren Seite und würde auch wieder eine mit 16GB holen, wenn ich das tun/wollen würde. Die Karte soll jetzt aber im Besten fall wieder einige Jahre reichen, auch mit dem 4k Monitor ... Das klappt hoffentlich auch dank FSR ...
Davor haben meine beiden 7970GE mit 3GB VRAM auf FHD fast eine Dekade ausgereicht. Hier war je nach Setting aber tatsächlich der VRAM die Limitierung (Ich hatte und habe keinen 144FPS Anspruch, außer ich zocke CSGO/Quake Champions). Ich kam aber auf FHD erstaunlich gut zurecht über so viele Jahre mit den 3GB ... In WQHD limitierte dann aber auch schon die Leistung der Karte und 4K ging nur bei Spielen wie CIV/Tomb Raider die sogar DX12 mGPU unterstützt haben.
 
Meiner Meinung nach wird der VRAM hier in dem Thread überbewertet.

Klar ist es cool das AMD soviel verbaut. Doch wenn die Rohleistung der Karte am Ende zu gering ist nützt der üppige VRAM auch nix.
Die vermeintliche Zukunftssicherheit wird dann durch eben diese limitierende Rohleistung zunichte gemacht.

Hinzu kommen dann evtl noch zukünftige Features die ein GPU Upgrade notwendig machen, noch bevor der üppige VRAM zu klein wird. (Siehe zB DLSS3 nur für die 4000er Serie)

Evtl gibt es in 2 Jahren das nächste "bahnbrechende" Feature welches nicht mehr auf der 4090 läuft, man dafür erneut upgraden muss und so die 24GB nie wirklich notwendig wurden.
 
  • Gefällt mir
Reaktionen: trailrider und Gsonz
Also ich bin da immer etwas zwiegespalten. Für mich ist es noch kein Weltuntergang, wenn die Details ne Stufe runter zu stellen. Auf der anderen Seite sind es in meinen Augen sehr häufig Nvidia Modelle, wo der VRAM zu Marktstart schon nicht üppig bemessen war. Aktuell sehe ich da 3070 und 3080 10G als kritisch an und es geht aktuell ja bei der 4070ti auch schon wieder los...

Ich bin daher bei der 6800 gelandet.
 
  • Gefällt mir
Reaktionen: Dittsche
Ein wichtiger Punkt bei der Diskussion ist doch die Langlebigkeit. Grafikkarten sind verdammt teuer und sollten bei mir min. 6 Jahre halten können. Meine 1070 hatte vor über 6 Jahren eben schon die 8GB und konnte daher solange auf FullHD abliefern.

Wer diesen Zeitraum anstrebt, der sollte bei FullHD min. 12GB wählen und für höhere Auflösungen min. 16GB. Mit DLSS3 und Co. werden die Karten von der Leistung sicherlich wieder 6 Jahre halten können. Daher auch die 4080 mit 16GB gekauft. Die 3070 ist es wegen den 8GB nicht geworden.

Ich verstehe aber auch genau deswegen die Hersteller, dass sie lieber alle 2-3 Jahre eine neue Grafikkarte verkaufen wollen...
 
  • Gefällt mir
Reaktionen: aklaa und DerRico
SCP-067 schrieb:
Doch wenn die Rohleistung der Karte am Ende zu gering ist nützt der üppige VRAM auch nix.
Klar. Aber die Rohleistung des Chips ist der limitierende Faktor: Technologisch, von Kosten, Kühlung und Verbrauch her. Somit ist es vollkommen normal, dass er limitiert. Der Chip setzt das Limit dessen, was möglich ist und definiert die Leistungsklasse - daher ja auch die zahlreichen neuen Ansätze Rechenleistung zu sparen mittels KI / Skalierung usw.

Ich kaufe also den Chip / die Chipklasse, die ich mir leisten kann und / oder die aktuell technologisch möglich ist.

Ram ist im vergleich dazu spottbillig und sehr gut verfügbar. Bsp. 3060: Für 329€ UVP gab es schon vor 2 Jahren 12GB und NV hat noch prächtig dran verdient.

Wenn ich den teuren Chip jetzt künstlich dadurch beschränke, dass ich ein im Vergleich einfaches Bauteil limitiere, verschlechtere ich ohne Not das gesamte Produkt und verkürze die Lebensdauer künstlich und das ist einfach dumm und aus Ingenieurssicht einfach falsch.

Beispiel: Ich kaufe ein Auto mit Spitze 200km/h um damit schnell zu fahren, der Hersteller montiert aber Reifen, die nur bis 120 zugelassen sind. Dann kann ich natürlich sagen: "Meistens sind ohnehin nur 120 erlaubt und es regnet auch oft" - aber es ist dann trotzdem ein dummes Produkt. Ich kann ja meinen Fahrstil "einstellen" auf das Produkt.

Wem das Beispiel nicht gefällt, weil man Reifen wechseln kann, nimmt einen Grossraumvan, der nur 300 kilo Zuladung hat.
 
[wege]mini schrieb:
Beides. Spiele werden immer größer. Von der Welt her, von der Grafik her, von der Story her. Irgend wann kann man nicht mehr alles optimieren und will es irgend wann auch nicht mehr, weil es einfach Zeit und damit Geld kostet.
Tut es nicht- Aber fast könnte man meinen, dass die Grafikkartenhersteller mit den Softwareentwicklern unter einer Decke stecken...

https://compusemble.com/insights/ho...th-fast-storage-to-reduce-memory-requirements

The demo starting at the 50 second mark was configured to run in 4K and each object is a 16k x 16k BC7 texture. Ordinarily, this would take up 350MB of GPU memory for each individual object. The demo features 985 such objects, which would take up nearly 300 GB (yes, that's GB, not MB) of GPU memory. However, as can be seen in the video, allocated VRAM usage is just over 3 GB, and dedicated VRAM usage is just over 2 GB! SFS allows for visuals that simply would not otherwise be possible due to memory constraints.
Das dann im Zusammenspiel mit direct storage....
Die neuen Technologien wurden offenbar nur aus Spaß entwickelt.

Wenn sie genutzt würden, würde der Speicherbedarf von Spielen sofort auf einen Bruchteil zusammenbrechen (Rendertargets, Buffers, Cache).

So erliegt man der Versuchung mehr und mehr einfach sinnlos durch Hardware zu erschlagen. DLSS 2+ und FSR2+ sind die ersten ernsthaften Versuche, diesem Wahnsinn Einhalt zu gebieten.
 
  • Gefällt mir
Reaktionen: hahaqp, 7LZ, ComputerJunge und eine weitere Person
habe noch eine RX590mit 8GB würde aber in 2023 keine karte mehr unterhalb 12GB für +200EURO kaufen
finde ich nicht mehr Zeitgemäss wenn schon neu dann sollte die Mindestns 12GB haben auf für FHD

+200EUR min 12GB FHD
+500EUR min 16GB WUHD
+1000EUR min 24GB WUHD & 4K
nicht weil der Speicher nicht mehr reicht aber wenn ich schon geld in die Hand nehme dann will ich auch die nächsten 4-6Jahre zumindest keinen Speicher engpass haben
 
Zurück
Oben