News GeForce, Radeon & Arc: Wie viel Speicher hat eure Grafikkarte und reicht euch das?

Ayo34 schrieb:
Ein wichtiger Punkt bei der Diskussion ist doch die Langlebigkeit. Grafikkarten sind verdammt teuer und sollten bei mir min. 6 Jahre halten können. Meine 1070 hatte vor über 6 Jahren eben schon die 8GB und konnte daher solange auf FullHD abliefern.
Spiele ich immer noch mit der Karte ohne Probleme. Sogar Hogwarts Legacy durchgängig 60fps ohne einen einzigen Ruckler auf "hoch". Einfach die unnötigen Effekte abschalten und läuft geschmeidig. 8GB RAM reicht heute immer noch für FHD.
 
DerRico schrieb:
Wenn ich den teuren Chip jetzt künstlich dadurch beschränke, dass ich ein im Vergleich einfaches Bauteil limitiere, verschlechtere ich ohne Not das gesamte Produkt und verkürze die Lebensdauer künstlich und das ist einfach dumm und aus Ingenieurssicht einfach falsch.

Beispiel: Ich kaufe ein Auto mit Spitze 200km/h um damit schnell zu fahren, der Hersteller montiert aber Reifen, die nur bis 120 zugelassen sind. Dann kann ich natürlich sagen: "Meistens sind ohnehin nur 120 erlaubt und es regnet auch oft" - aber es ist dann trotzdem ein dummes Produkt. Ich kann ja meinen Fahrstil "einstellen" auf das Produkt.
Nur mal so zum Nachdenken: In Deutschland werden fast nur Automobile verkauft, die zwar 300 rennen könnten, aber bei 250 elektronisch eingefangen werden. Wenn man sich das gleiche Fahrzeug in der Schweiz kauft, hat man diese Bremse nicht. Das nennt sich Selbstbeschränkung und existiert seit einer gefühlten Ewigkeit.

Eine Karte durch Produktverschlechterung in der Lebensdauer zu begrenzen ist keinesfalls dumm. Denn man muß sich in diesem Falle ja früher eine neue Karte kaufen. Also ist das Ganze betriebswirtschaftlich durchaus sinnvoll. Oder, um in deinem Beispiel eines Automobils zu bleiben: Mercedes hatte damals mit der E-Klasse der Baureihe W124 ein sehr haltbares Automobil. Nur hatte keiner in absehbarer Zeit ein neues gekauft. Mit der Reduktion der Qualität hat man es geschafft, daß die Kunden mehr Fahrzeuge im gleichen Zeitraum kauften.
 
Leon_FR schrieb:
Ich will im Q1 endlich aufrüsten hoffe das es mal eine Varinate vonm Nvidia mit 16GB gibt.
Nennt sich RTX4080, die hat 16GB. Odee halt 7900xt/7900xtx die nutzen 20GB /24GB
 
Mit meiner 6700XT (12GB) kann ich bisher alles wunderbar auf WQHD spielen, Cyberpunk 2077 inbegriffen.
RT würde ich gerne mal ausprobieren, aber mit meiner Karte nicht möglich bzw. eingeschaltetem DLSS kommt mir nicht in die Tüte (noch nicht), dafür ist mir die Qualität der Anzeige zu wichtig.
 
.Sentinel. schrieb:
Wenn sie genutzt würden, würde der Speicherbedarf von Spielen sofort auf einen Bruchteil zusammenbrechen

Schon klar. .kkrieger war damals ein schönes Beispiel aus der Demoszene. Hat sogar Entwicklerpreise bekommen.

https://de.wikipedia.org/wiki/.kkrieger

Das ist aber aufwendig, kostet Zeit und mit "normalen" Menschen die von Hochschullehrern gebildet wurden, die auch nur ihr Wissen weiter geben, wird das schwer.

Außerdem, muss man mit der Zeit gehen. Keiner arbeitet heute mehr mit Lochkarten oder benutzt Assembler. Alle arbeiten mit sogenannten "Hochsprachen".

Das spart Zeit und ermöglicht es, die heutigen Dinge überhaupt zu programmieren.

Alleine ein Druckertreiber in Assembler auf Papier gebracht, sind 4000 Seiten DIN A4 Blatt. :evillol:

mfg
 
  • Gefällt mir
Reaktionen: Schempi und .Sentinel.
GuruRHM schrieb:
Ich hätte vor einer Antwort empfohlen, den Post genauer zu lesen. Dann wäre die Frage vermutlich obsolet. Denn der Satz auf den sich mein Post gezog, ist zitiert. Oder leidet der Herr an selektivem Lesen? Vermutlich verlange ich von Dir mit der Forderung von Lesen und Versthen aber schlicht zu viel ab.

Ich habe deinen Post sehr wohl gelesen.
Nichts, was darin steht ist für mich relevant und auch in keinerlei Weise als Zitat zu meinem Post sinnvoll, da ich davon schrieb, worauf ich persönlich als einziges upgraden würde - was du machen würdest hat mit mir schlicht nichts zu tun. Die Gründe dafür auch nicht.


Deine Antwort ist an Arroganz und Unverschämtheit kaum zu überbieten.
Das deine Meinung mir schlicht egal ist und der in deinen Augen existente Zusammenhang zu meinem initialen Inhalt schlicht irellevant, scheint komplett außerhalb der Möglichkeiten deiner Selbstwahrnehmung zu liegen.

Willkommen auf meiner igno-List.
 
Ich fahre in den meisten Spielen mit 11GB meiner 1080Ti noch ganz gut.
In manchen AAA Produktionen wird das bei meiner gewählten Auflösung (3440x1440) schon mal recht knapp, wobei hier fast immer die Rohleistung meiner GPU limitiert. Für ein Upgrade würde ich also min. 16GB damit die GPU auch die nächsten X Jahre in allen Spielen ohne Speicher "Bottleneck" läuft.

Am Ende ist aber heute klar zu erkennen, was viele schon zu dem Release der 30er Karten geschreiben haben: 8GB sind nicht mehr genug wenn man "alles" ohne Einschränkungen spielen will. Gerade Nvidia gibt sich hier ja knauserig, da könnte selbst Auto-Normal-Spieler bereits in Bottlenecks laufen, ohne es zu wissen.
 
  • Gefällt mir
Reaktionen: Icke-ffm
[wege]mini schrieb:
Außerdem, muss man mit der Zeit gehen. Keiner arbeitet heute mehr mit Lochkarten oder benutzt Assembler. Alle arbeiten mit sogenannten "Hochsprachen".

Das spart Zeit und ermöglicht es, die heutigen Dinge überhaupt zu programmieren.
Natürlich kommst Du um Hochsprache heute bei den Projekten nicht mehr rum.
Opimierten Assemblercode verlangt ja auch keiner (wobei auch da durch KI in Zukunft deutlich optimierte compiler ans Werk gehen könnten).

Was für mich ein wenig unverständlich ist - Die Entwickler sollten die neuen Techniken, die ja per Bibliothek bereits fertig in der Schublade liegen, eigentlich umarmen. Ressourcenmanagement ist für Engine- Coder ein sehr unangenehmes Thema.

Macht ja letztendlich vieles leichter. Textur- bzw. MIP- Management, Streamingentlastung usw. usf.
Man muss sich also um weniger kümmern. Trotzdem hat "man" wohl irgendwie keinen Bock drauf....
 
  • Gefällt mir
Reaktionen: [wege]mini
also rein aus meiner persönlichen Erfahrung never ever unter 16 GB VRAM
man merkt ja jetzt schon, dass manche Games an den 16 kratzen
 
  • Gefällt mir
Reaktionen: Icke-ffm
Bmob2k schrieb:
RT würde ich gerne mal ausprobieren, aber mit meiner Karte nicht möglich bzw. eingeschaltetem DLSS kommt mir nicht in die Tüte (noch nicht), dafür ist mir die Qualität der Anzeige zu wichtig.
Ich spiele zwar nur in FHD aber habe mit der RX 6700XT dort keine Probleme mit RT. Spider-Man Remastered läuft super damit (auch ohne FSR) und wenn ich die Benchmarks noch im Kopf habe, sollte auch RT in WQHD damit laufen.
Die Karte ist ein gutes Beispiel für die RAM-Debatte. Die 12GB sind meiner Meinung nach aktuell genau der Sweetspot zwischen Leistungsklasse und RAM-Verbrauch, weil man auf keine Texturen verzichten muss, aber RT deaktivieren kann, wenn es notwendig ist.
 
  • Gefällt mir
Reaktionen: Icke-ffm
Ich kaufe seit ich denken kann nur Grafikkarten mit ausreichender Speichermenge, sofern das praktisch möglich ist. Früher war das einfacher, als es Modelle mit verdoppelter Kapazität regelmäßig gab. Richtig relevant wurde das aber erst ab ~2013, mit ständig steigenden Auflösungen abseits der Full HD Norm und vielen Downsamplingmöglichkeiten.
GTX Titan -> 6 GiB
Titan X (Pascal) -> 12 GiB
6900 XT -> 16 GiB
RTX 4090 -> 24 GiB

Damit musste ich mir seit 10 Jahren quasi kein Kopfzerbrechen machen, was die GPU Bestückung mit Speicher angeht. Interessanterweise habe ich sowohl die beiden Titans als auch die 6900XT mit speziellen, aber spielbaren Settings ausfahren können, von der Kapazität her. Dafür bedurfte es aber Texturmods: Aber hey, wenn man den Speicher hat sind diese leistungstechnisch quasi kostenlos.
 
  • Gefällt mir
Reaktionen: DerRico
Habe aktuell 8GB auf meiner 2080. Habe bis jetzt keine Probleme in WQHD gehabt - wobei das auch immer stark von den Spielen abhängt, was man so spielt, bei mir keine Probleme. Auf dem zweiten PC werkelt eine 5700xt, auch mit 8GB.

Ich werde demnächst auf eine 4070ti mit 12GB wechseln, dann hab ich mehr als vorher, ist also so oder so ein Upgrade.
 
Lord_Helmi schrieb:
Ich kaufe seit ich denken kann nur Grafikkarten mit ausreichender Speichermenge, sofern das praktisch möglich ist. Früher war das einfacher, als es Modelle mit verdoppelter Kapazität regelmäßig gab. Richtig relevant wurde das aber erst ab ~2013, mit ständig steigenden Auflösungen abseits der Full HD Norm und vielen Downsamplingmöglichkeiten.

naja, das ist der Idealfall, aber nicht jeder kann sich Grafikkarten um die 2000 euro jede ca. 3 Jahre leisten
daher ist das für den Großteil eher Wunschvorstellung
 
DonDonat schrieb:
Ich fahre in den meisten Spielen mit 11GB meiner 1080Ti noch ganz gut.

Erstaunlich was die 1000er Reihe für eine gute und langlebige Generation war. Zudem ja auch effizient zu der damaligen Zeit.
 
  • Gefällt mir
Reaktionen: DonDonat und Alkcair
2080S 8GB - Reicht eindeutig nicht, unter 16 würde ich nicht einmal mehr über einen Neukauf nachdenken.
 
  • Gefällt mir
Reaktionen: DerRico und Icke-ffm
Cronos83 schrieb:
Ich habe deinen Post sehr wohl gelesen.
Nichts, was darin steht ist für mich relevant und auch in keinerlei Weise als Zitat zu meinem Post sinnvoll, da ich davon schrieb, worauf ich persönlich als einziges upgraden würde - was du machen würdest hat mit mir schlicht nichts zu tun. Die Gründe dafür auch nicht.


Deine Antwort ist an Arroganz und Unverschämtheit kaum zu überbieten.
Das deine Meinung mir schlicht egal ist und der in deinen Augen existente Zusammenhang zu meinem initialen Inhalt schlicht irellevant, scheint komplett außerhalb der Möglichkeiten deiner Selbstwahrnehmung zu liegen.

Willkommen auf meiner igno-List.
Damit es auch für Dich verständlich ist:
Du schriebst, daß Du nur in eine 4090 investieren würdest. Genau diese aussage habe ich zitiert. Zudem antwortete ich , daß ich eher in eine Quattro investieren würde, bevor ich eine 4090 näme.

Wo ist der Zusammenhang nun nicht zu verstehen? Wenn Du in meinen Post das gelesen hättestm was ich schrien und die Graue Masse zwischen den Ohren bemüht hättest, wärest Du sicherlich auch auf exakt diesen Zusammenhang gestoßen. Ich habe ja nicht mal was über funktionale Analphabeten geschrieben.

[Ironie]Und ich bin ja soooo frustriert, daß ein mir unbekannte User mich auf seine Ignore-Liste schiebt. Ich gehe jetzt in mein Badezimmer und heule mich aus. Danach gehe in den Supermarkt, um mir mit zwei dort gekauften Flaschen Vodka den Frust wegzuschwemmen. Das wird einen massiven Schaden in meinem Selbstwertgefühl hinterlassen.
[/Ironie]
 
AtomLord schrieb:
Ich merke es aber schon an Skyrim, wenn ich es modde, dass selbst dort keine 8 GB mehr reichen. Die ARC wird mit 4K und 8k Texturen samt auf Anschlag eingestellten ENB Effekten mit gut 13 GB belegt.
Läuft SkyrimSE + ENB gut mit Arc?
Bei den AMD RX6000ern aufwärts soll es hier und da, je nach System, Probleme geben.
(kenne aber auch Leute bei denen die ENB mit ner 6800XT reibungslos funktioniert hat - K.A.)

Auf FullHD hatte ich mein ModSetup genau an die GTX1070 angepasst (60 FPS). Für WQHD und ein paar mehr Mods musste dann aber die RTX 3060 12GB her. VRAM ist da dann auch über 8GB belegt.
(jeweils "echte" Belegung)
 
ich bin echt froh dass ich 16gb habe. aufgrund wohl schlechter optimierung musste ich bei cod mw2 den verfügbaren speicher von default 80 auf 70 % runter regeln. seitdem hab ich weniger abstürze bilde ich mir ein. laut fehlerbericht eines absturzes war der ram tatsächlich mal mit 500mb überbelegt, was in einem zugriffsfehler endete.

also ich nutze die 16 gb bei weitem nicht aus, konnte aber so den beta zustand des spiels für mich etwas stabiler gestalten.

warum nvidia bei der 4070 z.b auf nur 12gb setzt ist mir ein rätsel. daumen hoch für amd, auch wenn ich mich für eine nvidia 4080 entschieden habe, finde ich deren (amd) politik super, 16 gb als minimum anzubieten !!!
 
  • Gefällt mir
Reaktionen: Icke-ffm
Zurück
Oben