News GeForce, Radeon & Arc: Wie viel Speicher hat eure Grafikkarte und reicht euch das?

mytosh schrieb:
Wollen wir den Preis mal außer Acht lassen.
WTF 900€ Mittelklasse dann ist einstig bei 400€ mit 4GB
 
@Mcr-King
So kann man sich die Kunden erziehen...
 
  • Gefällt mir
Reaktionen: C4rp3di3m und Mcr-King
RobinSword schrieb:
Die Frage, ob der VRAM in einem Spiel aktuell ausreicht oder nicht, ist gar nicht so einfach zu beantworten. Es gibt kein einzelnes Kriterium, an dem man das festmachen kann [...]
Wenn die gespielten Spiele deutlich weniger Speicher belegen als vorhanden ist, dann reicht der Speicher ganz offensichtlich aus...
 
Mittelklasse hatte mit der RX480 schon für 219€ 8GB. Das als Custom mit der RX 480 Gaming X 8G, mit dem besten Kühler😅
Mittelklasse mit 8 GB, für 700€, ist wohl eher LowEnd. 12GB, für 800€, ist Kunden Verarsche. 16GB, für ~1200€, genauso. Gab es auch schon 2019, für 729€. Ist jetzt seit neusten eine 4070TI eine FullHD Karte und eine 4080, eine FullHD mit Option für WHD?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Es soll mal eher an Lösungen gearbeitet werden wo der Speicher geteilt wird. Wir haben M.2, RAM und VRAM, wozu eigentlich? Damit die Firmen Kohle machen.. könnte man auch alles umgestalten zu einem großen Speicher der ans Mainboard kommt und von dort aus quasi wie eine Auslagerungsdatei sich die Prozessoren ihren Teil den sie brauchen abzweigen. - Wird es wohl irgendwann in Zig Jahren erst geben, bis dahin sämtliche Speicher-Versionen und Kunden abgefarmt...
 
Ich muss gestehen... Ich hatte auch einen "schwachen" Tag und habe mir eine 7900XT Nitro gekauft. Auch wenn sau teuer^^ die Karte ist so gut! Power ohne Ende und stehts leise. Ein Traum.

Ich finde die Entwicklung mit den Preisen auch nicht gut. Die Karten sind aber Top. Trifft auf gute nVidea Karten sicher auch zu.
 
@r4v398 Es gibt doch die Möglichkeit dass du dir einen PC mit 1 oder sogar 2TB Ram konfigurierst und eine RAM Disk nutzt, kostet halt nur dementsprechend viel.

Deswegen gibt es auch solche Sachen wie SSDs und HDDs. Eine M2 zum Beispiel ist bei den Latenzen und bei der Übertragungsrate viel langsamer als Arbeitsspeicher dafür aber auch deutlich günstiger.

Und steckbarer VRAM wäre wohl auch nicht das Wahre weil dann die Latenzen und Übertragungsraten total im Eimer sind, und wer will schon eine Grafikkarte ala RTX 4090 wo dann die GPU an der Speichergeschwindigkeit verhungert.

MFG Piet
 
  • Gefällt mir
Reaktionen: Wilfriede
r4v398 schrieb:
Es soll mal eher an Lösungen gearbeitet werden wo der Speicher geteilt wird. Wir haben M.2, RAM und VRAM,
...und dann noch Speicher wie Caches in der CPU. Auch weg damit?

r4v398 schrieb:
wozu eigentlich? Damit die Firmen Kohle machen.. könnte man auch alles umgestalten zu einem großen Speicher der ans Mainboard kommt und von dort aus quasi wie eine Auslagerungsdatei sich die Prozessoren ihren Teil den sie brauchen abzweigen.
Ich will dir wirklich nicht zu nahe treten, aber Informatik hast du nicht studiert, oder?

Wie ungefähr so eine Lösung aussehen würde, siehst du, wenn du mal richtig schön wenig RAM im PC hast und dafür eine große Auslagerungsdatei.
 
Da Spiele mit Direct Storage und Sampler Feedback Streaming weiter auf sich warten lassen, würde ich auch sagen, dass 16 GB das Maß der Dinge sind und 12 GB nur noch für 1440p und Mittelklasse GPUs akzeptabel ist.

Trotzdem, wenn Direct Storage mit SFS endlich eingesetzt wird, dann würde ich weiterhin erwarten, dass dann für next-gen Grafik 8 GB locker reichen.

Man sieht ja heute schon, dass mit ein wenig Optimierung und selbst ohne die genannten Techniken, Spiele wie Plague Tale oder Atomic Heart erstaunlich wenig Speicher brauchen, trotz exzellenter Texturen.

Eigentlich ist es „dumm“ für genug Speicher viel mehr Geld zu investieren, weil es technisch gesehen offensichtlich keine Notwendigkeit mehr dafür gibt. Die Realität ist aber, dass ständig Spiele erscheinen, die ineffizient mit Ressourcen umgehen.


Selbes Spiel bei CPUs. Da denkst du, mit 8+ Cores hat man eine Zeitlang ausgesorgt. Von wegen, wenn Spiele kaum mehr als 4 Threads auslasten und der Haupthread limitiert und deswegen immer wieder ein neuer i5 einen alten i9 abzieht…

Da kann man sich auch die Frage stellen, ob man es einfach hinnimmt, dass manche Spiele so schlecht optimiert sind oder ob man dann doch irgendwann von 8 Cores auf 8 Cores aufrüstet, nur um mehr Single thread Leistung zu haben.

Es ist einfach so schade, dass manche Hardware nie ausgenutzt wird und schon ausgetauscht wird, bevor man das ganze Potenzial bzw. das Featureset überhaupt angekratzt hat. Siehe die ganzen Turing Karten. Die können alle DirectX 12 Ultimate. Habt ihr schonmal irgend ein Spiel gesehen, dass z.B. die Mesh Shader nutzen würde? Ich nicht. Was da an potenzieller Performance und effizienz brach liegt ist kaum zu glauben.
 
  • Gefällt mir
Reaktionen: Kuestennebel79
Ich laufe eigentlich immer zuerst in Performance Probleme, als das mir der VRAM ausgeht.
Aber gut, da sprechen die Vollblut Hardware Enthusiasten; wenn man schon 700€+ für so eine Karte ausgibt, sollte sie auch alles beherrschen, was demnächst auf den Markt kommt.
Meinen Kauf auf extra VRAM runterzubrechen würde mir persönlich nicht in den Sinn kommen (Extreme Beispiele à la 3090 Perf mit 8 GB für 700€ natürlich ausgenommen).
 
Die R9-390er haben gerade, weil sie 8GB VRAM an einem 512bit Bus hatten so lange in 1080p gute Leistungen über viele Jahre gezeigt, AMD Treiber sind zu dem Bekannt dass die Karten immer besser Laufen mit den Jahren. Entgegen des CB Tests wurden bei deren Nachfolger im 1440p bei meiner RTX2060-12GB auch bei vielen Spielen über 11GB VRAM genutzt.

Heißt für mich das es 12GB VRAM, bei mindestens 192bit Anbindung als absolut notwendig darstellt für 1440p.

Meine jetzige / neue RX6900XT hat 16GB VRAM. Die nächste GPU wird mindestens 24GB und 256bit bieten müssen damit ich diese Kaufe, egal von welchem Hersteller. Ob AMD oder NV gekauft wird entscheidet sich nur nach Preis + Leistung in Verbindung mit den genannten Specs.

mfg
 
  • Gefällt mir
Reaktionen: trailrider
pseudopseudonym schrieb:
Ich will dir wirklich nicht zu nahe treten, aber Informatik hast du nicht studiert, oder?
Was hat das ganze mit Informatik zu tun?! Gar nichts. Wie @PietVanOwl schon richtig erklärt geht es um die Hardware Unterschiede insbesondere um die Latenzen an sich. Da muss angesetzt werden und eine Lösung geschaffen werden die die Latenzen beibehält aber dennoch im Vergleich günstig und Modular bleibt.

Ich denke nicht dass es ein Ding der Unmöglichkeit ist, eher eben bedeutet dass das ganze Mainboard-Konzept überdacht werden muss. Die GPU z.B muss besser integriert werden, PCIe ist einfach Obsolet. Ich bin kein Ingenieur aber habe dennoch bereits Ideen (GPU Sockel z.B.). Wenn sich die richtigen Leute zusammen setzen würden, käme da schon was bei rum. - Wird nur eben nicht gemacht, da wir als Konsument sowieso als aller letztes bedient werden.
 
r4v398 schrieb:
Was hat das ganze mit Informatik zu tun?! Gar nichts.
Doch, hat es. Sonst wäre das wohl kaum Thema diverser Grundlagenvorlesungen.
Die verschiedenen Speicher optimal zu nutzen ist auch noch Thema diverser Forschungsprojekte.


r4v398 schrieb:
Wie @PietVanOwl schon richtig erklärt geht es um die Hardware Unterschiede insbesondere um die Latenzen an sich.
Wie zum Beispiel sorgt man für kurze Latenzen? Indem der Speicher möglichst dicht da sitzt, wo er gebraucht wird. Geht schlecht, wenn er an mehreren Stellen gebraucht wird. Deswegen haben z. B. CPUs nochmal einen eigenen "Arbeitsspeicher", bzw sogar mehrere auf mehreren Stufen.
Dann kommen noch Kosten dazu. CPU-Cache ist sackteuer (und das nicht nur auf die Produktionskosten bezogen). Du kannst den nicht so groß machen, dass du keinen normalen RAM mehr brauchst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge
Mcr-King schrieb:
WTF 900€ Mittelklasse dann ist einstig bei 400€ mit 4GB
Der Einstieg ist eher ARC mit 16 GB für 379€. ;)
 
  • Gefällt mir
Reaktionen: C4rp3di3m
Ich musste mich bei Frage 2 und 3 leider enthalten, weil RT wohl nichts mit dem Speicher zu tun hat. Ergo: 16 GB reichen noch gut.
 
hab noch ne GTX 970 im derzeitigen betrieb, aber der neue VRAM Krüppel ist schon bestellt...scheinbar trifft da die aussage "old habits never die" zu. Naja immerhin zocke ich nur in FHD 😅
 
Habe 24 GB, nein die waren noch nie voll und ich finde 12 GB sollte man im Jahr 2023 mindestens haben.
 
  • Gefällt mir
Reaktionen: Mcr-King
therealsnub schrieb:
3080ti
Mit den 12GB in WQHD kein Problem. Ich gehe auch davon aus, dass es bis zur 5080 bei der Auflösung nie zu Problemen kommen wird.
Dann spiel Hogwarts Legacy auf max. Details, da reichts nicht mehr. Nvidia müsste einfach nicht so knausrig sein.
 
  • Gefällt mir
Reaktionen: JohnDonson
16GB 6900XT mit WQHD.

Die einzige Karte zu der ich upgraden würde wäre die 4090. Aber ich weigere mich diese Preise mitzugehen.

Die 2k hab ich dann in ein anderes Hobby gesteckt (und dafür was bekommen, was deutlich besser altert als ne GPU).
 
  • Gefällt mir
Reaktionen: C4rp3di3m und Mcr-King
Zurück
Oben