News GeForce RTX 3070 16 GB: Modder verdoppelt den Grafikspeicher für mehr FPS

CB.R schrieb:
Als ich meine 6800 gekauft hatte, dachte ich erst 16 GB VRam sind eigentlich schon irgendwo Angeberei. Dann kam vor 4 Wochen TLoU, seit dem wusste ich wofür viel VRam gut sein kann.
geht mir mit der 6900xt mittlerweile ziemlich ähnlich, vor allem da ich mit der Karte auch noch den Sprung auf einen 32" UHD Schirm gemacht habe... mit der Karte wollte ich eigentlich 2 volle Generationen überspringen, also von heute an gerechnet erst in 4 Jahren wieder Geld ausgeben ("wenn nichts unvorhergesehenes passiert"), in der Hoffnung, dass bis dahin Raytracing auch endlich in Spielen vernünftig umgesetzt ist (keine Techdemo und so weiter) und die Hardware die erforderliche Performance auch easy ohne Upscaling und Co abliefert (kann gerne mit dabei sein, aber ich will nicht darauf angewiesen sein müssen).

Noch bin ich positiv gestimmt, mal schauen, wie das in 2 Jahren aussieht... nur gut, dass ich für gewöhnlich bei den Spielen normalerweise durchaus immer etwas hinter her hinke, das sollte mich dann je nach Game, bei sicherlich eh etwas moderateren Settings, hoffentlich über die beiden letzten Jahre "danach" bringen.
 
  • Gefällt mir
Reaktionen: Redundanz, JackTheRippchen, Wanderwisser und eine weitere Person
Neodar schrieb:
Man hätte sich auch schon vor einem Jahr denken können, dass nur 8GB Speicher bei einer Karte dieser Leistung nicht passen und erst recht nicht mehr lange reichen würden.
Die Wucherpreise für diese Karten hätten einen zusätzlich abschrecken sollen.
joa, ich hab zwar auch eine RTX 3080. Aber extrem Zähneknirschend kaufen müssen. Brauchte hdmi 2.1 und Oktober 2020 gab es quasi nix anderes als Nvidias Karten. Und da grad eine verfügbar war für bezahlbares Geld, hab ich einfach eine gekauft. Aber im enddefekt. hätte ich die Karte wenn ich hdmi 2.1 nicht gebraucht hätte nie im Leben gekauft...
 
fox40phil schrieb:
War Dir das damals nicht direkt klar?^^ wurde doch auch überall gesagt.
Sicher? Auch hier im Forum wird regelmäßig gepredigt, dass der Speicher von Nvidias für Jahre locker ausreicht.
 
  • Gefällt mir
Reaktionen: Redundanz, Wintermute, Zwirbelkatz und eine weitere Person
Manche Titel schalten das Speichermanagement derart, dass Texturen spät ins Bild ploppen. Was ein deutlich sichtbarer Qualitätsunterschied sein und die Immersion stören kann. Dieses Clipping und der potenzielle Verlust an Bildqualität wird anhand von reinen Benchmarkbalken nicht sichtbar.
Dies gebe ich zu bedenken, wenn man unterschiedlichen Herstellern ein schlankeres Management des Grafikspeichers attestiert.

Genauso wenig wie zum Launch einer neuen Grafikkartengeneration sofort messbar wird, was geschieht, wenn der Ram final deutlich zu wenig wird. Denn zum Release steht das Wasser genau bis zur Bordsteinkante.

Nach 1-2-3 Jahren ist dann manchmal das große Aha-Erlebnis da. Siehe Einbrüche auf bis zu 7 Frames, wie im Screenshot. Ich persönlich finde, dass im Falle einer 900€ schweren RTX 4070 Ti die Erwartungshaltung nicht unüblich ist, dass diese mehr als 2 Jahre - und auch in harten Settings in AAA-Titeln - zu bestehen wissen sollte. Wobei jeder andere Ansprüche an "sein" Budget haben darf.
 
  • Gefällt mir
Reaktionen: bullit1, 007JamesBond, M11E und 8 andere
Ich hoffe immer noch drauf, dass langsam solch eine Industrie nach Europa kommt.
Bisher denke ich bei solchen "mods" immer an China und insbesonder Shenzen.

Problem ist nur das SMD-rework hierzulande immer extrem teuer ist. d.h. Dienstleister mal eben beauftragen ist nicht.

Skudrinka schrieb:
Wird Zeit für aufsteckbare Module..
Wird nicht passieren. Warte persönlich immer noch drauf das extrem OC/highend Mainboards mit verlötetem RAM ausgeliefert werden:
Wer 800€ für ein Mainboard ausgibt, der wird sicherlich auch eine Mainboard + sehr gut gebinnten RAM IC + verlötet für das letzte bisschen Latenz kaufen.
 
PTS schrieb:
??? Macht doch keinen Unterschied, die 12GB von AMD wären genauso ausgelastet dann, die sind sogar schlechter als von nvidia 8GB.

Solltest dir den Artikel nochmal genau anschauen... hier wird doch klar das die Speicherauslastung bei AMD größer ist als bei NVIDIA.
Ergänzung ()



noch so einer...
auch für dich: wenn du 12GB Ram von AMD hast, ist der 8GB Ram von NVIDIA trotzdem besser und füllt mehr aus, der hohe RAM bei AMD ist nur marketing, in der praxis wird der ram von amd schneller voll als bei nvidia-karten.

Siehe Artikel:
(rechts ist die Belegung, links die Speicherausstattung):
Anhang anzeigen 1350912

Also wenn man Screenshots zeigt, bitte auch von welchen Benchmark / Game genau bitte.
Keine Lust das Video danach abzusuchen.
Ja die AMD verbrauchen mehr VRAM als NVDIIA (Warum genau eigentlich?). Aber die NVIDIA der 4000er Serie auch weniger als die 3000 Serie.
Wer sagt denn jetzt das das immer so bleiben wird und nächste Jahr noch ausreicht?
Es geht doch eben dadurch, dass die Leistung einer GPU noch völlig ausreichen würde aber nicht reicht, weil VRAM zu wenig ist.
NVIDIA ist nunmal sehr gut, das soweit wie möglich hinauszuzögern, nur damit es dann eben doch nicht mehr reicht.
Haben ist besser als brauchen und nicht haben. DLSS und Frame Generation brauchen auch noch VRAM, das ist kein Argument mehr dann... das teure bezahlte Feature is dann hinfällig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bullit1 und SDJ
Ja ich denke als Verbraucher sollte man fast ausschließlich anhand von Ram Karten einstufen, sicher andere Vorteile/Nachteile können noch 50 Euro hin oder her entscheiden, aber mal nicht einen extrem schwachen Chip oder das der Ram so lahm wie ne Schildkröte ist voraus gesetzt, sollte man denke 12gb nur noch bis 500 Euro kaufen, bis 8gb nur noch Lowend (ja die neuen Lowendpreise sind immer noch gesalzen) vielleicht wenn die Karte sonst gut ist 300 Euro. Und das ist keine riesen Forderung die total unrealistisch ist.

Ich denke einfach das man doch deutliche Einschränkungen hat mit 8gb selbst bei 1080p und das ist ne Steinzeitauflösung, das rechtfertigt dann auch ein niedrigen Preis, in alten Zeiten wäre das sogar noch weiter unter die 300 Euro tragen den Wucherkartenpreisen schon ne Rechnung.

Ich mein mit den Konsolen ne PS5 gibts schon für 450 Euro mit 16gb basically vram selbst wenn wir 4gb für PC abziehen sinds 12gb vram dazu noch ne ca. 1tb ssd für 50 Euro und nen 8core Ryzen mit Controller etc nen 8 core ryzen für 170 Euro Mainboard wie gesagt Controller 60 Euro also Gehäuse schenk ich mir mal also man kriegt eine Art System mit 12gb Grafikkarte und anderen Teilen im Wert von >280 Euro.
Oder anders gesehen man kriegt ein Bundle das die 12gb Grafikkarte 280 Euro billiger macht und bekommt damit für 170 Euro quasi ne 12gb Grafikkarte.

Ich verstehe da man drauf zahlen muss mehr Freiheit am PC unter anderem wegen teuren Spielen, aber wenn wir mal nicht vom Raubkopierer aus gehen, und wir 20 Euro Aufpreis auf jedes Spiel rechnen und wir mal 630 Euro RTX 4070 mit 170 Euro für die virtuelle PS5 Grafikkarte mit 12gb rechnen brauchts schon dann muss man schon 460 / 20 = 23 Spiele damit Spielen damit es sich lohnt, und man kann ja auch Doppelgleisig fahren für die 100 kleineren Indie Spiele brauchts die Hardware ja nicht wir reden hier also fast ausschließlich von AAA Titel.

Und das schlimme im Zweifel hat man mit der RTX 4070 trotzdem noch schlechteres Ergebnis da wenn der Vram der aus geht hat man halt verloren muss settings weit runter setzen, wenn der PS5 12gb Vram nicht ausrechnen reserviert sie eben 13 oder 14gb. Zumal sie ja neben den 16gb auch noch 512mb anderen Ram hat und eben DirectAccess Technik hat das ist aufm PC nur ein feuchter Traum das 0 Spiele unterstützen.

Ich würde selbst dann noch in Frage stellen ob ich 500 Euro für nur 12gb Vram blechen wollen würde, aber ich verstehe das andere Leute Raytracing und andere Nvidia Dinge höher werten als ich, ich denke das ist basically das minimum das absolute Minimum, AMD schaffts ja auch 16gb ab 520 neu an zu bieten Intel sogar ab 380 Euro. Ja wer nur auf die aktuellen Spiele im Tunnelblick schaut kann sich die jetzigen Benchmarkergebnisse anschauen ein paar "schlecht Programmierte" komischerweise meist die neueren ausblenden und glauben das die 12gb Karte besser abschneidet wie AMDs last gen 6800, aber die Rate der "schlecht Programmierten" Spiele wird jetzt stark ansteigen und es reichen ja schon 1-2 Top Titel die man unbedingt spielen will wo die Karte dann massiv geblockt wird und man wird schnell den Kauf bereuen. Also 500 Euro ist immer noch eher teuer aber für Nvidia Preise noch nicht so Wucher das man es nicht rechtfertigen kann.

Also ich bleib bei maximal 300 Euro für neue 8gb Karten und 500 für 12gb Karten und das ist dann immer noch an der Schmerzgrenze, Leute die jetzt 4070 gekauft haben werdens auch denk ich bereuen, selbst wenn wir alle spinnen wird Nvidia und die Zwischenhändler nach geben tun sie schon und ganz schnell rabattieren, außer sie geben den Kunden die schon gekauft haben nachträglich teile des Geldes zurück.
Ergänzung ()

Gr33nHulk schrieb:
und es wird von den Nvidiajüngern dennoch weiter runter gebetet, daß selbst 4GB VRAM auf Turbo-Nvidia Karten locker ausreichen, Gründe dafür erfindet man dann schon genug.
Nunja fairerweise haben 8gb ja lange gehalten, nun ist aber eben der Wendepunkt. Sie hatten daher halt auch lange Recht, Nvidia Kunden haben vermutlich im Schnitt mehr Geld für dieses Hobby über und wechseln häufiger die Karte von daher wenn man eh geplant hat heute zu wechseln lag man vor 1-2 Jahren mit 8gb nicht völlig falsch, richtig Dumm ist nur wer jetzt noch für hohen Preise zu Nvidia Hardware mit wenig VRam greift.
Ergänzung ()

KlaasKersting schrieb:
Nicht wirklich, die UVP war zum Launch 500€ 3070 vs. 580€ 6800 und der Preisunterschied liegt jetzt auch ca. in dem Bereich um 80€.
Das bezieht sich auf die UVP Preise, die sind aber weitgehend irrelevant, die 3070 wurde teils für bis zu 750 Euro vertickert kurz nach release, das war vermutlich bei der Radeon ähnlich aber wie genau kann ich schwer nachvollziehen, aber ja wer direkt beim Release was erwischt hat und jetzt verkauft für den mag das stimmen. Ich würde jetzt zum Abstoß warten jedes weitere Spiel das die Speicherproblematik auf zeigt das raus kommt wird die Lage verschlechtern für die Verkaufswerte. Zumal Nvidia auch künstlich die Preise hoch hält, neu gibts die rtx 3070 ja ab 470 Euro die 6800 ab 520, man verkauft sie alos quasi noch zum Releasepreis, daher glauben die Leute das 320 für ne Gebrauchte ein guter Deal wäre.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C0rteX, fox40phil und palladium.-
Zur Meldung
Daran kann man sehen das die ampere chips ursprünglich anders geplant waren und nur durch mining und chipkrise keine 16gb modellen gekommen sind.
Dann machen auch die rtx3060 12gb auch Sinn wenn dazu rtx3070 16gb und rtx3080 20gb gekommen wären
Das es anders kam lag wie betont maßgeblich an mining.
 
Mimir schrieb:
Das war zwar schon im ein oder anderen Computerbase Test aufgefallen
Die Frage ist ob das ohne Einschränkungen gibt, gibt nämlich auch Spiele die Laden bei den Nvidia Ram Grueppeln Matchtexturen statt den echten nach und dann ruckelt nichts, und man musste nirgends selbst nen Balken nach links schieben. Und ich wäre vorsichtig das so zu verallgemeinern.

Die meisten Tools sehen eh nur "reservierter Speicher" und nicht genutzter, bei Systemen mit mehr verfuegbarem Ram reservieren die Entwickler meist mehr speicher denn Speicher ist dazu da genutzt zu werden.
Ergänzung ()

Chilisidian schrieb:
Der VRAM Bedarf wird aber nicht exponentiell steigen. Das liegt zum einen an den effektiv 11GB der Konsolen, zum anderen hat es mit dem Generationswechsel nun auch den außerordentlichen Sprung gegeben. Mit 16GB wird man also deutlich länger auskommen als mit 8GB. Daher halte ich 20GB und mehr außer im high end Bereich in Zukunft erstmal für utopisch.
Die 11gb bildest du dir nur ein Unified Memory heisst das man mehr oder weniger 100% des Speichers fuer die Grafikkarte benutzen kann, ja nen mini rest brauchts noch aber das muessen nicht 5gb sein, das kann auch im Zweifel nur 1gb sein. Dazu haben die so ne Art Direkt Access Protokoll fuer die SSD implementiert, das heißt wenn der Konsole mal der VRAM aus geht, ist die Panelty deutlich geringer auf der Konsole als beim PC.
 
CB.R schrieb:
Zu wenig VRam sagt man aktuell den jetzt erschienenen 4070 u 4070Ti ja bereits schon wieder nach.
Das NV mit dem VRam etwas effizienter umzugehen versteht als die Mitbewerber, sollte man dabei nicht ganz vergessen
Der Mitbewerber liefert aber meist 16GB in der selben Klasse... Da kann das Speichermanagement und die Optimierung noch so toll sein. Wenig Speicher auf teuren Karten ist nummal Mist und eine viel zu frühe "Sollbruchstelle"
 
  • Gefällt mir
Reaktionen: bullit1, Yar, C0rteX und 5 andere
Mimir schrieb:
Ui, das scheint ja tatsächlich hinzukommen (rechts ist die Belegung, links die Speicherausstattung):
Anhang anzeigen 1350886
Hab mir jetzt mal dieses vermeidliche Nvidia Fanboy Video angeschaut wenn solche Crazy Aussagen hier vermeintlich zitiert wird, nun nach 3 Minuten im Video:
Faustformel: Radeon verbrauch 8,5gb entspricht Geforce 9gb, sehr komisch ausgedrückt, aber soll wohl heißen das wenn du ne 8gb Karte von Nvidia kaufst ist das so wie wenn du ne 9gb gekauft hättest mit 8gb Intel als Basis und die ATI eben 8,5gb, also weit weg von euren Absurden 150% effizienterer Speichernutzung. Das ist sehr Cherry gepickt, du hast hier dich an 1 Spiel Total War fest gehangen bei Spider Man Miles Morales ist der unterschied nur 10,84 vs 13,66, das heißt die 6950 XT könnte bei einem Spiel das noch 20% mehr Speicher braucht bei der gleichen Speichereffizienz noch unterhalb der 16gb bleiben bei der Radeon aber wäre bei der 4070 schon drüber.

Hab jetzt den Rest geschaut und alle Benches mit den Karten war dieser der extreme Ausreißer du scheinst also grade irgendwie für Nvidia Werbung machen zu wollen oder die aus anderen Gründen besser darzustellen als sie sind, das nennt sich Cherry Picken du suchst den einen extremsten Ausreisen 1 einzigen Titel raus und versucht zu suggerieren als wäre das die Faustformel. Das macht also in der Regel vielleicht 10-15% aus nicht diese absurden 60%

Btw die 3070 scheidet ja laut dem Test dort aehnlich gut ab und dementsprechend auch die 3090, https://www.techpowerup.com/review/...ii-benchmark-test-performance-analysis/5.html

Die hier komischerweise auch wieder nur 10% weniger ram verbraucht in Warhammer III:
https://www.techpowerup.com/review/...ii-benchmark-test-performance-analysis/5.html

Es ist also nicht mal ein Spiel das diesen Ausreißer ist sondern nur eine Extension für ein Spiel,

Das ist im Grunde auch ein Uraltes Spiel selbst die Recommend Angaben auf Steam verweisen noch auf ne RX 5600XT mit 6gb vram und 8gb ram, und das ist Early Access also nicht mal fertig, also bestenfalls Beta.
Das als Maßstab zu nehmen wie Next Gen spiele Vram verbrauchen ist ziemlich absurd. Ich les auch DX11 in recommend könnte also auch gut sein das es noch DX11 ist wo bekanntlich Nvidia besser lief wie AMD, alles was aber jetzt released wird wird DX12 oder Vulkan sein.
The engine does support DirectX 12—just add "-dx12" to the command line, but DX12 is pretty much completely broken
Also da muss ich auch PCGames kritisieren ein DX11 Titel hier ohne klare Einordnung mit auf zu nehmen.
 
  • Gefällt mir
Reaktionen: bullit1, Wintermute, SDJ und 3 andere
Wer jetzt noch was neues unter 16GB kauft um damit länger auf Ultra zocken zu wollen dem ist nicht mehr zu helfen.

Aber NV fanboys werden sich das schon irgendwie schön reden
 
  • Gefällt mir
Reaktionen: C0rteX, JackTheRippchen, fox40phil und 2 andere
Mimir schrieb:
Ui, das scheint ja tatsächlich hinzukommen (rechts ist die Belegung, links die Speicherausstattung):
Anhang anzeigen 1350886

Prozentual und absolut hat die 4070ti in dem Spiel sogar noch mehr Speicher frei als die 6950XT.
Hatte das erst gar nicht gesehen.

Das ist ja interessant...

Ja, wie gesagt, die Speicherausstattung ist einfach nicht vergleichbar. Eigentlich ist sie sowohl bei AMD als auch Nvidia zu knapp (ausgenommen High End)
Oder was logischer ist: das Spiel / der der Treiber verwendet mehr Speicher, schlicht weil mehr da ist. Leerer Speicher bringt nichts, dann lieber mehr Zwischenspeichern.
 
  • Gefällt mir
Reaktionen: Scheinriese und L'amer
Geil wäre, wenn man mit einen der vorhandenen PCI Slots, einfach den VRAM nachrüsten könnte, anstatt direkt ne neue Graka zu kaufen.
Hab selbst ne 3070 vor 1 Jahr gekauft und finde es echt schade, wenn die jetzt schon veraltet wäre...
 
Wenn AMD bei VR und RayTracing nicht so abstinken würde, würde ich auch sofort das Lager wechseln. Die Arroganz von Nvidia in Kombination mit dem VRAM Geiz geht mir schon seit geraumer Zeit auf den S.....
 
  • Gefällt mir
Reaktionen: Redundanz und Wintermute
Demnächst kriegt man bei Nvidiakarten einen Lötkolben mit dazu :)
 
  • Gefällt mir
Reaktionen: Redundanz, NoNameNoHonor, C0rteX und eine weitere Person
zum Glück gibt es ja noch AMD, die nicht so sehr am VRAM geizen. Zumal die Speicherpreise im Moment echt super günstig sind.
 
  • Gefällt mir
Reaktionen: Redundanz, cele und C0rteX
cruse schrieb:
warte auf die nächste gen. September/Oktober vermutlich. Da werde ich wahrscheinlich auch wieder aufrüsten, mal sehen..

Rechne da nochmal ein Jahr drauf, dieses Jahr kommt da nichts mehr Neues. Der Zyklus ist schon länger bei 2 Jahren pro Gen.
 
Frage mich, warum man nicht eine Alternative schafft, sprich, einen Aufpreis auf Varianten mit mehr Speicher und jeder kann dann selbst entscheiden, wie Zukunftssicher er mit dem Kauf einer GPU sein will. Beispiel: 4070TI 12GB oder 4070 24GB mit +50€ Aufpreis, dann 4060 mit 8GB oder 16GB mit 40€ Aufpreis usw..
 
  • Gefällt mir
Reaktionen: cele
Das Problem sind ja nicht mal die Min FPS sondern oft Bildfehler die aber erst auftreten wenn das Spiel etwas länger läuft.
Die 3070 würde mir nach wie vor ausreichen aber die 8Gb sind halt einfach zu wenig. In Benchmarks fällt dann nicht auf, dass ne 3070 selbst für Forza Horizon 5 @ FHD @ Max zu wenig ist.
Die seltene 3080 mit 12 GB war ne super Karte.
 
  • Gefällt mir
Reaktionen: bullit1
Zurück
Oben