News GeForce RTX 3070 16 GB: Modder verdoppelt den Grafikspeicher für mehr FPS

fox40phil schrieb:
War Dir das damals nicht direkt klar?^^ wurde doch auch überall gesagt.

Ja... die typische geplante Obsoleszenz von NV („Nein zu VRAM“ oder „Nicht viel VRAM“ - 😂)
Leider wird ebenso "überall" gesagt, was auch immer NV einbaut reicht.

Wenn man da nicht im Thema ist, kann man schon auf so Markenopfer reinfallen.
 
  • Gefällt mir
Reaktionen: C0rteX und fox40phil
Könnte der knausrige Speicher der Grund sein warum Nvidia rBar nur Stiefmütterlich behandelt? Soweit ich weiß nur in ein paar handvoll Spielen und da auch nicht wirklich gut. Da SAM/rBar den VRAM nutzt kann ich mir schon vorstellen, dass das ein Problem darstellt.

So oder so. Es ist imo langsam peinlich Nvidia für ihr Verhalten immer und immer wieder zu verteidigen. der MOD zeigt doch ganz klar wie gut die 3070 hätte sein können. Gut wenn sie so gekommen wäre hätten sie eine 4070 in dieser Form nicht bringen können, die hätte keiner gekauft. Nun gibt es wenigstens einen selbst verursachten Kaufanreiz... Ne bin mit Nvidia erstmal durch.

PS: Wen erinnert das alles noch an die GTX780ti die mal von EVGA mit 6GB angekündigt wurde bevor das von Nvidia kassiert wurde?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JackTheRippchen, C0rteX und Millennial_24K
snipe1337 schrieb:
Der Link zum Video, falls es erlaubt ist ;)
Und dieses Ergebnis widerlegt jetzt, dass die RTX 3060 Ti, 3070 (Ti), 3080 FE und RTX 4070 Ti nachweislich zu wenig VRAM besitzen für moderne Spiele? Ich denke nicht. Aber ihr Nvidia-Edelfans wäret schließlich keine, wenn man objektive Fakten mit fragwürdigen Argumenten wegdiskutieren möchte.

Fragwürdige Argumente sind:
1. Nvidia hat eine bessere Speicherverwaltung als AMD... (das macht den Braten auch nicht mehr fett)
2. Mit DLSS kann man den Speicherverbrauch in Spielen reduzieren... (ist nicht Sinn und Zweck der Sache)
3. Moderne Spiele gehen viel zu verschwenderisch mit VRAM um... (das ist eine völlig normale Entwicklung in der Gamingbranche)
4. Grafikkarten von Nvidia haben viel mehr Features als bei AMD... (der letzte Strohhalm)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C0rteX
Das ist halt einfach Nvidias taktik Grafikkarten zu verkaufen.
VRAM so knapp auslegen, dass das für 1,5 Jahre gerade so reicht, bei der nächsten Generation dann wieder das selbe.
Und mit ihren ganzen proprietären Software Features die Leute an der Stange halten, "weil ohne DLSS und RTX will ich nicht, auch wenn ichs nur mal zum testen anmach. Außerdem mein G-Sync Monitor"
 
  • Gefällt mir
Reaktionen: bullit1, up.whatever und C0rteX
electronish schrieb:
Und die 8 GB sind schuld, das ich nach einem Jahr von meiner 3070Ti bereits umsteigen muss. Danke Nvidia. Ich wechsel in dem Atemzug auch gleich das Lager.
Verstehe und stimme zu.
Meine RTX 3080 hatte zwar 10GB, trotzdem hatte ich sie gegen eine RX 6800 XT ausgetauscht und bin froh das getan zu haben :-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bullit1, Millennial_24K und C0rteX
DanyelK schrieb:
Wenn AMD bei VR und RayTracing nicht so abstinken würde, würde ich auch sofort das Lager wechseln. Die Arroganz von Nvidia in Kombination mit dem VRAM Geiz geht mir schon seit geraumer Zeit auf den S.....

10-15 Prozent langsamer in relaventen und praxisnahen Raytracing definiere ich nicht als abstinken. Vor 6 Monaten wurde die Raytracingleistung einer 3090 noch gefeiert. Jetzt hat die 7900 XTX die Leistung und es wird als abstinken bezeichnet. Diese Wortwahl. 😂

VR hat gerade keine Priorität bei AMD, weil immernoch Nische. Das nützt dir jetzt nichts, aber gefixt wird das sicher noch. Die beschäftigen sich mit dem Hardwarebug der 7900er, der bei den 7800er und darunter direkt gefixt werden soll.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: bullit1, SDJ, JackTheRippchen und 2 andere
Ich will auch mal meine 50 Cent zu dem Thema geben.

Erstmal cooler move mit den 16GB und man sieht einfach die Karte „könnte“ mehr.

Ich bin beileibe kein Nvidia Fanboy, auch wenn ich in meinem Leben bisher erst eine AMD Karte hatte und zwar eine 9700er. Die ich aber sehr geliebt habe!!!!

Was ich beiden Herstellern zugute halten muss, jeder bringt gewisse Dinge in den Markt bei Nvidia sind es zumeist neue Features. Bei AMD wird oft die Hardware verändert und sie sind auch „häufig“ mutiger bei neuen Wegen.

Beide Hersteller haben da so ihren eigenen Weg gefunden aber wenn auch nur mittelmäßig bisher, versucht AMD Features zu integrieren siehe RTX oder DLSS und da macht Nvidia einfach nicht mit. Deren Karten haben seit der 1070er 8GB und fertig. Und sie müssen auch nicht so mitgehen wie AMD es muss.

Nvidia ruht sich nicht so aus wie Intel aber ein wenig tun sie das schon. Und machen genau das was alle heutzutage machen und zwar Upselling und versuchen ihre Marge durch extreme Produkte zu vergrößern. Die Mittelschicht verliert an Bedeutung sieht man ja auch an vielen Automobilherstellern, die A-Klasse wird eingestellt. Man konzentriere sich mehr auf das Premium Segment da lässt sich Geld verdienen.

Und man setzt ja direkt Features als Hebel ein und alle hier im Forum sind sich einig das die 4090 das bisher rundeste Produkt ist dieses Jahr. Aber es ist halt leider nicht für jeden erschwinglich. Alles was danach kam hatte immer den Bekannten „Pferdefuß“ aber halt einen der schon extremer war als die Jahre davor.

Für mich ist Gaming keine Nische mehr, es ist viel mehr in der breiten Masse angekommen. Weil immer viele sagen Grafikkarten fürs Gaming machen in den Umsätzen nicht viel aus. Tun sie schon!

Ja, Hardware war tendenziell noch nie so günstig wie heutzutage aber der Trend kehrt sich gerade signifikant um. Bis es richtig spürbar wird, wird es noch dauern aber der Tag wird kommen. Konsole oder PC?

So das war’s von meiner Seite.
 
  • Gefällt mir
Reaktionen: ThirdLife, C0rteX und Grantelb4rt
Skudrinka schrieb:
Wird Zeit für aufsteckbare Module..
Hatte ich 1996 schon bei meiner ELSA Victory 3D, da konnte man 2 MB zusätzlich auf die Karte stecken für paar DM extra.

s-l1600.jpg
 
  • Gefällt mir
Reaktionen: cele, ThirdLife und Intruder
@Nick.Bo

PC Gaming ist Nische und wird es immer mehr genau wegen solchen Moves. Konsolen geben den Ton an. Als Entwicklerplatform ist der PC ja schon lange abgemeldet.

Selbst Nvidia fokussiert sich immer mehr auf HPC und Rechenzentren sowie Profikarten für KI. Gaming läuft bei denen auch nur noch nebenher.
 
Noerd schrieb:
Manchmal kann man es sich nicht aussuchen. Meine alte 980ti ging hops und ich braucht eine neue Graka. Zu diesem Zeitpunkt war die 3070ti die einzige Graka, die ich bei einem Drop ohne drölfzig Bots zu Nutzen für 649€ ergattern konnte. Eigentlich wollte ich eine 6800XT :D aber nicht für 900€+
Rückblickend wäre die 6800XT trotz des überzogenen Preis die langlebiger und damit günstigere Wahl gewesen.

No offense.

Die Geschichte mit den 8GB auf der 3070 sollte uns bewusst machen das fancy Software Features wie DLSS zwar nett sind, aber die Kaufentscheidungen doch besser anhand der Hardware gemacht werden sollten.

->Als die 6800er Karten auf den Markt kamen wirkten diese Teile etwas langweilig weil halt kein DLSS und nvenc auf AMD läuft.

-> Rückblickend wissen wir nun das langweiliges VRAM das Killer Feature für Grafikkarten ist.


Wer hätte das gedacht, liebe Nvidia Fanboys...

Wie sehr habt ihr mir das Ohr abgekaut weil AMD angeblich unbenutzbar ist weil es kein Nvenc und DLSS damit gibt.

Und nun ist die 3070 bereits nach zwei Jahren obsolet...
 
  • Gefällt mir
Reaktionen: bullit1, cele, Millennial_24K und 2 andere
pacifico schrieb:
Und nun ist die 3070 bereits nach zwei Jahren obsolet...
Das nächste peinliche Produkt steht ja bereits vor der Tür in Form der 4060ti.
 
  • Gefällt mir
Reaktionen: C0rteX und JackTheRippchen
Nick.Bo schrieb:
(...)

Für mich ist Gaming keine Nische mehr, es ist viel mehr in der breiten Masse angekommen. Weil immer viele sagen Grafikkarten fürs Gaming machen in den Umsätzen nicht viel aus. Tun sie schon!
(...)
Gaming ist aber nunmal nicht gleich PC-Gaming.
Zocken mag massentauglich geworden sein, Gaming-PCs stagnieren aber seit Jahren.

Entscheidend ist aber ein anderer Punkt:
Grafikkarten machen grundlegend für Grafikkartenhersteller einen Grossteil ihres Umsatzes aus. Soweit so logisch.

Allerdings gibt es keine Grafikkartenhersteller mehr. AMD macht CPUs, APUs, SoC's und Server Hardware.
NV macht KI Beschleunigung und Software.
Intel ist nie nur Grafikkartenhersteller gewesen.
Die Umsätze steigen also vielleicht bei Grafikkarten, aber nicht wie im Server Bereich oder den anderen Märkten. Insofern werden die Grafikkarten für den Zocker immer irrelevanter.
 
  • Gefällt mir
Reaktionen: Dai6oro
CB.R schrieb:
1) Hier bitte: Screenshot aus dem laufenden Spiel.

2) Übung macht den Meister. Einfach mal ins Grafikmenü schauen.;)


PS: Das Spiel hat sogar Unter Optionen/ HUD/ Leistung - ein eingebautes Leistungstool, das darf man unentgeldlich mitbenutzen.

Anhang anzeigen 1350908
Ich weiß nicht welche Version Du nutzt, aber in der neusten hast Du keine Cgance auf so viel VRamverbrauch in 1080p/FSR.

Deine 12.3GB erreiche ich auch...allerdings ist die Auflösung ein klein wenig höhe ;)r. Mal ein kleines Level getestet bis zum neuen im Krankenhaus. Die BIlder sind halt stark komprimiert, da orginal teilweise 24GB groß.
1.jpg2.jpg3.jpg4.jpg5.jpg6.jpg7.jpg8.jpg

Da es hier auch um den mickrigen VRam von Nvidia geht.....wenn ich deinen Screenshot sehe, kann man mit einer 8GB Nvidia Karte doch zufrieden sein

4.png5.png6.png7.png8.png9.png10.png11.png

So viel zu
2) Übung macht den Meister. Einfach mal ins Grafikmenü schauen.;)

Edit
Screenshot 2023-04-26 070931.png


...nö keinen Stunk...nur um Labertaschen wie dich zu entlarven.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha und ThirdLife
Boimler schrieb:
Steht doch - zumindest für Resident Evil - im Artikel, dass 11GB VRAM belegt wurden.
Kann ich so bestätigen. Resident Evil 2 Remake als auch Village sind beide einfach auf 11,5GB zu bekommen. Wenn ich die Qualität dann noch weiter hochsetze bin ich locker über die 12 drüber.
Interessanterweise bekomme ich ab 12 dann auch eine Warnmeldung, dass ein flüssiges Bild nicht mehr gewährleistet ist, obwohl ich 16GB hab.
Vielleicht für den 08/15 Anwender?
 
Wäre sicher nicht undenkbar , dass Asus wieder eine spezielle "Mars" Edition mit doppelten Speicher bringen würde, wo auch die Spannungsversorgung und PCB entsprechend angepasst wird.
Allerdings schätze ich mal, dass Nvidia das den Boardpartner verbietet.
Interessant auf jeden Fall, aber trotzdem nichts was mich beunruhigt. 1x Texturen runter und die sehen heute in aktuellen Games noch immer gut aus.
Vorallem wäre auch interessant, was dieser Umbau an Aufwandskosten verursacht.
Ist das irgendwo ersichtlich?
Ergänzung ()

pacifico schrieb:
Rückblickend wäre die 6800XT trotz des überzogenen Preis die langlebiger und damit günstigere Wahl gewesen.
Währenddessen der 3070 Nutzer absolut zufrieden und kauft sich nun sowiso wieder eine neue 4070 mit 12gb die wieder die nächsten 2-3 Jahre ausreicht bis die 5070 rauskommt mit 16GB.
Aktuell überschwemmen die 3070er Karten geradezu den Gebrauchtmarkt und in 1 Monat dürften die locker unter 350€ angekommen sein, da anscheinend wirklich alle 3070 User gefühlt wieder zur nächsten Gen wechseln .
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife und pacifico
C0rteX schrieb:
10-15 Prozent langsamer in relaventen und praxisnahen Raytracing definiere ich nicht als abstinken. Vor 6 Monaten wurde die Raytracingleistung einer 3090 noch gefeiert. Jetzt hat die 7900 XTX die Leistung und es wird als abstinken bezeichnet. Diese Wortwahl. 😂

VR hat gerade keine Priorität bei AMD, weil immernoch Nische. Das nützt dir jetzt nichts, aber gefixt wird das sicher noch. Die beschäftigen sich mit dem Hardwarebug der 7900er, der bei den 7800er und darunter direkt gefixt werden soll.
Vor 6 Monaten ist vor 6 Monate. Wenn ich 1K++ für neue neue Graka ausgebe, erwarte ich die RT Leistung einer 4080 (-10% wären noch tolerabel). VR ist für mich schon wichtig, weil ich genau für diesen Anwendungszweck hohe Rohleistung benötige. Somit bietet mir AMD im Moment leider kein konkurrenzfähiges Produkt. Ich warte aber eh noch auf Ende 24 und die nächste Generation und haushalte bis dahin mit meiner 3080...
 
Also stinkt deine 3080 in RT auch ab. Alles klar.
 
electronish schrieb:
Und die 8 GB sind schuld, das ich nach einem Jahr von meiner 3070Ti bereits umsteigen muss. Danke Nvidia. Ich wechsel in dem Atemzug auch gleich das Lager.
Als ich mir im Mai 2020 die 8GB Gigabyte GeForce RTX 2070 SUPER Gaming OC 3X White zugelegt habe, war ich noch sehr gefrustet bezuglich der AMD Radeon Vega 56 und der AMD Radeon RX 5700XT da diese beiden Karten bei mir einfach nicht richtig funktionieren wollten.

Die Entscheidung mit der 2070 Super war damals goldrichtig, jedoch habe ich schon damals die Befürchtung gehabt, das die 8GB VRAM die Karte in WQHD in absehbarer Zeit an ihre Grenzen treiben könnte und leider scheint das immer schneller zu gehen. Ich konnte alles für zwei Jahre in WQHD ohne Probleme mit hohen bis ultra hohen Settings zocken, habe aber damals schon gedacht das es besser gewesen wäre, auf eine RDNA 2 Karte zu gehen (mittlerweile werkelt eine RX 6800 im Rechner)

Leider musste ich durch den Mining Boom sehr lange darauf verzichten, jedoch habe ich es auch diesmal nicht bereut erst im Sommer 2022 auf die RX6800 zu gehen.Für WQHD bin ich hier auf jeden Fall noch eine Zeit lang auf der sicheren Seite.

Der Grund warum ich nicht weiter bei einer Nvidia Karte geblieben bin, war eben der fehlende Speicher der RTX 3070. Hier hat sich Nvidia einfach falsch entschieden was den VRAM angeht und mit der RTX 4xxxer Serie finde ich jedenfalls ist es nicht unbedingt besser geworden.

Zum eigentlichen Thema: Klasse Modding wie ich finde und es zeigt, wieviel Potenzial Nvidia durch die fehlenden 8 GB VRAM bei der RTX 3070 hier verschwendet hat.

Ich glaube aber auch, das zum Marktstart die 2GB Chips GDDR6 noch sehr teuer waren und sich Nvidia aufgrund von Einsparungen bei der Produktion eben für die 1GB Chips entschieden hat. Von meiner Logik her hatte die RTX 3070 eine noch deutlichere Steigerung zur 2070 Super sein müssen und da hätten 16GB VRAM eben sehr nice ausgesehen.

Wobei ich auch immer wieder festellen muss, das es eine Sache der programmiertechnischen Optimierung ist, wie gut ein Game mit dem Grafikspeicher harmoniert.
 
  • Gefällt mir
Reaktionen: Millennial_24K
Fallout667 schrieb:
Hatte ich 1996 schon bei meiner ELSA Victory 3D, da konnte man 2 MB zusätzlich auf die Karte stecken für paar DM extra.
Anfang 1996 waren es etwa DM 200 bis 300. Zu der Zeit war das viel Geld. Im Schnellimbiß durfte man dafür knapp 20 Stunden arbeiten.
 
  • Gefällt mir
Reaktionen: pacifico
Zurück
Oben