Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 3070 16 GB: Modder verdoppelt den Grafikspeicher für mehr FPS
- Ersteller Vitche
- Erstellt am
- Zur News: GeForce RTX 3070 16 GB: Modder verdoppelt den Grafikspeicher für mehr FPS
Fallout667
Lieutenant
- Registriert
- Feb. 2021
- Beiträge
- 1.014
Ich hatte sie etwas billiger bekommen. War auf so ne Art Computerflohmarkt in einer großen Halle. Hatte die Karte gekauft und für 80 DM hat der Verkäufer mir die 2MB extra noch angeboten.bronks schrieb:Anfang 1996 waren es etwa DM 200 bis 300. Zu der Zeit war das viel Geld. Im Schnellimbiß durfte man dafür knapp 20 Stunden arbeiten.
Hab schon gedacht ich hab ein Deja-vu....
https://www.computerbase.de/news/grafikkarten/nvidia-geforce-rtx-3070-16-gb-gddr6.75768/
https://www.computerbase.de/news/grafikkarten/nvidia-geforce-rtx-3070-16-gb-gddr6.75768/
Intruder
Captain
- Registriert
- Juni 2011
- Beiträge
- 3.408
ach was war das damals noch mit Vesa Local Bus GPUs schön wo der Grafikspeicher noch gesteckt war und man einfach Speicher dazu stecken konnte.
Da war ich durch Zufall drauf gekommen als ich ein Mainboard wegwerfen wollte und mir die Speicherbausteine aufgefallen waren die so ähnlich aussahen wie die auf meiner Grafikkarte. Also hatte ich die mal verglichen und es standen die selben Infos drauf...
vom Board runter - auf die GPU drauf und mal eben den Grafikspeicher (wenn ich mich nun nicht vertue) von 1MB RAM auf 2MB RAM verdoppelt.
Ich wusste überhaupt nicht, was man überhaupt mit so viel RAM anstellen hätte können aber es lief, er wurde erkannt... und ich war der Held weil niemand in meinem Freundeskreis so viel GPU RAM hatte.
Nur schneller, besser wurde dadurch auch nichts 🤨
tja heute ist nicht mehr so einfach mit austauschen aber wie man sieht - wie es auch schon ein Russe damals machte, kein Ding der Unmöglichkeit wenn man das Richtige Werkzeug hat und weiß was man macht.
Das bedeutet aber nicht, das mit weniger RAM die Spiele nicht liefen
Da war ich durch Zufall drauf gekommen als ich ein Mainboard wegwerfen wollte und mir die Speicherbausteine aufgefallen waren die so ähnlich aussahen wie die auf meiner Grafikkarte. Also hatte ich die mal verglichen und es standen die selben Infos drauf...
vom Board runter - auf die GPU drauf und mal eben den Grafikspeicher (wenn ich mich nun nicht vertue) von 1MB RAM auf 2MB RAM verdoppelt.
Ich wusste überhaupt nicht, was man überhaupt mit so viel RAM anstellen hätte können aber es lief, er wurde erkannt... und ich war der Held weil niemand in meinem Freundeskreis so viel GPU RAM hatte.
Nur schneller, besser wurde dadurch auch nichts 🤨
tja heute ist nicht mehr so einfach mit austauschen aber wie man sieht - wie es auch schon ein Russe damals machte, kein Ding der Unmöglichkeit wenn man das Richtige Werkzeug hat und weiß was man macht.
Ergänzung ()
was aber nicht bedeutet das sich das Spiel auch mehr Speicher reserviert und belegt, wenn dieser auch verfügbar ist. Sniper Elite 5 und Diablo 4 Beta haben sich gerne mal 22GB untern Nagel gerissen nur weil er da war.Chilisidian schrieb:Stand jetzt genehmigt sich kein Spiel mehr als 16GB und das ist auch nicht absehbar.
Das bedeutet aber nicht, das mit weniger RAM die Spiele nicht liefen
Zuletzt bearbeitet:
- Registriert
- Mai 2008
- Beiträge
- 5.557
Weil Nvidia damit viel weniger Geld verdienen würde, als wenn die Leute mit jeder neuen Gen aufrüsten.leonM schrieb:Frage mich, warum man nicht eine Alternative schafft, sprich, einen Aufpreis auf Varianten mit mehr Speicher und jeder kann dann selbst entscheiden, wie Zukunftssicher er mit dem Kauf einer GPU sein will. Beispiel: 4070TI 12GB oder 4070 24GB mit +50€ Aufpreis, dann 4060 mit 8GB oder 16GB mit 40€ Aufpreis usw..
War Anfang-Mitte der 90er voll normal. Auf die Matrox Millenium I und II, die Matrox Mystique wurden Huckepackplatinen mit 2, 4 oder 8 MB WRAM aufgesteckt. Bei so ziemlich allen Tseng Labs ET4000 konnten RAMs in Steckwannen nachgerüstet werden. Teils auch zum nachträglichen auflöten.Skudrinka schrieb:Wird Zeit für aufsteckbare Module..
Bei einer meiner ersten Grafikkarte - ATI Graphics Xpression konnte auch RAM in Steckwannen nachgerüstet werden. Grafikkarte mit 512KB RAM = 500 DM. 2x 256 KB RAM zum nachrüsten = nochmal 500 DM.
Die Millenium I mit 2MB RAM WRAM kam "nur" 1000 DM. Was hatte ich mich damals geärgert. Von Matrox hatten mir die "Experten" im Märchenmarkt nichts erzählt.
Millennial_24K
Lt. Commander
- Registriert
- Dez. 2021
- Beiträge
- 1.405
Zu geringe Aufmerksamkeitsspanne? Dann lese dir meinen Kommentar bitte noch ein zweites Mal durch. Und diesmal richtig... (im Deutschunterricht würde die Lehrerin oder der Lehrer sagen, du hast einen inhaltlichen Fehler gemacht)pitu schrieb:Dafür kann aber NVIDIA nix
Qualität vor Quantität 🥰
Caramelito
Admiral
- Registriert
- Juni 2016
- Beiträge
- 8.942
Sorry - Aber - Selbst schuld.electronish schrieb:Und die 8 GB sind schuld, das ich nach einem Jahr von meiner 3070Ti bereits umsteigen muss. Danke Nvidia. Ich wechsel in dem Atemzug auch gleich das Lager.
Leistung der 2080ti mit -3GB Vram in der neuen Gen war einfach daneben.
Und wenn nicht grad zur UVP, zu Wucher-Preisen.
Millennial_24K
Lt. Commander
- Registriert
- Dez. 2021
- Beiträge
- 1.405
Es war zu der Zeit auch eine gute Oberklasse-Grafikkarte und die 8GB sind für die Leistung ausreichend dimensioniert.Painkiller72 schrieb:Die Entscheidung mit der 2070 Super war damals goldrichtig
Intruder
Captain
- Registriert
- Juni 2011
- Beiträge
- 3.408
Matrox war damals (vor 3D Zeiten) echt eine Hausnummer gewesen. Vor allem in Kombination mit den Voodoo 3DFX Karten bei uns eine beliebte Kombination.UweW. schrieb:Matrox Millenium I und II, die Matrox Mystique
Die letzte "3D Karte" von Matrox wurde glaube 2002 vorgestellt und ein besonderes Feature war damals "Surround Gaming"
was dann von anderen Herstellern später übernommen wurde und viele von euch sicherlich heute nutzen. Natürlich nicht mit Röhren-Bildschirmen 😂
Habe dieses Setup gezielt gewählt damit man sich mal ein Bild davon machen konnte wie es dann früher auf dem Tisch ausgesehen hat.
Leider ist dann Matrox im Consumer Bereich irgendwann vom Markt verschwunden. Sie haben sich zu lange an ihrer Überlegenen 2D Leistung festgeklammert und schlichtweg 3D vernachlässigt und konnten dann nicht mehr aufholen.
Wenn mich nicht alles irrt, gibts auch noch heute Matrox Grafikkarten allerdings eher im Enterprise Sektor.
Gab so viele gute Hersteller...
S3 Grafics hatte eigentlich auch tolle Karten aber viele Probleme mit Treiber. War dann auch weg vom Fenster.
Geblieben sind nur ATI (nun AMD), Nvidia und nun Intel.
Und wo ist das Mining bei der 4070TI?syfsyn schrieb:Zur Meldung
Daran kann man sehen das die ampere chips ursprünglich anders geplant waren und nur durch mining und chipkrise keine 16gb modellen gekommen sind.
Dann machen auch die rtx3060 12gb auch Sinn wenn dazu rtx3070 16gb und rtx3080 20gb gekommen wären
Das es anders kam lag wie betont maßgeblich an mining.
Millennial_24K
Lt. Commander
- Registriert
- Dez. 2021
- Beiträge
- 1.405
Ich hatte beim Artikel zu CP2077 mit Pathtracing einige weniger sinnvolle Unterhaltungen mit Pro-Nvidia-Leuten und zugleich RTX-4090-Besitzern. Ich frage mich daher, ob meine Freunde @Taxxor, @Grestorn, @Mimir und Co. hier ebenfalls ein Plädoyer für Nvidias Raytracingkurs abhalten und wie sie es denn bitte mit Objektivität anstellen wollen. Oder aber ihnen ist bewusst, dass sie in diesem Fall komplett auf verlorenen Posten kämpfen würden. Die einzigen technisch stimmigen RTX-Grafikkarten für Gamer seit 2020 sind die: 3050, 3060, 4080 und 4090. Fairer halber hier noch das gleiche mit AMDs RX-Grafikkarten: 6600, 6600/6650 XT, 6700/6750 XT, 6800, 6800 XT, 6900/6950 XT, 7900 XT, 7900 XTX. Also irgendwie scheint hier Nvidia etwas Gehöriges falsch zu machen.
Zuletzt bearbeitet:
- Registriert
- Mai 2011
- Beiträge
- 21.246
Was soll man dazu schon sagen? 8GB sind zu wenig für RT >1080p und es hat auch niemand was anderes behauptet.TigerherzLXXXVI schrieb:Ich frage mich daher, ob meine Freunde @Taxxor, @Grestorn, @Mimir und Co. hier ebenfalls ein Plädoyer für Nvidias Raytracingkurs abhalten und wie sie es denn bitte mit Objektivität anstellen wollen
Mit der Pathtracing Unterhaltung hat das auch überhaupt nichts zu tun, zumindest habe ich dort nie über den Speicher geredet.
Zuletzt bearbeitet:
NerdmitHerz
Commodore
- Registriert
- Apr. 2009
- Beiträge
- 4.576
Crifty schrieb:Unreal Engine 5.X jetzt die Marschrute für ganz viele neue Spiele vorgibt. Wir reden aber nicht davon das man sagt der verbrauch unter FullHD steigt von 8GB auf 9 oder 10, nein der Verbrauch steigt auf 12-13GB VRAM...BEI FULLHD. Das ist auch der Grund warum die 4070 auf einmal so verhalten vom Markt aufgenommen worden ist.
genau, dass ist mein derzeitiges problem wenn ich überlege ob ich mir echt ne 4070 in den pc setzen mag oder nicht.
ich überlege gerade ob ich auf eine 4070 wandere, meine rx 6900xt hatte die lange umbauzeit nicht überlebt, oder gleich auf eine 4080 gehe. gerade weil ich nur FHD spiele und ich jedoch nicht begrenzt sein will beim vram wenn spiele dann mehr als 12 GB VRAM haben will, wenn ich diese auf sehr hohen settings spielen mag.
dank 5800x3d + ddr4-3600cl14 ram sollte mich da nur die GPU begrenzen. mehrere lang spielte ich mit einem 595x + 2080 in FHD ohne probleme mit dem VRAM von 8GB, doch das system ist nur noch zum rendern da.
Klever
Lt. Commander
- Registriert
- Dez. 2020
- Beiträge
- 1.393
XBOX ftw schrieb:Das andere ist DLSS.
Wenn Hardware von vornherein auf DLSS angewiesen ist um ein spielbares Spielerlebnis zu erzeugen, kann NVidia mit der Einführung eines "neueren" DLSS die alte Karte für neue Spiele auf einen Schlag unbrauchbar machen.
Das DLSS geplante Obsoleszenz ist stimmt aber gar nicht. DLSS 3 ist nichts anderes als FG wo dann DLSS 2, welches weiterhin für DLSS-fähige GPUs entwickelt und supported wird, dazu kommt. DLSS 3 ist nichts anderes als marketing Name für Frame Generation. DLSS 2 wird weiterhin von mehr und mehr Spielen dabei supported.
Und nur weil es jetzt FG gibt, ist Turing und Ampere alles andere als "unbrauchbar". Man kann da auch maßlos übertreiben.
HiveTyrant
Lt. Junior Grade
- Registriert
- Nov. 2018
- Beiträge
- 451
Bei ‚Nvidia zieht nur 10 GB VRAM, AMD zieht 14‘ steht auch noch die Frage, mit oder ohne ‚Making Sh.. up‘ (DLSS/FSR)? Nvidia hat da deutlich mehr was dazugedichtet wird, daher wird auch weniger Speicher gefressen. AMD nutzt ein deutlich näher an der eigentlichen Auflösung befindliches Bild, braucht daher auch mehr Speicher.
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.192
Also in CP2077 PT/RT liegt sie gut 50% vor einer 7900XTX. Soviel dazu.Dai6oro schrieb:Also stinkt deine 3080 in RT auch ab. Alles klar.
Aber ja. Hält "fast" mit. Wenn 50% weniger noch als "mithalten" bezeichnet werden können.🤔
Die 2070 Super hat die Performance einer 2080.TigerherzLXXXVI schrieb:Es war zu der Zeit auch eine gute Oberklasse-Grafikkarte und die 8GB sind für die Leistung ausreichend dimensioniert.
Die 2080 wurde hier im Forum durchgängig für die 8GB RAM kritisiert.
Bereits 1080ti mit der gleichen Leistung hatte 11GB
tensai_zoo
Lieutenant
- Registriert
- Dez. 2016
- Beiträge
- 723
Was ich so von Entwicklern gehört habe, hätten die gerne bis zu 32GB VRAM für die UE5.Crifty schrieb:das z.B die Unreal Engine 5.X jetzt die Marschrute für ganz viele neue Spiele vorgibt. Wir reden aber nicht davon das man sagt der verbrauch unter FullHD steigt von 8GB auf 9 oder 10, nein der Verbrauch steigt auf 12-13GB VRAM...BEI FULLHD.
Ähnliche Themen
- Antworten
- 122
- Aufrufe
- 26.237
- Antworten
- 464
- Aufrufe
- 83.994