News Kritik zu groß?: Nvidia soll die RTX 4060 Ti nun doch auch mit 16 GB bringen

Also wen wundert das jetzt bitte noch?!

Ist doch schon das komplette RTX30 Lineup Quatsch gewesen, was NV VRAM-technisch abgezogen hat.

Und etliche Reviews beweisen, dass langsamere Karten (RTX3060 12GB) dann plötzlich schneller in gewissen Situationen sind als ihre größeren Brüder (RTX3060ti/3070 8GB).
Und mit der RTX40 Gen gehts grad so weiter...

Und für die vermeintlich schnelleren Karten zahlt man dann auch noch viel mehr Geld. Toll gemacht, NV. Nicht.

Aber solange die Kunden kaufen und erst danach Jammern, wird sich auch nichts ändern.

Wie gesagt, AMD schaffts auch sinnvolle VRAM Abgrenzungen zu basteln (RX6600 8GB, RX6700(XT) 10GB+12GB, RX68/6900(XT) 16GB. Seiner jeweiligen Leistungsklassen entsprechend. Ist doch so alles wunderbar.
 
  • Gefällt mir
Reaktionen: C0rteX
Stacked GDDR kommt bald mit 16GB statt 2GB pro Chip.
Dann gibt es GDDR7 mit 36Gbps und 128Bit mit 64GB
 
TriceO schrieb:
Gab bei Techspot nen aktuellen VRAM-Dilemma Test mit einer 8GB 3070 und einer 16GB 6800. Zwei eigentlich grob gleichwertige Karten.
Spannend zu lesen. Aber wäre eine 6800 nicht der Gegenpart zu einer 3080 und eine 6800 XT zur 3080 Ti, genauso wie eine 6900XT zur 3090 Ti steht ?

AMD kämpft hier immer mit einer GPU Klasse höher gegen die eins tieferen Geforces. Mit einer 6750 wäre evtl. der Chip schon das Limit bevor VRAM überhaupt eine Rolle spielt und das Duell eher auf Augenhöhe.
 
AI94 schrieb:
Für die RTX 4070 (TI) Käufer ein Schlag ins Gesicht. Die Karte wird mit 16 GB VRAM deutlich besser altern im Gegensatz zu den 70er Karten.
AMD wird in dieser Leistungsklasse reagieren müssen.
AMD müssten bei der RX7600 nun reagieren, das stimmt.

ABER NV müsste bis auf die RTX4090 im gesamten Lineup reagieren! ;)
Tun sie aber nicht, da eh (fast) jeder zu NV greift...alle Unwissenden und sogar - was noch schlimmer ist - die Wissenden ;)
 
Enotsa schrieb:
Wow toller Hecht, liegt wohl daran das du Ende 22, kein 23er Game mit dieser Problematik zocken konntest. 🤦‍♂️
Stimmt, da gabs ja keine geil aussehenden Spiele. Die kamen ALLE erst 2023. Egal ob MSFS oder CP2077 oder Days Gone oder Last of Us oder Spiderman Remastered oder COD MW2 oder Horizon Zero Dawn oder Dying Light 2 oder oder oder.

Alles erst 2023 raus. Oh wait... :freak:
 
  • Gefällt mir
Reaktionen: Kay B. und Intruder
Simanova schrieb:
128bit Bus bleibt? Na da bin ich ja mal gespannt.
Also echt ich verstehe diese Bauernfängerei nicht mehr. Warum nicht einfach eine RTX 4060 mit 192bit Speicherinterface und 12 GB VRAM und eine RTX 4060ti mit 256bit und 16 GB VRAM ? Nvidia tut sich selber keinen Gefallen damit
R O G E R schrieb:
16GB mit 128Bit Bus. Läuft bei Nvidia.
Ja das macht richtig Sinn 🤯🤯😱😱

Nvidia hätte in der Hinsicht schon während des RTX 3xxx Abverkaufes mal seine Geschäftsmodelle überdenken müssen.

Wer vor allem kauft denn dann noch die RTX 4060ti mit 8 Gig ???
 
motorazrv3 schrieb:
Da hast du es doch genannt. Mit Abstriche, nur wer will das schon. Vor allem dann, wenn es am VRAM liegt. Siehe das von mir verlinkte Video.
Haha na es liegt bei mir nicht am Speicher sondern das die gpu an sich zu schwach ist. Also das ist ein ganz klarer unterschied wie ich finde. Mehr als 4 GB könnte die Gtx 1650 auch eh nicht stemmen. Von daher sehe ich ganz klar andere Aspekte.
 
Hier 1080p cod black ops cold war fracture jaw bis zum ausstieg aus dem Hubschrauber

cod bo cold war 2020

1683630070397.png


1683630104288.png


oder dying light 2 2021
1683630181649.png

oder tlou 2023
1683630393563.png

oder re4 demo 2023
1683630448746.png

oder the division 2 2018

1683630494877.png


Alles 1080p und ich habe noch mehr
12gb vram sind für 1080p mittlerweile min notwendig wen man keine kompromisse bei den texturen machen will.
Regler nach links stellen kann man immer.
Nvidia Gpu lagern ab 85% füllstand den Speichers in den ram aus.
erkennbar daran das Texturen aufpoppen und es ruckelt.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz, AI94, NIGHTFIL und 2 andere
Das wird so enden wie die 3060 mit 3060 Varianten .......
 
Also nicht, dass es besser wäre, wenn die 16 GB-Variante nicht kommen würde aber ich würde mich verarscht vorkommen.

4070 Ti - 12 GB
4060 Ti - 16 GB

Und natürlich hat man zuerst die 70er releast. Wow.

Wäre es andersherum, okay, aber so?
 
Ayo34 schrieb:
24GB ist geil für Content Creator + Gamer. Sonst braucht man das nicht. 16GB sind für Highendkarten mit 4k eine sehr gute Größe, auch langfristig. In der Mittelklasse sollten es 12GB sein um gerüstet zu sein für die Zukunft. Da gibt es aber auch kein 4k.
zum einen stellt sich hier die Frage, was bei dir "gerüstet für die Zukunft" bedeutet. Für mich bedeutet Zukunft irgendwas in 5 bis 10 Jahren. Vor 10 Jahren habe ich mich mit 4GB begnügt - 10 Jahre später sind es 24GB bei mir.

24GB ... sonst braucht man das nicht...
hmm...
Hatte bisher 2 Games, die haben sich auch den verfügbaren freien GPU Speicher unter den Nagel gerissen und mal eben bis zu 23GB vom Grafikspeicher mit Daten voll gestopft. Das war Sniper 5 wie auch Diablo 4 Beta.
Also wird es schon mal genutzt, wenns da ist.

Es läuft natürlich auch mit weniger VRAM - ohne Frage und man kann auch versuche mit 12GB VRAM 4K zu spielen. Schon mal aufgefallen das die Hälfte des Arbeitsspeichers deines Rechners auch für die GPU reserviert wird? Shared Memory oder "gemeinsam genutzter Grafikspeicher"?

1683630797001.png

zu erst wird der dedizierte GPU-Speicher (VRAM) mit Daten gefüllt. Wenn dieser voll ist, wird dann der gemeinsame GPU-Speicher (RAM) hinzu gezogen, wo dann weitere Daten abgelegt werden und wenn dann der gesamte GPU-Speicher (dediziert und gemeinsamen) voll ist, dann gehts im optimalen Fall auf der Auslagerungsdatei weiter und wenn der voll ist, dann geht dein Rechner aus und macht einen Reboot.

Genau dieses Szenario hatte ich mit mit einem GTX 980 SLI System mit 4GB VRAM und 8GB RAM gehabt. Sobald VRAM voll war, gings im RAM weiter und wenn der RAM voll war auf der virtuellen Auslagerungsdatei und dann wurde es dunkel...
hatte ewig gebraucht bis ich Ursache dazu gefunden hatte. Speicherupgrade auf 16GB war die "Lösung" bis zu einem gewissen Punkt. Nur irgendwann reicht 4GB VRAM und 8GB gemeinsamer Speicher (12GB GPU-Speicher) dann auch nicht mehr aus.

Das gute ist, das wir heute meistens schon von Anfang an 16GB Ram haben, die meisten oft 32GB.
Mit deinen 12GB Karten und 32GB Ram steht dem System schlussendlich 28GB GPU-Speicher zur Verfügung. Nur reicht das wirklich für die "Zukunft"???

In 5 bis 10 Jahren sprechen wir vielleicht von 8K Gaming und 4K ist das Minimum - wer weiß 🤷‍♂️
 
  • Gefällt mir
Reaktionen: ThirdLife
Abwarten ob das auch wirklich so kommt.

Wäre schon irgendwie kurios.
Angeblich haben die GeForce Karten ja auch das bessere Speicher Management.
Also in dieser Leistungsklasse dann erst Recht nicht nötig.

Aber gut ... es ist nVidia.
Das Schlimme daran ist, das es trotzdem noch massig Käufer gibt für diesen HW-Fail.

Tharan schrieb:
Das traurige ist doch, dass Nvidia hier die Tür so weit aufmacht wie es nur geht und AMD damit aktuell nichts anfangen kann.

Eigentlich ist AMD gar nicht so schlecht aufgestellt.

Wenn man es offen kommuniziert hätte, würde man AMD sogar raten, die 6xx0er Karten weiter zu vertreiben und damit den Markt "von unten" her zu füllen.

RDNA3 dann darüber positionieren und im Hintergrund am Nachfolger werkeln.
Der dann hoffentlich auch die RDNA3 Problematiken nicht aufweist.

Insgesamt ist leider alles noch zu teuer.

Aber von "unten" her gesehen ist doch jede RX 6xx0 Karte attraktiver als der RTX 4x00 Gegenspieler
 
Man hätte, um nicht noch mehr Shitstorm auszulösen, ja auch auf 12GB mit 192bit und "nur" GDDR6 gehen können, wie bei der 6700XT. Das wäre imho ein richtiger Schritt gewesen.
 
  • Gefällt mir
Reaktionen: ThirdLife
Painkiller72 schrieb:
Also echt ich verstehe diese Bauernfängerei nicht mehr. Warum nicht einfach eine RTX 4060 mit 192bit Speicherinterface und 12 GB VRAM und eine RTX 4060ti mit 256bit und 16 GB VRAM ? Nvidia tut sich selber keinen Gefallen damit
Klar, die Speichermenge wird künstlich zurückgehalten.
Aber 16GB GDDR6 an 128bit passt grundsätzlich, schau dir mal die Anzahl der Shader an in der 4000er Generation.
Die 4060 hat nur ein Viertel der 4090, wird auch ein Viertel der Speicherbandbreite kein Problem sein.
 
  • Gefällt mir
Reaktionen: ThirdLife
just_fre@kin schrieb:
Als Käufer der RTX 4070 mit 12GB bleibt ein fader Beigeschmack - auch wenn ich mit der Karte bisher extrem zufrieden bin.

Warum geizt Nvidia eigentlich schon seit Jahren so sehr mit Speicher und rüstet dann ausgerechnet die Mittelklasse üppig nach? Kann mich noch an meine GTX 660 Ti von EVGA mit 3GB extra fetten Speicher erinnern …
Ganz einfacher Grund:
  • Langsame Karte mit viel Speicher ist in 2 Jahren obsolet weil zu langsam
  • Schnelle Karte mit wenig Speicher ist in 2 Jahren obsolet weil zu wenig Speicher
Zack fertig, Nvidia Verkaufstaktik.
 
  • Gefällt mir
Reaktionen: NIGHTFIL
nvidia ist wieder nvidia. 16GB und 128bit, aber rechnerisch geht es ja nicht anders, wenn der Speichercontroller nicht ganz funtkioniert und mal ehrlich sind 8GB zu wenig für eine 4060Ti.

Doof nur das die 4070/Ti 12GB haben, aber geht ja rechnerisch auch nicht anders mit 192bit Interface. Und wenn der Speicher irgendwann nicht mehr ausreicht, kauft man sich eh eine neue Karte. Ehrlich gesagt ist die GPU sowieso das erste was an einem Rechner getauscht wird.

Am Ende wirds nvidia egal sein, wie bei der GTX 970 und anderen komischen Speicherkonstrukten.
 
ThirdLife schrieb:
Spannend zu lesen. Aber wäre eine 6800 nicht der Gegenpart zu einer 3080 und eine 6800 XT zur 3080 Ti, genauso wie eine 6900XT zur 3090 Ti steht ?

Von Preis und Leistung stehen sich 3070 und 6800 näher. Aber hier ist mal die CB-Tabelle:
https://www.computerbase.de/artikel...#abschnitt_benchmarks_in_spielen_exkl_nextgen

6800 ist etwas schneller als 3070 und langsamer als 3080.
Da sind 6800XT und 3080 näher von der Performance.

Geht im Artikel ja aber auch mehr darum, wie stark im Vergleich die 1% Lows einbrechen, weil die VRAM-Menge nicht reicht und nachgeladen werden muss. Also nicht die Max-FPS sind spannend, sondern die Minimum-FPS.

Ob jetzt 80 oder 90 FPS als Durchschnitt ist weniger spielrelevant als ob 40 oder 10 FPS als Minimum.
 
  • Gefällt mir
Reaktionen: ThirdLife
TriceO schrieb:
Vielleicht kommt ja noch eine 4070 Super oder ein Ti Refresh, der dann auf dem AD103 Chip der 4080 aufbaut und dann 16GB VRAM kann. Hieße aber, dass sie zuviele AD103 Chips rumliegen haben.

Dürften wohl eher die 4080 Preise sinken, als dass sie die 4080-Chips als 4070 verjubeln.
nein, nur weil es nachladeruckler gibt heißt das noch lange nicht das es an zu wenig vram liegt. eindeutig zieht das game nie mehr als 10gb vram und wenn die gpu 12 hat bleiben noch 2 gb vram übrig.

es liegt einfach an vollkommen fehlender optimierung und nicht an zuwenig vram.... mehr vram würde dem auch nicht helfen und auch ne 4090er dropt bei dem spiel auf 35fps. wie erklärst du dir das ?? die 24gb vram sind ja ausreichend.. ganz einfach weil es vollkommen unoptimiert auf den markt geworfen wurde so wie alles aktuell..

zuwenig vram ist hier nicht das problem.

die entwickler von immortals of avernum sagten das die 24gb vram der 4090er NICHT für maximale details ausreichen werden.. das ist eine offiziele aussage von vor paar wochen gewesen.. ist also nvidia einzig und allein daran schuld weil sie bei der 4090er zuwenig vram verbauen und sie MÜSSEN nun also 48gb vram verbauen ?! genauso klingen die aussagen von vielen hier nämlich ;)

ich sage dazu.. all diesen schrott der unfertig und vollkommen unoptimiert auf den markt geworfen wird sollte man boykottieren denn seitdem corona anfing und die ganzen publisher alle QA abteilungen entweder vollkommen aufgelöst oder auf ein minimum eingestampft haben läuft es so und die spiele die dieses jahr alle in solch einem zustand released werden sind das resultat davon !

nvidia ist hier nicht schuld sondern alle die publisher die die gunst der stunde genutzt haben um möglichst alle kosten für die produktion von spielen auf das absolute minimum zu fahren. es hat sich ja nie jemand beschwert auch wenn spiele in fürchterlichem zustand released wurden.. siehe elden ring, das game ist technisch der witz des jahrtausends, läuft grottenschlecht auf guter hardware aber beschwert hat sich keiner, im gegenteil es wurde in den himmel gelobt..

mehr vram löst das problem nicht, es verschieb das problem nur um ein paar monate oder 1-2 jahre... das problem muss da gelöst werden wo die produkte entstehen, nämlich bei den publishern und entwicklern indem die publisher ihre produkte besser testen und optimieren. früher ging das auch ohne probleme und selbst spiele wie cyberpunk ziehen i schnitt 8gb vram maximiert mit maximiertem raytracing... und cyberpunk ist im prinzip nen pc exclusive wie man an der performance auf konsolen sieht.. die alten konsolen konnten das spiel kaum darstellen und selbst das next gen updade für ps5 und xbox series x ist katastrophal, niedrige einstellungen niedriges raytracing und 30fps lock oder niedrige einstellungen ohne raytracing und 60fps lock.. ich habs mit meinem system aus der sig grade in den letzten 3 wochen durchgezockt und konnte es maximieren und mit dlss mit konstanten 60fps zocken. vram usage war im schnitt bei 8gb vram in 1440p

hier weitere beispiele das ICH recht habe:

hogwarts legacy, welches in schlechtem zustand released wurde so wie alles aktuell, aber wenigstens nach release gefixed wurde:


teilweise hats 15fps mehr und zieht dazu noch 500mb weniger vram ! und ich behaupte die haben nur an der oberfläche der optimierung gekratzt, nach release ist das nicht mehr so einfach wie vorher da man alles 10x besser durchtesten muss bevor man es in die welt setzt und millionen von spielern drauf zugreifen können.

ungeachter dessen aber sieht man hier das der vram verbrauch deutlcih unter den 8gb der 3070er liegt und die performance auch massivst verbessert wurde.


noch ein weiteres beispiel:

redfall.. auch das kommt nicht im ansatz an die 12gb vram dran und zieht so maximal 10gb vram, selbst in 4k, aber es läuft absolut grottenschlecht mit drops in die 40er. wieso ?? weil es ebenfalls vollkommen unoptimiert ist und in einem unglaublich harten cpu singlethread limit läuft. wie man in dem video sieht wird die 4070er grade mal zu 30-40% genutzt ohne frame generation weil es so stark im cpu limit ist. ein weiteres beispiel dafür in was für einem tragischen zustand spiele aktuell am pc released werden, WAS aber rein garnichts mit dem vram zu tun hat. zuwenig vram ist nicht das problem, nirgends

 
  • Gefällt mir
Reaktionen: Wan900 und ThirdLife
Ghostshield schrieb:
Stacked GDDR kommt bald mit 16GB statt 2GB pro Chip.
Dann gibt es GDDR7 mit 36Gbps und 128Bit mit 64GB
und irgendwann gibts GDDRdrölf mit 1,5GBit mit 2048GB


die Frage ist nur in welcher Zukunft 🙂
 
Zurück
Oben