News Kritik zu groß?: Nvidia soll die RTX 4060 Ti nun doch auch mit 16 GB bringen

Was ist das bitte für ein hängengebliebenes Lineup? Die 40er Reihe wird mit jedem Modell bescheuerter.
Ganz nach dem Motto:

Sie können effizient schnell fahren mit gezogener Handbremse, oder Sie fahren effizienter ohne Handbremse, aber langsam, oder sie rasen als gäbe es kein Morgen, greifen nicht zur Handbremse, dafür jedoch tieeeeeef in die Hosentasche.

So wäre es schön gewesen:

RTX 406012 GB
RTX 4060 Ti12 GB & 16 GB
RTX 407016 GB
RTX 4070 Ti16 GB & 20 GB
RTX 408020 GB
 
  • Gefällt mir
Reaktionen: danyundsahne
ShiftC schrieb:
So wäre es schön gewesen:

RTX 406012 GB
RTX 4060 Ti12 GB & 16 GB
RTX 407016 GB
RTX 4070 Ti16 GB & 20 GB
RTX 408020 GB
Macht aber keinen Sinn technisch gesehen. Für die Ti Varianten müsste man also jeweils zwei Chips herstellen, einen mit 192 respektive 256 Interface und einmal 256 und 320 Bit.

4070er hätten prima das 256er Interface vertragen und 16GB kriegen können, die 4060er dann halt 12GB bei 192 Bits und fertig ist die Laube.

Flyto schrieb:
warum kein dp 2.0?
Wieviel Monitore kennst du denn aktuell die DP 2.0 supporten ?

Und welche 4060 Ti wird genug Leistung haben um sagen wir mal einen älteren Titel wie RDR 2 DP2.0 konform auf 4K240Hz zu betreiben ? Genau. Darum kein DP 2.0. Fucking useless an einer Lower Midrange Karte.
 
  • Gefällt mir
Reaktionen: AI94 und Gsonz
ThirdLife schrieb:
Macht aber keinen Sinn technisch gesehen. Für die Ti Varianten müsste man also jeweils zwei Chips herstellen, einen mit 192 respektive 256 Interface und einmal 256 und 320 Bit.

4070er hätten prima das 256er Interface vertragen und 16GB kriegen können, die 4060er dann halt 12GB bei 192 Bits und fertig ist die Laube.
Ja, doch wie es aktuell ist, ergibt es für mich nur als Kunden wenig Sinn. Wenn es je Modell zwei Speichervarianten geben soll, dann bitte nicht die Modelle mager und überdimensioniert, sondern mindestens passend und meinetwegen dann überdimensioniert.

Den Speicherinterface klein zu halten nur um dann anschließend mit technischer Unmöglichkeit zu argumentieren wäre doch das Argument schlechthin seitens Hersteller.
 
A.Xander schrieb:
Eine 4060Ti 16GB sehe ich als Rohrkrepierer an. Zu schwach für ordentliches WQHD und wahrscheinlich zu teuer weil zuviel unnötiger Ram.
4060 = 1080p
4060 Ti = 1080p mit Raytracing, hier sind die 8GB zu wenig
4070 = 1440p
4070 Ti = 1440p mit Raytracing
 
ShiftC schrieb:
Ja, doch wie es aktuell ist, ergibt es für mich nur als Kunden wenig Sinn. Wenn es je Modell zwei Speichervarianten geben soll, dann bitte nicht die Modelle mager und überdimensioniert, sondern mindestens passend und meinetwegen dann überdimensioniert.
Wenn eines passend ist, dann brauchst Du allerdings kein überdimensioniert mehr ;).

nvdia hat sich das sicher anders vorgestellt - die hätten gerne eine 3060 6GB und die 4060 Ti mit 8GB raus gebracht. Beim ersteren hatten sie direkt erkannt, dass der Speicher wohl nicht reicht - bei letzterem musste erst ein Aufschrei aus der Community her.
 
  • Gefällt mir
Reaktionen: ShiftC
Pro_Bro schrieb:
Das gute was ich daran sehe, vielleicht zieht AMD nach, da sollen die Karten (7600xt) ja auch nur 8 GB haben, was wegen dem Vram Management eigentlich noch schlimmer ist.
die 7600 wird aber auch 270 Tacken weniger kosten, ... ganz andere Klientel
4060Ti-16GB = 500€ vs 7600-8GB = 229€ ala 6600

die 7600 ist eeh langsamer und nur für FHD gedacht, die 4060Ti reicht auch für größere Resis, ob der Bus da
limitiert, mal schauen
vllt. kommt ja noch ne 4050-12GB für FHD, ... dürfte aber dann teurer als die 3050 und 6600/7600 sein
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne
16 GB VRAM?! Jetzt wird es interessant.
 
InsideInfinity schrieb:
Wie kommst du (und viele andere) überhaupt drauf das der VRAM verbrauch in den nächsten 1-2 Jahren noch deutlich nach oben gehen wird. Hast du dafür irgendwelche Belege ausserhalb deiner persönlichen Meinung ?

Edit:
Hab gerade gesehen, dass es einen ähnlichen Post schon gibt.

@InsideInfinity
Es gab mehrere Interviews mit Unreal Engine 5 Devs (habe gerade leider keine Quelle parat, war bei Youtube), welche gesagt haben, dass die bei der Entwicklung von kommenden Games mindestens 16GB VRAM, besser sogar mindestens 20GB VRAM planen.
Fairerweise muss ich sagen, dass ich keine Ahnung habe, wie das bei sich das dann bei der UE5 mit den Reglern verhält.
 
  • Gefällt mir
Reaktionen: C0rteX
ein spe
ShiftC schrieb:
Den Speicherinterface klein zu halten nur um dann anschließend mit technischer Unmöglichkeit zu argumentieren wäre doch das Argument schlechthin seitens Hersteller.
ein speicherinterface wird nicht einfach mal so beschlossen, sondern orientiert sich an dem jeweiligen chipdesign. ein breiteres interface kostet schlicht mehr - also versucht man das interface an die leistung/ausstattung des chips in sachen ausführungseinheiten anzupassen.

die technische "unmöglichkeit" ist es nicht gerade...laut spec gäbe es neben 1gb und 2gb gddr6(x) chips auch welche mit 1,5gb - allerdings werden diese meines wissens bisher nicht von den großen herstellern produziert..also bleibt lediglich die bestückung mit 8 oder 16gb.
ansonsten wären auch 12gb denkbar an einem 128bit interace oder auch 18gb an einem 192bit interace im clamshell mode...

..ob das jetzt sinnvoll ist oder nicht...denn auch pcb fläche auf denen die bausteine platz einnehmen kostet geld - und auch hier versuchen alle hersteller mit möglichst wenig packages auszukommen..
 
Frage, wie vergrault man sich möglichst viele potente Käufe Für zukünftige Käufe?
Antwort, indem man sie alle gehörig aufs Kreuz legt!

Also alle 4070/Ti Besitzer müssen sich doch vorkommen wie mit ner Dachlatte verprügelt. Bei ner 4060 is es dann doch möglich was bei ner ˋ70iger nich machbar ist? Was nvidia sich rausnehmen kann… bitte bitte 🙏 lasst Intel zur mächtigen Nummer drei werden, damit dem grünen Riesen da langfristig mal Einhalt geboten wird.
 
  • Gefällt mir
Reaktionen: C0rteX
Tjo. Nichts neues. Wobei es mich verwundert. Ich glaube nämlich nicht, dass AMD der 7600 (XT) mehr als 8 GB geben wird.
Aber scheinbar will man hier einfach wieder wie mit der 3060 abgrasen und die AMD-Käufer von sich überzeugen :)
 
mazoman schrieb:
Ganz im Gegenteil ich schreibe ja ich bin sehr zufrieden. Lies meinen gesamten Beitrag, dann sollte sich, bei ausreichendem Textverständnis, dein Erguss hier erübrigen.
Hab ich, da stand, dass du zwar zufrieden bist aber das Nvidia die Kunden damit verärgert und dass das Geschmäckele hätte. Sehe ich nicht so. du bist mit 4070 12GB-Karte zufrieden und der andere wird mit der 4060TI 16 GB zufrieden sein, mit der 8 GB Karte wäre er nicht zufrieden. Wo ist da genau das Geschmäckele? Das Nvidia einem 4060TI Kunden eine mehr als zufriedenstellende Speicherausstattung gibt, während sie dir nur eine "Zufriedenstellende" Speicheraustattung gibt? Was ist die Intention deines "Ergusses"? Du bist zufrieden, moserst aber dennoch über die 4060TI, über die ich zufrieden wäre. Warum? Wenn du zufrieden bist, dann halt doch deinen Erguss zurück. Mein Textverständniss ist völlig intakt, dein Mitteilungsbedürfnis trotz Zufriedenheit ist aber offensichtlich zu hoch...
 
Zuletzt bearbeitet:
Cerebral_Amoebe schrieb:
Sie können halt nur den VRAM verdoppeln wie bei der RTX 3060, die eigentlich mit 6GB rauskommen sollte.
An dem Punkt, wo die GPU schon fertig ist, ja. Man könnte natürlich auch das Speicherinterface direkt passender dimensionieren. Hier scheint es wieder wie bei der 3060, dass 6GB oder nun die 8GB bei einer 4060 wirklich unterhalb def Schmerzgrenze liegen und dann muss man eben verdoppeln. Der 4060er GPU hätte 12GB VRAM mit 192 Bit Interface gut gestanden. Naja die GPUs sind schon vom Band gefallen und nun hat man das 128 Bit Interface....
 
  • Gefällt mir
Reaktionen: DerRico
DellTree schrieb:
Bei ner 4060 is es dann doch möglich was bei ner ˋ70iger nich machbar ist? Was nvidia sich rausnehmen kann
bei einem 192bit interace kann man prinzipiell 6x32bit packages anbinden - das wären bei 2gb/package die 12gb.
alternativ beim betrieb der packages im 16bit datamode eben 6x2x16bit - was in 24gb bei 2gb/packages resultieren würde. und was dann? dann kommen 4080 nutzer daher und fragen mit der gleichen argumantation wieso ihre karte "nur" 16gb hat?
 
  • Gefällt mir
Reaktionen: TriceO
Katzenjoghurt schrieb:
Nvidia kann sich die Speicherbestückung halt nicht komplett frei aussuchen, sondern sie muss immer zum Speicherinterface passen.
Und wer designt das Speicherinterface? Da muss man sich halt früher Gedanken machen. Überhaupt der Gedanke die GPU mit 128 Bit Interface und 8GB zu bringen ist doch bescheuert.
 
  • Gefällt mir
Reaktionen: DerRico und Gsonz
Es ist wirklich schlimm, was sich NV immer mit dem VRam erlaubt.Seit der Mogelei mit der 970 und ihrem 3,5+0,5 Gibyte=4Gibyte ,geht das bei jeder Baureihe wieder von vorne los.Aktuell ist es eben Mal wieder die Größe des Vram.Das war schon bei der 2060 so.Nach ensprechendem Shitstorm wurde da im End of Life auch noch schnell eine 12 Gibyte Version nachgeschoben.Habe den Eindruck die wollen nicht dazu lernen.
Durch AMDs RDNA3 Fehlstart können sie sich sowas auch noch ungestraft leisten.Von dem
Stromstecker Problem bei der 4090 Mal abgesehen.
 
  • Gefällt mir
Reaktionen: Gsonz
  • Gefällt mir
Reaktionen: danyundsahne
DellTree schrieb:
Also alle 4070/Ti Besitzer müssen sich doch vorkommen wie mit ner Dachlatte verprügelt. Bei ner 4060 is es dann doch möglich was bei ner ˋ70iger nich machbar ist?
Was jetzt genau? Speicher langsam anzubinden? Ja, das ist bei der 4060 (Ti) machbar, bei der 4070 allerdings nicht. Alles andere wurde hier mehrmals (u.a. von @cypeak) schon erläutert.
 
  • Gefällt mir
Reaktionen: ThirdLife
Cerebral_Amoebe schrieb:
4060 Ti = 1080p mit Raytracing, hier sind die 8GB zu wenig
Da sind wir uns ja einig. Es ging mir eher um den Preis, mehr Ram Chips höherer Preis.
Ich kenne mich damit jetzt auch nicht so aus aber die Frage die sich mir stellt ist halt auch.

Wäre es nicht schlauer und günstiger 12GB GDDR6 mit dem 4060Ti Chip auf eine 4070er Platine mit 196er Interface zu packen. Oder ist die Platine mit dem größeren Interface soviel teurer?
 
Zurück
Oben