News Kritik zu groß?: Nvidia soll die RTX 4060 Ti nun doch auch mit 16 GB bringen

SonyFriend schrieb:
Auch wenn es natürlich schön für die 4060 ist: Ein Schlag ins Gesicht der 4070/ti-Käufer und löst nur Kopfschütteln aus.
Wieso? Bisher hat es Nvidia in jüngerer Vergangenheit geschafft in fast jeder Generation die Kunden zweimal zu Kasse zu bitten und Käufern der ersten Stunde vor den Kopf zu stoßen.

GTX 900: GTX 970
GTX 1000: zum Glück nichts
RTX 2000: die Super-Modelle mit teils mehr Vram und Leistung
RTX 3000: die Generation wo viele Grafikkarten am VRAM verhungern *von weit weg lacht die günstige 3060 12gb
RTX 4000: da sind wir gerade…*hust 4070(ti)

Wer nach 9 Jahren immer noch so Lernresistent ist, dem kann es auch dann egal sein. Ist ja anscheinend genug Geld zum immer wieder aufrüsten da.
 
  • Gefällt mir
Reaktionen: Dr-Pepper, aid0nex, Fritzler und 10 andere
Neodar schrieb:
Mal sehen, ob sich das in nem Jahr oder spätestens zwei Jahren auch noch so anhört, wenn dann auch der Letzte mitbekommt, dass die 12GB Speicher selbst in FullHD nicht mehr für volle Texturen ausreichen und in WQHD mehr als mittlere Settings gar nicht möglich sind.
Genau und eine 4060 mit 16GB wird in zwei Jahren natürlich die Scheisse fett rocken. In 4K mit 8K Texturen und so weiter.🤣🤣🤣

DocWindows schrieb:
Du kannst mit jeder Karte alle Regler nach links ziehen, denn das ist in 99,9% der Fälle die Low Einstellung.

Als 4070Ti-Besitzer ärgere ich mich aber auch dass ich in jedem Spiel feintunen muss. Nur wegen VRAM.
Sei es in Euro Truck Simulator 2, der schon 4GB VRAM bei 4k braucht mit allen Einstellungen auf Anschlag, oder TheHunter - Call of the Wild mit 6GB VRAM Belegung oder Dyson Sphere Program mit 3GB VRAM Belegung oder Cyberpunk mit 7GB.

Ganz ganz traurig das alles.
Also ich hatte eine 3080 Ti mit 12GB VRAM bis Ende 22 und in keinem EINZIGEN Spiel auch nur im Ansatz Probleme. Aber jetzt auf einmal hat jeder in allem ein Problem ? What ? 😂

Ich zock grad Days Gone in 3440x1440p und allem maximiert was geht - VRAM Auslastung zwischen 4 und 6 GB. Aber stimmt das Spiel sieht ja auch FURCHTBAR aus. 😂😂

Edit: Oh shit, du warst sarkastisch - und ich noch nicht so richtig wach. Mein Fehler :freak:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DocWindows und Pro_Bro
Wäre dann das perfekte Modell für die Komplett-PCs in Elektronikmärkten, in denen die Dau's vor dem Rechner stehen und denken: boah geil 16GB Videoram, muss die Grafikkarte schnell sein...
 
  • Gefällt mir
Reaktionen: Gesualdo
Knut_Knudsen schrieb:
Diese Speicherknauserei hat bei Nvidia seit der GTX 670/680 System. Damals mit 1,5 bis 2GB während AMD die HD 7950/70 mit 3 GB ausgestattet hat.
Besonderer „Spaß“ wurde dann noch einmal die 900er-Serie. Von der 960 gab es ebenfalls 4GB-Modelle, die 970 hatte offiziell 4GB, in Wahrheit jedoch nur 3,5GB mit vollem Speicherinterface. Der Treiber versuchte intern den langsamen Anteil des Speichers gar nicht erst zu nutzen.
Es gab dadurch später Fälle in denen die schnellere 970 aufgrund des Speichers langsamer lief als eine 960 4GB…

AMD zeigt da Kundenfreundlich wie es anders geht. Die Karten mögen nicht die Performancekrone kriegen, aufgrund zukunftstauglicher Speichergrößen überleben sie anscheinend aber eher ihre Konkurrenten. Auch im CPU-Markt, während Intel drei neue Sockel auf den Markt bringt, bleibt AMD bei einem.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: No Escape, fox40phil und C0rteX
ThirdLife schrieb:
Wär sinnvoller gewesen die 4070er mit 16GB auszustatten und den 4060ern 12GB zu geben.
In der Vorausplanung ja. Geht nur jetzt nicht mehr.

die 4070 (bzw der AD104 Grafikchip) hat ein 192Bit Speicherinterface mit 6 32Bit Controllern an denen ein 2GB(16Gbit) GDDR6X Chip hängt.

Größere GDDR6X Chips gibt es nicht. Also müsste man mehrere an einen Controller hängen. Nur dann wäre man bei 24GB. Um auf 16 zu kommen, müssten sie zwei Controller links liegen lassen und den gesamten Speicher an vier Controller anschließen, was dann die Bandbreite auf 128 Bit senkt.

Und bei der 4060 (AD106) hat man ein 128 Bit Speicherinterface für 8GB oder 16 GB.
Denkbar wäre, den AD107 mit 96Bit Speicherinterface für 12GB zu nehmen. Nur das ist der 4050 Chip.
 
  • Gefällt mir
Reaktionen: aid0nex, ComputerJunge, Convert und 3 andere
TriceO schrieb:
Wenn die auf dem AD104 Chip der 4070/4070Ti/4080(12) aufbaut und das PCB nicht verändert wird, dann können es eigentlich nur 12GB GDDR6X oder 24GB GDDR6(ohne X) sein.

Nvidia könnte mit seiner Marktmacht durchaus Verträge mit Samsung oder Micron abschließen, um 12Gb (1.5GB) GDDR6 Chips produzieren zu lassen. Seit GDDR5X sind laut JEDEC (2015!) solche Größen spezifiziert. Damit könnte man bei gleicher Anbindung eine 16GB 4070 Serie oder eben 12GB 4060 Serie rausbringen. Samsung würde das sicher dankbar annehmen, aber dann müsste Nvidia vermutlich 2-3% Marge an Samsung abgeben. Das geht natürlich nicht..
 
  • Gefällt mir
Reaktionen: aid0nex, Convert, cruscz und 2 andere
@ThirdLife Rischtisch. Was anderes als Sarkasmus bleibt einem bei dem was einige Leute hier zur Schau stellen nicht übrig. Wenn du jetzt noch nicht richtig wach bist: -> weniger Zocken :D

Crifty schrieb:
GTX 900: GTX 970
GTX 1000: zum Glück nichts
RTX 2000: die Super-Modelle mit teils mehr Vram und Leistung
RTX 3000: die Generation wo viele Grafikkarten am VRAM verhungern *von weit weg lacht die günstige 3060 12gb
RTX 4000: da sind wir gerade…*hust 4070(ti)

Hmm. Also meine Historie ist:
GTX 460
GTX 670
GTX 1070
GTX 3070
GTX 4070Ti

Wüsste nicht dass ich 2x zur Kasse gebeten worden wäre.
Die 4070Ti hätte ich eigentlich gar nicht gebraucht, aber dank Grafikkartenkrise und guter VK-Gebrauchtpreise auf eBay hab ich mir die trotzdem geholt. Hab auf die Zeit gesehen noch nie so günstig gespielt wie seit der Zeit >= 2020

Da bin ich gerne auch Lernresistent.
 
Zuletzt bearbeitet:
ThirdLife schrieb:
Also ich hatte eine 3080 Ti mit 12GB VRAM bis Ende 22 und in keinem EINZIGEN Spiel auch nur im Ansatz Probleme. Aber jetzt auf einmal hat jeder in allem ein Problem ? What ?
Wow toller Hecht, liegt wohl daran das du Ende 22, kein 23er Game mit dieser Problematik zocken konntest. 🤦‍♂️

Aber gut bei so einer Gammelkarte wie der 4060 braucht es das wohl nicht.
 
domian schrieb:
Wäre dann das typische Modell für die Komplett-PCs in Elektronikmärkten, in denen die Dau's vor dem Rechner stehen und denken: boah geil 16GB Videoram, muss die Grafikkarte schnell sein...
Oder für Leute die nicht in 2 Jahren lesen wollen, das man bei einer neuen Karte für 450€ wegen zu wenig VRAM die Details in 1080p runtersetzen muss
 
  • Gefällt mir
Reaktionen: aid0nex, BGnom, bad_sign und 3 andere
Katzenjoghurt schrieb:
Jetzt kann Nvidia entweder 1GB oder 2GB Bausteine draufknallen. Also insgesamt 8GB oder 16GB.
nicht ganz, so wie ich das herausgelesen habe, besteht bei Nvidia die Wahl zwischen 4 Speichermodulen zu je 2GB der "Stein" (8GB Variante) und nun, neu, 2x4 Speichermodulen zu immer noch 2GB der "Stein" (16GB Variante). Die bereits recht sparsamen 128Bit Speicherbandbreite, die bisher nur 4 Steine versorgen sollte, darf nun 8 Steine versorgen.
Ob das mal noch aufgeht? ich hoffe CB wird da vergleichende Tests liefern, sobald die 4060ti mit 16GB für Benches zur Verfügung steht?
@Jan wir zählen euch... uhm... wir zählen auf euch ;)
 
  • Gefällt mir
Reaktionen: rumpel01, fox40phil und Jan
Da hat sich Nvidia einen schönen Mist eingebrockt. 4070 nur mit 12 GB VRAM und nun die 4060 Ti mit 16 GB VRAM. Das ist ein Arschtritt an alle Käufer der 4070.

Hoffentlich lernt Nvidia daraus und macht es bei der RTX 50xx von Anfang an richtig:

RTX 5060 mit 16 GB
RTX 5070 mit 18 GB
RTX 5080 mit 20 GB
RTX 5090 mit 24 GB

RTX 5060 Ti mit 18 GB
RTX 5070 Ti mit 20 GB
RTX 5080 Ti mit 24 GB
RTX 5090 Ti mit 30 GB
 
  • Gefällt mir
Reaktionen: aid0nex, Hardwarious und danyundsahne
Neodar schrieb:
Mal sehen, ob sich das in nem Jahr oder spätestens zwei Jahren auch noch so anhört, wenn dann auch der Letzte mitbekommt, dass die 12GB Speicher selbst in FullHD nicht mehr für volle Texturen ausreichen und in WQHD mehr als mittlere Settings gar nicht möglich sind.
Also du meinst wirklich, Entwickler wollen Spiele nur für 2,3% aller aktuellen Computersysteme spielbar machen? Das sind die, mit mehr als 12GB VRAM aktuell. Na ich glaube kaum, dass die dann viele Einheiten auf dem PC verkaufen werden.
1683625594326.png
 
  • Gefällt mir
Reaktionen: aid0nex und fox40phil
BDR529 schrieb:
Weil eine 4060 Ti auch gerade so sehr von 16GB VRAM profitieren würde.

Was ein Schwachsinn.
Von Speicher "profitiert" man nicht.
Man hat genügend - wenn es nicht genügend ist, hat man Probleme.

Du hast mit einem 128bit-SI nicht viele Optionen, es sei denn Du möchtest den Schildkrötenspeicher der 970 wieder aufleben lassen...
Ergo sind 16GB der nächste Schritt.
Und man sieht dass es nVidia nicht um die Speicherbausteine geht - die sind billig.
Es ist künstliche Marktnischenschaffung und die space-Sparen.
 
  • Gefällt mir
Reaktionen: bad_sign, Convert, cruscz und eine weitere Person
Gibt es eigentlich ein Spiel, wo die 16GB in FHD/WQHD wirklich gebraucht werden und die PC Version nicht gnadenlos schlecht optimiert ist?

Alles was mir bekannt wäre ist offensichtlich schlecht optimiert, bzw. die Grafik rechtfertigt den Bedarf nicht. Ich persönlich kaufe da einfach nicht.

Für mich ist Shadow of the Tomb Raider ein Optik/Performance Maßstab und Hogwarts Legacy schaut von der Grafik her nicht besser aus. Bei Shootern kann man auch immer gut mit Metro Exodus vergleichen.
 
SavageSkull schrieb:
Schön das man die Wahl hat:
  • langsame Karte mit viel Speicher
  • schnelle Karte mit zu wenig Speicher
  • Karte bei der alles stimmt, außer dem Preis
Super formuliert !
Die 4080 wäre für mich die perfekte Karte aber leider zu teuer. Ich hoffe ja auf eine "perfekte" 5070 zu einem bezahlbaren Preis. Solange muss es die 6800 XT tun 😄
 
ThirdLife schrieb:
Genau und eine 4060 mit 16GB wird in zwei Jahren natürlich die Scheisse fett rocken. In 4K mit 8K Texturen und so weiter.🤣🤣🤣

Gab bei Techspot nen aktuellen VRAM-Dilemma Test mit einer 8GB 3070 und einer 16GB 6800. Zwei eigentlich grob gleichwertige Karten.

Und bei hohem VRAM Bedarf sieht die 3070 kein Land.
https://www.techspot.com/article/2661-vram-8gb-vs-16gb/

Insofern wäre es tatsächlich denkbar, dass eine 16GB 4060 Ti besser dasteht als eine objektiv schnellere GPU mit weniger Speicher.

Hier war zudem ne schöne Übersicht über VRAM Bedarf
https://www.techspot.com/article/2670-vram-use-games/
 
  • Gefällt mir
Reaktionen: loser, Dr-Pepper, JohnnyTexas und 3 andere
ThirdLife schrieb:
Wär sinnvoller gewesen die 4070er mit 16GB auszustatten und den 4060ern 12GB zu geben.
Genau das haben sie ja gemacht, möchte man meinen. Nur heißen die Modelle statt 4070 (ti) einfach direkt RTX 4080 und statt RTX 4060 (ti) direkt RTX 4070 ... Diese merkwürdigen Schieflagen und das Knirschen im Gebälk sind Ergebnisse des konsequenten Upsellings. Bei einer RTX 4050 würde kein Hahn danach krähen, wenn sie mit 8GB ausgestattet wäre. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aid0nex, Convert, Lars_SHG und 7 andere
ThirdLife schrieb:
Genau und eine 4060 mit 16GB wird in zwei Jahren natürlich die Scheisse fett rocken. In 4K mit 8K Texturen und so weiter.🤣🤣🤣
Vielleicht wollen die Full HD-Spieler kein DLSS anmachen, schonmal darüber nachgedacht in deiner 4K-Blase.
 
Zuletzt bearbeitet:
Die grünen Agenten sind immer wieder für einen Lacher gut. Wenn die 4060ti wirklich mit 16 GB kommen sollte, käme ich mir als 4070ti Kunde jetzt verarscht vor.
 
  • Gefällt mir
Reaktionen: k0n
Zurück
Oben