News Kritik zu groß?: Nvidia soll die RTX 4060 Ti nun doch auch mit 16 GB bringen

Exit666 schrieb:
4060ti - 12 GB
4070 - 16 GB
4070ti - 16 GB
4080 - 20 GB
4090 - 24 GB

Wäre doch zu einfach...
Naja wenigstens 4060ti 16 gb vram haha
 
InsideInfinity schrieb:
selbst neuste spiele wie star wars jedi survivor ziehen nichtmal im ansatz die 12gb vram und dabei sind sie komplett broken...
Du musst dir in dem Video nur mal das Gezuppel ab 10:40 angucken. Dass die Frames dort so einbrechen liegt am Nachladen, sprich einem VRAM Peak über 12GB. Selbst wenn es in der gezeigten Szene average weniger sind.

Aber ja, Jedi Survivor schien ja in Pre-Day1-Patch Tests sowieso enorm hungrig. 4K mit 21GB VRAM oder so ähnlich und erst dank Patch auf weniger.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Du kannst mit jeder Karte alle Regler nach links ziehen, denn das ist in 99,9% der Fälle die Low Einstellung.

Als 4070Ti-Besitzer ärgere ich mich aber auch dass ich in jedem Spiel feintunen muss. Nur wegen VRAM.
Sei es in Euro Truck Simulator 2, der schon 4GB VRAM bei 4k braucht mit allen Einstellungen auf Anschlag, oder TheHunter - Call of the Wild mit 6GB VRAM Belegung oder Dyson Sphere Program mit 3GB VRAM Belegung oder Cyberpunk mit 7GB.

Ganz ganz traurig das alles.
The Last Of US gönnt sich 10900MB. Selbst das ist mit der Karte in WQHD noch möglich.
Ubd für 4K @ Max wirds schwierig mit ner 4070Ti.
Die Drops sind das schlimme.
Bei meiner 4080 geht's wenns Dunkel wird und die Taschenlampe angeht teilweise von 107 fps kurzzeitig auf 60-70fps runter.
Das könnte mit der 70er dann ruckeln.
 
Exit666 schrieb:
4060ti - 12 GB
4070 - 16 GB
4070ti - 16 GB
4080 - 20 GB
4090 - 24 GB

Wäre doch zu einfach...
Joa... aber die Grube hat sich die Lederjacke selbst geschaufelt. Kein Mitleid und kein Kauf.

@4nanai Dafür hat Nvidia ihre Serverkarten mit 40/80GB Speicher.
 
Wollte auf die RTX 4060 warten, aber jetzt habe ich mir doch die ARC A770 16GB geholt.
 
  • Gefällt mir
Reaktionen: Luccabrasi
mazoman schrieb:
Ok cool, cool... nicht, dass ich gerade ne 4070 gekauft hätte...

Wie sehr wollt ihr eure Kunden verärgern?
Nvidia: JA!

edit: klar, mir wird nichts genommen und zufrieden bin ich auch mit der Karte. Gschmäckl hat trotzdem mMn
😂 ich verstehe voll und ganz was du sagen willst und auch was du empfindest.
Frage mich mal... RTX 3090 gekauft und wusste zu dem Zeitpunkt noch nicht, das 10 Monate später 4090 wirklich real im Laden verfügbar war 😁

da hast du bzw. ich halt die A-Karte gezogen. Ist wie beim Lotto. Hätten wir beide gewartet, wäre es anders ausgegangen. Nur bis dahin hätten wir beide auch keine GPU gehabt 😉

Wenns dich tröstet und du unbedingt eine andere Karte haben willst, wirst du deine 4070 sicherlich auch noch als gute junge Gebrauchte los werden.
 
  • Gefällt mir
Reaktionen: mazO!
Intruder schrieb:
Soll jetzt keine böse negative Kritik sein sondern manchmal kann ich den Sinn und Zweck von den Symbolfotos oft nicht verstehen. Was möchte man mir damit mitteilen?
Du sieht Grafikkarten-Speicherchips, um die es geht - und die GPU-Kennzeichnung siehst du glücklicherweise nicht. Sonst würdest du sehen, dass es GA102 ist - insofern passte das Foto für micht sehr gut. ^^
 
  • Gefällt mir
Reaktionen: Intruder
Intruder schrieb:
Was möchte man mir damit mitteilen?

Das unter dem Kühler auch Wärmeleitpaste war?
Das über dem Prozessor und rechts daneben noch Micron Speichermodule liegen??
[...]
Du hast es erfasst, es geht um die Speichermodule. :daumen:
 
  • Gefällt mir
Reaktionen: Intruder
itsommer schrieb:
Wollte auf die RTX 4060 warten, aber jetzt habe ich mir doch die ARC A770 16GB geholt.
Ist die echt besser als deine 3080? Vram ist nicht alles
 
Exit666 schrieb:
4060ti - 12 GB
4070 - 16 GB
4070ti - 16 GB
4080 - 20 GB
4090 - 24 GB

Wäre doch zu einfach...

Das wäre dann aber ein massives Upgrade zu den 8GB der 3070 und 10GB der 3080. Dann verkauft man ja gar keine 5000er Karten mehr.

24GB ist geil für Content Creator + Gamer. Sonst braucht man das nicht. 16GB sind für Highendkarten mit 4k eine sehr gute Größe, auch langfristig. In der Mittelklasse sollten es 12GB sein um gerüstet zu sein für die Zukunft. Da gibt es aber auch kein 4k.

8GB ist für eine teure Karte einfach zu wenig, selbst für FullHD.
 
Neodar schrieb:
Habe ich das behauptet? Nein, habe ich nicht.
Okay, was bringt es denn dann ? Es reden doch alle von VRAM und Langlebigkeit. Du selbst ja auch. Müsste es dann hier nicht auch der Langlebigkeit dienen ?
 
  • Gefällt mir
Reaktionen: Intruder
rumpel01 schrieb:
Nur heißen die Modelle statt 4070 (ti) einfach direkt RTX 4080 und statt RTX 4060 (ti) direkt RTX 4070 ...
Siehe meine Signatur, die habe ich drin seit die 4080 12GB vorgestellt wurde. Das ist anhand der technischen Daten die eigentliche 4060ti.
 
  • Gefällt mir
Reaktionen: C0rteX
Fighter1993 schrieb:
The Last Of US gönnt sich 10900MB.

Ich habe in meinem Post das Wort jedem nicht umsonst fett geschrieben.
Auf TLOU kommen 1000 Spiele bei denen nichts ruckelt oder limitiert. Auch neue.
 
  • Gefällt mir
Reaktionen: Pisaro
Jan schrieb:
Du sieht Grafikkarten-Speicherchips, um die es geht
ja schon aber es gibt immerhin mehr Speicherchips auf der Karte als nur die paar die man sieht 🙂 Nicht das nachher jemand glaubt, das es nur die paar Chips sind.
Jan schrieb:
Sonst würdest du sehen, dass es GA102 ist
nicht lachen aber das hatte ich im ersten Augenblich wirklich gedacht 😁

Nein ist alles ok mit dem Bild 🙂
Das wichtigste, die Infos im Text, sind gut rüber gekommen und das ist die Hauptsache!!!
Danke schön Jan
 
Schön, dass der mündige (zumindest denkt er das ja oft) die Qual der Wahl hat. Für jeden ist etwas dabei ob grün oder rot.
Persönlich hätte ich die 16GB bei der 4070ti passender gefunden, bzw. ein Gerücht darüber :D.
Auf Gerüchte gebe ich lange nix mehr, mal schauen ob es so überhaupt kommt.

Wäre aber mal wirklich was Neues wenn NV einen feuchten Pups auf die Kritik der Gamerschaft geben würde wie der Artikel suggeriert. Dass die nächste Miningwelle am anrollen ist und jene Kundschaft den Speicher verlangt würde ich ja eher glauben :evillol:.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
Gr33nHulk schrieb:
Es ist doch ganz offiziell durchweg getestet, daß man mittlerweile selbst mit 12 GB nicht mehr rundum glücklich wird, wohlgemerckt mit aktuellen Mid-Range GPUs. Was gibt es da nicht zu verstehen oder überhaupt auszusetzen?!
Ah. Man muss also "rundum" Glücklich sein. Also Highest End am besten gratis. :D

Und ich dachte schon Mittelklasse bedeutet Kompromiss. Da hab ich mich wohl geirrt. Danke, dass du mich aufgeklärt hast was heutzutage erwartbar ist. Rundum glücklich sein mit einem Mittelklasse-Produkt. War noch nie so, aber heute muss das so sein. 😂

Gr33nHulk schrieb:
Wie kommt man überhaupt auf die Idee besser bestückte Hardware durch Troll-Posts abwerten zu wollen? Der Kunde bekommt was besseres und das ist dann was schlechtes?
Ich werte die Karte doch nicht ab ? Eine Karte mit viel VRAM aber keiner Power bringt halt langfristig nix. Wenn du das nicht sehen kannst oder willst ist das doch dein Problem - nicht meins.

Gr33nHulk schrieb:
Warum kommt sowas auch noch von jemandem mit einer 4090, welche 24GB VRAM bietet?
Muss ich also erst eine alte GTX 970 in den Rechner stöpseln damit ich hier eine valide Meinung haben darf. Ich dacht im Schland steht ihr auf "ich darf doch wohl noch meine Meinung sagen" ? :D

Gr33nHulk schrieb:
Hättest du lieber eine 4090 mit 12GB, die ja deiner Ansicht nach noch die nächsten 100 Jahre ausreichen?!
Wo hab ich das behauptet ?

Gr33nHulk schrieb:
Wie entstehen solche völlig absurden Troll-Versuche, wo man jeden fern abseits jeder Vernunft blöd von der Seite an macht, nur weil man bessere Austattung der Hardware begrüßt?!
Begrüssen kannst du viel. Die höheren Preise dann aber auch schön schlucken und nicht wieder flennen dann.:heul:
 
Fighter1993 schrieb:
AMD müsste was DLSS/FSR angeht vor nvidia sein und Raytracing gleich. Was meinste wie schnell Nvidia handeln würde 😄
Vermutlich gar nicht, weil viele Leute immer noch die Karte nach der Farbe kaufen und nicht nach Features oder P/L.
 
  • Gefällt mir
Reaktionen: Hardwarious
Tornavida schrieb:
Persönlich hätte ich die 16GB bei der 4070ti passender gefunden, bzw. ein Gerücht darüber :D.
Vielleicht kommt ja noch eine 4070 Super oder ein Ti Refresh, der dann auf dem AD103 Chip der 4080 aufbaut und dann 16GB VRAM kann. Hieße aber, dass sie zuviele AD103 Chips rumliegen haben.

Dürften wohl eher die 4080 Preise sinken, als dass sie die 4080-Chips als 4070 verjubeln.
 
Vitali.Metzger schrieb:
Die grünen Agenten sind immer wieder für einen Lacher gut. Wenn die 4060ti wirklich mit 16 GB kommen sollte, käme ich mir als 4070ti Kunde jetzt verarscht vor.
Sei froh. Du hast doch eine pralle 6900XT, die wird die nächsten zwei Jahrzehnte alles in 4K rocken ! :daumen:

Cerebral_Amoebe schrieb:
Viellicht wollen die Full HD-Spieler kein DLSS anmachen, schonmal darüber nachgedacht in deiner 4K-Blase.
Vielleicht "willst" du dann einfach das Geld ausgeben was nötig ist um deine Wünsche zu erfüllen ?
Vielleicht "musst" du auch kein DLSS in FHD nutzen, warum auch ? Ausser dein Anspruch ist Entry-Level GPU mit CP2077 auf Pathtracing.

Was es hier immer für wilde Vorstellungen gibt. :D
 
BDR529 schrieb:
Weil eine 4060 Ti auch gerade so sehr von 16GB VRAM profitieren würde.

Was ein Schwachsinn.
Klares ja-nein zu deinem Einwand.

Für mich könnte eine RTX 4060 Ti mit 16 GB interessant sein, die 8 GB Version halte ich hingegen für absolut überflüssig (hatte ich in einem anderen Thread schon geschrieben).

Die Chipleistung meiner RTX 3060 Ti reicht mir für WQHD aus, allerdings werden die 8 GB Videospeicher sehr knapp. Für 4K wird auf lange Sicht die Chipleistung einer 4060 Ti nicht reichen.

Eine RTX 4060 Ti (wahrscheinlich ca. RTX 3070 bis 3070 Ti Leistung) mit 16 GB hingegen könnte...wohlgemerkt könnte...doch mein Interesse wecken. Ist zwar nur eine Art "sidegrade", aber mit so etwas bin ich in der Vergangenheit gut gefahren.

Meine erste und einzige High End Karte war damals die GeForce 2 Ultra (von Creative Labs).

Von Mittelklasse zu Mittelklasse macht für meine Anwendung mehr Sinn. Ob ich so ein Sidegrade fahre oder bis nächstes Jahr u.a. auch Intel Battlemage abwarte, wird vom Preis und auch von den Benchmarks abhängen.
 
  • Gefällt mir
Reaktionen: TriceO
Zurück
Oben