News Kritik zu groß?: Nvidia soll die RTX 4060 Ti nun doch auch mit 16 GB bringen

DerRico schrieb:
Verstehe die Häme hier nicht so ganz. Bisschen unglücklich für 4070ti Käufer, aber ansonsten bringt mehr Speicher einfach schönere Grafik für wenig Geld und fast ohne zusätzlichen Stromverbrauch und ist einfach uneingeschränkt zu begrüßen.
Die 4060ti wird damit super sparsam, ausreichend schnell und auf Jahre mit genug Speicher ausgestattet für 1440p und auch Ausflüge in 4k bei wenig Last mit schönen Texturen. Wäre damit die zweite rundum gute Karte dieser Generation neben der 4090.

Klar, "alles Ärsche und Kapitalisten" bei NV, die Wut muss raus. Aber wenn es so käme, siegtdoch am Ende der Kunde: Die Preise haben sich nicht durchsetzen können und der Speicherbeschiss auch nicht.

Am Ende gibt es nur einen Verlierer: AMD
Naja, das Gleiche kann man schon seit Jahren kaufen, für ähnliches Geld und heißt RX6800. Erkenne den Fortschritt da also so nicht wirklich.
 
Tobi-S. schrieb:
Oh cool! RTX 4060 16gb - das scheint die neue Karte für alle Bild- und Videobearbeiter zu werden. Find ich gut!
Die können schon jetzt eine Arc A770 mit 16GB für unter 400 EUR kaufen.
 
  • Gefällt mir
Reaktionen: konkretor, Telechinese und TriceO
Eigentlich bleibt nur zu hoffen, dass sich dieses Release-Getröpfel mit der 5xxx Generation etwas bessert. Das war ja bei der aktuellen Reihe eine Katastrophe mit Ankündigungen, Abkündigungen, Umetikettierungen, Ti/nicht Ti, etc. Herrje! Wenn jetzt am besten noch "Super" käme, wäre das das Sahnehäubchen auf dem Wirrwar-Misthaufen. Langsam kommt mir das vor, wie bei VW, wo es für alle 2cm Autolänge ein eigenes Modell gibt, so hier für alle 30€ Preisunteschied eine eigene Grafikkarte. Ich bin mir gar nicht so sicher, ob das Hersteller und Kunden am Ende nützt.
 
Zuletzt bearbeitet:
BDR529 schrieb:
Weil eine 4060 Ti auch gerade so sehr von 16GB VRAM profitieren würde.

Was ein Schwachsinn.
Not bad 3070 niveau endlich mit 16 gb vram
 
  • Gefällt mir
Reaktionen: bad_sign
Crifty schrieb:
Ich habe es doch im 2. Post erklärt oder? Wir reden hier über die Gamingsparte der Nvidia Grafikkarten, wo XX70 Modelle immer als 1440p maxed out beworben werden. Ja und da kann man sagen das man mit 8gb damals und 12gb heute, stark auf Kante genäht ist.

Es ist sogar noch kranker. Wenn ich mich richtig erinnere, wurde die 3070 damals sogar als 4 k Karte beworben. Von 4k auf full HD oder sogar in Richtung 720p in 2 Jahren. Kann man sich nicht ausdenken. 😂

Ich hab absolut kein Mitleid mit den 4070er Käufern. Wer alle Benchmarks und Warnungen ignoriert, muss halt bezahlen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Felix#
BDR529 schrieb:
Weil eine 4060 Ti auch gerade so sehr von 16GB VRAM profitieren würde.

Was ein Schwachsinn.
Warum? Das ist die Leistung einer 2080ti/3070ti und zumindest bei zweiterer ist der Speicher schon Recht knapp. Dazu kommt dass es auch Szenarien gibt die Speicher aber weniger rechenintensiv sind. 6900Xt mit Kerbal Space Programm und Texturmods, da laufen die 16GB bei mir voll. Bei 5120x1440 und 120hz hab ich aber noch 40% der Chipleistung übrig. Mit der "alten" 2080ti gibt's aber gute nachladeruckler und hab ca. 10-20% Leistung über.

Mehr RAM ist nie ein Fehler während zu wenig dich am Schluss schon limitieren können.

Diablo 4 Beta war auch son Fall wo VRam zum frühstück frisst ohne den Rest entsprechend zu beanspruchen.
 
Die neue 3060 haha strategisch sehr gut mir tun die 4070 Käufer aber leid..
Ergänzung ()

Coeckchen schrieb:
Warum? Das ist die Leistung einer 2080ti/3070ti und zumindest bei zweiterer ist der Speicher schon Recht knapp. Dazu kommt dass es auch Szenarien gibt die Speicher aber weniger rechenintensiv sind. 6900Xt mit Kerbal Space Programm und Texturmods, da laufen die 16GB bei mir voll. Bei 5120x1440 und 120hz hab ich aber noch 40% der Chipleistung übrig. Mit der "alten" 2080ti gibt's aber gute nachladeruckler und hab ca. 10-20% Leistung über.

Mehr RAM ist nie ein Fehler während zu wenig dich am Schluss schon limitieren können.

Diablo 4 Beta war auch son Fall wo VRam zum frühstück frisst ohne den Rest entsprechend zu beanspruchen.
Mmh eher 3070 ohne ti aber wir werden sehen
 
4060 mit 8GB für 249€ UVP anbieten und schon ist alles in Ordnung :)
 
InsideInfinity schrieb:
bei denen der vram wirklich das hauptproblem ist und so wird es auch bleiben, allen vorran weil die aktuellen konsolen auch grade mal 14gb vram haben der für entwickler nutzbar ist und bei weitem nicht jedes spiel den vollen vram vollständig nutzen wird.

Was hat das damit zu tun? Es sind ja keine 1:1 Portierungen, sondern für PC kommt noch was oben drauf. Bedeutet vielmehr, dass das jetzt Standard werden könnte, weil alle Konsolen-Spiele für 13-14 GB ausgelegt werden, seitdem die Last Gen Entwicklungen wegfallen.

Ist ja kein Wunder, dass die "miesen" Spiele von der Konsole kommen. Nur während Last of Us auf Konsole besagte 13-14 GB nutzt, waren es auf dem PC teils über 20 GB VRAM.
Und dann muss man wieder auf Patches warten.

Und was hat eine höhere Speicherbandbreite für einen Vorteil, wenn der Speicherbedarf höher ist als der vorhandene Speicher bieten kann?
Bedeutet in jedem Fall, dass Daten nachgeladen werden müssen.
 
Hatte NVidia nicht einem Hersteller das "Super" im Namen der Karte verboten ? Vielleicht hat die 16GB 4060 ja den Namen "4060 Super"... :evillol:
 
conglom-o schrieb:
Nun ja, da sagen die Tests aber was ganz anderes - die 4xxx Karten sind so ziemlich die effektivsten, die es aktuell gibt!
Ich rede von Verbrauch, nicht von Effizienz.

Mit demselben Argument könnte man auch einen Ferrari entwickeln, der 500 km/h schafft und dabei nur 80L pro 100km verbraucht. Ist auch wahnsinnig effizient, aber frisst einem trotzdem Löcher ins Konto beim Tanken.
Und so lange Konsumenten dieses Effizienzargument schlucken und absolute Verbräuche dabei unbetrachtet lassen, wird Nvidia auch seine Politik nicht ändern, weil sie damit durchkommen.
 
D3xo schrieb:
Wieso nicht von Anfang an alles richtig machen und eine 4060 Ti mit 192 Bit und 12 GB ausstatten.
Die RTX 4070 Ti müsste eigentlich 4060 Ti heissen, das sehe ich auch so. Und die 4080 wäre dann die 4070.
 
  • Gefällt mir
Reaktionen: Coeckchen, iceshield und k0n
NVIDIA hat mal wieder ungünstig gedacht bei den Speicherinterfacen, der 4070(Ti) hätten 16 GB und 256 Bit wirklich gut gepasst, und der 4060 (Ti) hätte vermutlich auch bei 12 GB jeder interessent wenig zu meckern gehabt. Es wurde einfach falsch geplant und vermutlich das schlimmste es wurde gekauft wenn schon die 4080 und 4070 (Ti) sich noch schlechter verkauft hätten, könnten alle schon weiter sein. (Wobei ich die Käufer ein Stück weit verstehen bessere Leistung als die Vorgängermodelle bei weniger Verbrauch, es hätten aber noch bessere Produkte sein können / sollen)
 
Dass wird meine nächste gpu
34sm 16gb ideal wäre noch 20gbps
 
Wertzius schrieb:
Nicht unbedingt, es bleibt ja eher eine FHD-max. WQHD Karte - nur ohne Nachladeruckler oder pulsierende Texturen.
:daumen: Ich hätte auch direkt in der Tabelle nachsehen können...
 
DocWindows schrieb:
Du kannst mit jeder Karte alle Regler nach links ziehen, denn das ist in 99,9% der Fälle die Low Einstellung.
Ich meinte natürlich das andere Links, also Rechts... 🤦‍♂️😅
 
V_182 schrieb:
Wird wohl neuer Standard im Portfolio, dass die xx60er-Karten mehr VRAM als die xx70er-Varianten bekommen?
„Kann man auch machen. 🤷‍♂️“ wie ein Bekannter gerne zu sagen pflegt.
Upselling Strategie nennt man das, die 4070er sind so Verkrüppelt das man gleich zur 4080 greift.
 
  • Gefällt mir
Reaktionen: Krazee
Crifty schrieb:
Wir reden hier über die Gamingsparte der Nvidia Grafikkarten, wo XX70 Modelle immer als 1440p maxed out beworben werden.

Und weil die zu einem Zeitpunkt X damit beworben werden, muss dies zu einem Zeitpunkt Y gegeben sein, und zwar für jedes Spiel, egal was der Spielehersteller für einen Unsinn mit seinem Ressourcenmanagement im Spiel anstellt?

Das kann doch unmöglich dein Ernst sein.

Hätte EA also das neue Star Wars nicht gepatcht, damit es nicht nur auf einer 4090 mit 17GB VRAM Belegung auf 30 FPS läuft, dann wären die Grafikkartenhersteller in der Verantwortung, weil sie zu wenig VRAM verbaut hätten und ihre Versprechen nicht halten?

Ich kann mir gar so oft an den Kopf fassen wie ich müsste.
 
bigfudge13 schrieb:
Was juckt das Nvidia? Die Speicherkrüppel wurden ja schon verkauft und wenn sich das in 2 Jahren negativ auswirkt, wird die nächste GeForce mit knappem Speicher gekauft. Läuft doch schon seit Jahren so.
AMD müsste was DLSS/FSR angeht vor nvidia sein und Raytracing gleich. Was meinste wie schnell Nvidia handeln würde 😄
 
Zurück
Oben