Test Nvidia GeForce RTX 4060 Ti im Test: 8 GB sind in dieser Klasse für 439 Euro nicht mehr genug

Ich wollte erst auf die 4060TI 16GB warten aber ich habe heute für 599€ ne 4070 12GB mit Diablo 4 geschnappt. Ziehe ich die 79€ für D4 ab, was ich sehr wahrscheinlich im Juni gekauft hätte, bin ich ich bei 520€ ich denke das ist völlig in Ordnung.
 
Deleo schrieb:
Ich wollte erst auf die 4060TI 16GB warten aber ich habe heute für 599€ ne 4070 12GB mit Diablo 4 geschnappt. Ziehe ich die 79€ für D4 ab, was ich sehr wahrscheinlich im Juni gekauft hätte, bin ich ich bei 520€ ich denke das ist völlig in Ordnung.

Nice :)
Welche Custom hast du dir geholt?
 
Ich bin mit meiner 4090 super zufrieden. Ist aber irgendwie auch die einzige nVidia Karte die man derzeit ohne schlechtes Gewissen empfehlen kann.

Natürlich immer vorausgesetzt, man ist bereit den hohen Preis zu zahlen.
 
  • Gefällt mir
Reaktionen: AI94 und piccolo85
DiePalme schrieb:
Schau dir doch einfach mal die Anzahl der Einheiten der jeweiligen Karten an. Was gibt es da nicht zu verstehen?
Lieber DiePalme, kein Grund gleich so zu rüpeln. Ich wollte auf die Relationen innerhalb einer Generation hinaus. Dass diese in der Hardware verankert sind, ist mir durchaus bewusst, ich kann nur nicht verstehen, warum die 4060Ti so schwach produziert wird. Um bei dem Vgl. mit der 2000er Generation zu bleiben: Die 4060
Ti sollte so stark sein, dass die 4090 eben auch nur ca. 60% schneller ist. Verstehst du, was ich meine?
 
@AzrAelxxx
Der Grund ist doch einfach: Wie immer Geld. Das Ding ist billig (eigentlich ein Chip der vorher immer nur in den 50er zum Einsatz kam) und wird teuerst verkauft. Das ist gut für die Marge.
Und da die Leute eh wie die Lemminge Nvidia kaufen... naja können die auch machen was sie wollen. Der Rest hat entweder genug Kohle für ne 4090 oder ist zu den Konsolen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: up.whatever, eXe777, GERmaximus und eine weitere Person
Kazuya91 schrieb:
Lasst uns alle Nvidia eins auswischen und eine RTX 4080 oder besser kaufen!!!111elf Damit zeigen wir denen dass wir nur an Karten interessiert sind die genug VRAM haben!!!!

Hat bereits mit den 3,5gb der 970 gut funktioniert.
Was hat der Kunde gemacht? eine 980 gekauft^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: piccolo85, Holgmann75 und Dai6oro
Das is jetz nich deren ernst, das für die 8GB Variante zu verlangen oder?
100€ zu viel. Mindestens. 300€ wäre ein besserer Preis.
 
Danke CB für diesen ausführlichen Test.

Die Karte soll für FHD gedacht sein, aber schafft es bereits JETZT in wenigen Titeln nicht mal für 1080p in High details. Mit Zukunftssicherheit hat das nichts zu tun. CB hatte ja (leider) bereits mit Release der RTX 3060 TI 8Gb auf den künftigen Speicherengpass hingewiesen. Nun fast 3 Jahre später ist er da, und es wird im laufenden Jahr nicht besser!

Die 16 GB Version dürfte mehr Freude bereiten, aber nicht zu diesem absurden Preisaufschlag.

Für einen Boykott gibt es meine volle Unterstützung.
 
  • Gefällt mir
Reaktionen: C0rteX und Holgmann75
piccolo85 schrieb:
Das man mit einer Mittelklasse Grafikkarte in Zeiten von 24GB Monstern nicht einfach „Ultra-Epic to the MAX“ anklicken darf sollte eigentlich klar sein.
Doch! Wenn man eine brandneue Karte kauft für FHD kauft, die über 400 Ocken kostet, dann darf man zumindest in der Anfangszeit erwarten, dass die Karte aktuelle Spiele in maximalen Details in FHD laufen. Das einzige, was man dabei nicht erwarten darf, dass dann 60+ FPS bei rauskommen.

Noch schlimmer: Oldies wie Control oder Doom-Eternal auf dieser Karte nicht voll ausgereizt spielen zu können, wie PCGH im Video zeigt, weil Nvidia einfach zu geizig mit Interface und Speicher ist. RT und DLSS können u.U. nicht vernünftig genutzt werden und das auf FHD - das kann es ja wohl für über 400 Ocken nicht sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gene Jackman, catch 22, FrankN84 und eine weitere Person
Wer kauft so ein Müll?? Dafür kann man ne 6800 mit 16gb kaufen.
 
  • Gefällt mir
Reaktionen: XBOX ftw und Holgmann75
Wer die 4060ti in Betracht zieht, sollte sich vielleicht auch mal den Test von GamersNexus ansehen.
Ich glaube fast, das ist die peinlichste neue Karte, die ich je gesehen habe - bin aber auch noch nicht ganz durch.
 
  • Gefällt mir
Reaktionen: XBOX ftw und ReVan1199
Ich habe schon vor ewigen Zeiten hier gesagt der VRAM von 8GB ist zu wenig.
Trotzdem gab es Kaufberatungen zu 8GB VRAM Karten an masse.

Kurz gesagt: 8 GB reichen, das haben die letzten Monate wiederholt bewiesen und der neue Testparcours bestätigt es, auch in Full HD nicht mehr aus, um aus Speicherperspektive sorgenfrei in jedes Spiel einzusteigen, selbst wenn die GPU genug Rohleistung bietet.

"kurz gesagt in einem Schachtelsatz."

Ich verstehe es nicht, warum man es so kompliziert und verschachtelt formulieren muss.

8GB Grafikkartenspeicher sind in Full-HD nicht mehr ausreichend.
Full-HD ist die Bildschirmauflösung 1920x1080 Bildpunkte.
Im Testparkour sieht man dies anhand vieler Beispiele.
Der Testparkour ist eine Testreihe für Grafikkarten.
Dieser wurde vor einigen Monaten aktualisert.

Ob Parcour mit c oder k geschrieben wird, da kenne ich zu wenig von der neuen GENDER deutschen Schlechtschreibung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Skynet1982
Dai6oro schrieb:
Der Rest hat entweder genug Kohle für ne 4090 oder ist zu den Konsolen.

Man kann ja auch mit deutlich weniger Spaß haben. Ich gehöre zu der Fraktion, die die Regler runterdreht und entsprechend wäre eine 4090 nichts für mich. Neben einem geeigneten PC braucht man ja auch den Monitor für eine solche Karte. Und derartige Preise sind die wenigsten bereit zu zahlen.
Und wenn wir mal ehrlich sind, wird die 4090 doch vornehmlich in den Spielen beansprucht, die schlecht optimiert sind. Neben den teilweise enttäuschenden GPU Releases eine weitere beunruhigende Entwicklung, die sich hoffentlich nicht weiter so ungehemmt forsetzt.
Diablo 4 als Beispiel ist aber einer GTX 660 spielbar.
 
domian schrieb:
Dieses Video anschauen und nicht immer alles glauben, was über die VRAM Größe gemeckert wird...
Na ja, das Video ist im ganzen - wenn man sich etwas mit der Materie befasst - selbst wenn man es freundlich ausdrückt: Sehr schwach, weil hier maximal die VRAM Allokation betrachtet wird und darauf aufbauend ein Fazit gezogen wird.

Da geht das Video von PCGH als auch der Test hier von @Volker schon ein deutliches Stück tiefer. Nicht nur wird auf die relevanten Min-fps eingegangen, die unter dem VRAM-Mangel leiden können, sondern auch darauf, dass Spiele, obwohl sie "genügend" fps erzeugen, eben zu Mikrorucklern neigen und die sogar störender sein können, als man meint.

Dazu sagt @Volker etwas sehr Richtiges: Gerade Texturen sind etwas, dass die Qualität eines Spieles massiv steigern kann, dabei heute aber quasi keine Leistung kosten. Die 4060 Ti hier bietet sehr viel Leistung und wäre in der Form nicht nur eine FHD-Karte, sondern auch für WQHD durchaus brauchbar. Die 8 GiB VRAM sind hier aber der Knackpunkt, gerade wenn man die nächsten zwei Jahre im Blick hat und bedenkt, dass viele Spiele eben Cross-Plattform entwickelt werden.
piccolo85 schrieb:
Überall das höchste Grafik-Preset und dann schlussfolgern, dass 8GB nicht mehr genug sind? Okay…
Klar, wir können jetzt darüber sprechen, dass man halt einfach die Texturen "runter" regelt, wenn man sich eine 4060 Ti kauft und dann sagen, es wäre weiterhin genug. Problematisch ist hier leider nur, dass gerade die Texturen bei "modernen" Spielen sehr viel zur Grafikqualität beitragen und das Reduzieren um eine oder zwei Stufen teilweise weit drastischere Auswirkung auf die Qualität hat, als wenn man die Effekte reduziert.

Für VRAM gilt halt: Es muss genug vorhanden sein. Und ehrlich, für eine Grafikkarte die über 400 € kostet, darf man schon gewisse Ansprüche stellen. Würde die 4060 Ti jetzt nur 300 € kosten, könnte man noch irgendwo argumentieren, dass man halt Abstriche machen muss, ab 400 € ist das aber nicht mehr. (Und bevor jetzt kommt, dass ich eh NVIDIA "hate", nö die 4090 ist bestellt - doofe KI, und ich mag CUDA... verdammt, das hätte ich mir doch schon im Dezember überlegen können...).

Wan900 schrieb:
Ich will hier die 8 GB gar nicht schön reden, aber bei den zwei genannten Problemtiteln sind das in 1080p mal eben zwischen 30 und 50 FPS...wenn das für euch schnell genug ist...ich weiß ja nicht
Es geht hier nicht unbedingt um die fps an sich, sondern um die Folge, wenn die Daten aus dem RAM in den VRAM geschoben werden müssen. Läuft der VRAM voll, dann kann es passieren, dass die Spiele trotzt guter Avg. fps und Min. fps anfangen zu ruckeln, weil es immer wieder ein paar µS bis die Daten da sind. Das passiert dann unregelmäßig und stört das Spielgefühl weit stärker, als zb konstete 24 fps dann störend wären.
habla2k schrieb:
Auch wenn die Entwickler der Spiele daran nicht unschuldig sind.
Oh, die Spieleentwickler können da eigentlich nichts für. Die Leute wollen hochauflösende und tolle Texturen und hoch detaillierte Spielwelten und Co: Entsprechend benötigt man auch VRAM. Da kann man nicht viel machen. Und auch "DirectStorage" wird da nicht viel bringen.

Der VRAM-Geiz bei NVIDIA - und AMD - in den unteren Preisklassen ist unschön, weil er unnötig ist. Für FHD sind die Karten stark genug, aber eben nicht mehr für alle Details und das ist schade.
 
  • Gefällt mir
Reaktionen: coral81, Zwirbelkatz und FrankN84
Das sich Nvidia traut sowas auf den Markt zu bringen, unglaublich. Eine Frechheit.
 
  • Gefällt mir
Reaktionen: XBOX ftw
Denn Krüppel können sie von mir aus gleich wieder in die Tonne kicken ,unglaublich sowas...
 
Rickmer schrieb:
Die Verbesserungen zwischen Generationen werden durch die Reihe nach unten hin schlechter...

3090 -> 4090: +73%
3080 -> 4080: +49%
3070 -> 4070: +27%
3060Ti -> 4060Ti: +8%
das war von vornherein zu erwarten. irgendwann wird ein schmales speicherinterface schlicht zum problem.
wenn dazu dann auch noch die preisvorstellung von nvidia dazukommt, werden auch die produkte zusehens unattraktiver.
 
Zuletzt bearbeitet:
Man muss sich mal in die Situation der Händler begeben. Kann mir gut vorstellen, das die
Simonsworld schrieb:
Ohne jetzt die 4070 preislich attraktiv darstellen zu wollen, eine gebrauchte 3070 scheint im Vergleich nicht wirklich attraktiv aus meiner Sicht, insbesondere wenn man das Diablo IV Paket berücksichtig, womit man nochmal -70 Euro auf den Preis rechnen kann, sofern man das Spiel haben möchte.
Bei der 4070 erhält man gegenüber der 3070 19-24% je nach Auflösung mehr. Dazu kommen DLSS 3 und eine bessere Raytracing Leistung. Bei manchen Modellen gibt's 5 Jahre Garantie.
Ich finde dieses Paket rechtfertigt einen 230 Euro Aufpreis, wenn man das Verhältnis betrachtet.
Jetzt höre ich mich schon wie ein NVIDIA Verkäufer an. Ich habe mir auch den Gebrauchtmarkt angeguckt und der ist leider im Moment alles andere als rosig. Die Leute wollen immernoch fast Neupreise für die Last-Gen Karten. Insbesondere bei AMD ist das zu beobachten, die in letzter Zeit deutliche Nachlässe gegeben haben.
Leider ist AMD für mich keine Option, sonst hätte ich schon längst im roten Lager zugeschlagen

Also ....

Gebrauchtmarkt (seriöse Angebote ohne Abzug):
RTX 3070 = 300€
RTX 3080 = 450€

Beides schneller als eine RTX 4060 Ti.



RTX 4070:
Ist Elektro-Schrott. Das weis auch Nvidia und deswegen gibts großzügig D4 dazu. Jetzt lohnt es sich doch? D4 kostet ja schließlich 70€ und so weiter und so fort. Und schon wird zugegriffen. Fehler.

Die 12GB VRam reichen noch 2 Jahre, und sobald die knapp werden kicken die 192Bit rein. Somit sind die 530€ dann doch keine gute Investition gewesen. Bei RTX 3070 mit nur 8GB VRam war klar, das die Karte wohl bald obsolet wird und siehe da, zwei Jahre später ist dies passiert. Du benötigst heutzutage einfach mindestens 10GB VRam. Deswegen werden die 12GB der 4070 auch nur noch 2 Jahre halten.


Und zurück zum Gebrauchtmarkt:
Die Leute wollen fast Neupreise haben aber bei einigen eben nicht. 3070 und 3080 gibts es dort in sehr gut erhalten mit teilweise Garantie für die genannten Preise oben. Wieso gerade diese Karten? Weil 8GB und 10GB VRam :) in 2 Jahren wirst du 4070er wie Sand am Meer für 300€ dort finden.
 
DrFreaK666 schrieb:
Die 40€ teurere RX6800 ist die bessere Karte, wenn man Zukunftssicherheit will
Und das Ding ist 2,5 Jahre alt und von Gebrauchtpreisen will ich gar nicht anfangen.
Das irre ist: selbst auf 165W gedrosselt dürfte die RX6800 noch knapp vorne liegen.
 
  • Gefällt mir
Reaktionen: Gene Jackman, Redundanz, Maxxx800 und eine weitere Person
Zurück
Oben