Test Nvidia GeForce RTX 4060 im Test: Die neue kleinste RTX 4000 unabhängig analysiert

Der nächste Flaschenhals bei der 4060Ti 16GB ist dann die Speicherbandbreite, mit 128Bit kommt man bei Belastung dann schnell in einen Verkehrsstau. Zudem kann sich die Clamshell-Konfiguration dann auch noch negativ auswirken.
Vom blödsinnigen Preis mal ganz abgesehen - wer kauft eine Einsteigerkarte auf Steroiden für 500 Mücken?
 
  • Gefällt mir
Reaktionen: .Ake und Mcr-King
Da bin ich ganz deiner Meinung wie gesagt die RTX30er Serie ist viel besser als die total beschnitten RTX40er Serie.

Desweiteren DLSS3 und FG läßt die CPU lässt massiv explodieren also nix mit Strom und Leistung-sparend, es wird nur verlagert davon abgesehen sieht DLSS in FHD wie kotze aus.

Auch wird einer der eine RTX 4060 er kaufen möchte keinen i7-i9 oder Ryzen 9 drin haben.

Die RTX3060 12GB war und ist dass rundere Produkt Punkt die Gurke mit 8GB ist nur Müll.
 
Wie "Kotze" finde ich schon ein wenig übertrieben, aber gut sieht es nicht aus.
Dann lieber auf Raytracing verzichten, DLSS deaktivieren und den Rest auf das Maximum einstellen.

Das bezieht sich natürlich auf Full HD, dass ist ja die beworbene Auflösung für die RTX 4060.
 
Wenn ich mir eine 4060 gekauft hätte würde ich kein gar Bock haben darüber hier zu berichten und Fragen dazu zu beantworten. Gleiches dürfte für die Besitzer einer 7600 gelten.
 
PS828 schrieb:
...wie man jetzt in 2023 selbst für low end noch 8GB verteidigen kann ist mir absolut schleierhaft. VRAM ist spottbillig und für diese absichtliche entscheidung sollt man keine firma belohnen. es ist gelinde gesagt ein witz.

Richtig. Einer der schlechtesten Witze die sich NVIDIA seit langem erlaubt hat. Und NVIDIA hat sich schon so einiges erlaubt.

PS828 schrieb:
GDDR7 wird möglicherweise nur in 4GB VRAM stücken kommen was im impliziert dass die 5060 entweder endlich 16GB VRAM bekommt oder es eine karte mit 8 GB VRAM gibt an einem 64 Biut interface. und das wollt ihr nicht. glaubt mir ;)

Da geht noch etwas bis die Leute Schmerzen erleiden: 32 bit, 16 bit, 8 bit? :D
 
  • Gefällt mir
Reaktionen: PS828 und Mcr-King
Tornavida schrieb:
Wenn ich mir eine 4060 gekauft hätte würde ich kein gar Bock haben darüber hier zu berichten und Fragen dazu zu beantworten. Gleiches dürfte für die Besitzer einer 7600 gelten.
Na hoffentlich hält das noch mehr potentielle Käufer vom Kauf ab.
 
.Ake schrieb:
Da geht noch etwas bis die Leute Schmerzen erleiden: 32 bit, 16 bit, 8 bit? :D
….oder wie bei GTX970 mit den 512MB „extra“ an 32 Bit, die dann als Killerfeature verkauft werden.:daumen:
Also 4GB an 128 Bit plus 2GB „extra“ an 32Bit hört sich doch prima an!?:evillol:

Das ist dann so wenn bei Schokolade dick und fett 20% extra und völlig gratis, also geschenkt, in der Packung sind und das nur weil der Hersteller ein guter Mensch ist.
 
.Ake schrieb:
Da geht noch etwas bis die Leute Schmerzen erleiden: 32 bit, 16 bit, 8 bit?
Weiter runter als 32 Bit wird nicht gehen, weil bei GDDR6(X) ein einzelnen Speicherchip einen 32 Bit breiten Datenbus hat. Und bei GDDR7 werden die Speicherhersteller es sicherlich nicht schlechter als GDDR6 umsetzen.
Worst Case mit GDDR7 wären, wenn es 4 GB Chips werden, dann 8 GB mit gesamt 32 Bit. Also zwei 4GB Chips in Clamshell-Konfiguration.
 
  • Gefällt mir
Reaktionen: .Ake und Mcr-King
Cerebral_Amoebe schrieb:
Wie "Kotze" finde ich schon ein wenig übertrieben, aber gut sieht es nicht aus.
Dann lieber auf Raytracing verzichten, DLSS deaktivieren und den Rest auf das Maximum einstellen.

Das bezieht sich natürlich auf Full HD, dass ist ja die beworbene Auflösung für die RTX 4060.

Also mal ehrlich, wenn ich mir die Benchmarks nur als Beispiel von Cyberpunk anschaue, wer will denn das bei ~32 Fps freiwillig mit RT spielen. Da helfen auch keine 12 GB, genau wie bei der RTX 3060.

Schon bei der RTX 2060 mit 6 GB war RTX nur als nettes Feature zum Schnuppern angesehen, genau so würde ich das bei 3060 und 4060 einordnen, ob mit 8 oder 12 GB.

Wenn man jetzt das reine Marketing runterskaliere und ich jetzt auf RT verzichten könnte, dann könnte ggf. evtl. vielleicht die RTX 4060 für eine Weile reichen, natürlich auch unter der Voraussetzung wenn die Texturen nicht auf Detailstufe Ultra geladen sind und alles in 1080p. Interessant wäre es doch wie Benchmarks in 900p sich machen?!
Ergänzung ()

mibbio schrieb:
Weiter runter als 32 Bit wird nicht gehen, weil bei GDDR6(X) ein einzelnen Speicherchip einen 32 Bit breiten Datenbus hat. Und bei GDDR7 werden die Speicherhersteller es sicherlich nicht schlechter als GDDR6 umsetzen.
Worst Case mit GDDR7 wären, wenn es 4 GB Chips werden, dann 8 GB mit gesamt 32 Bit. Also zwei 4GB Chips in Clamshell-Konfiguration.
Also 4GB an 96 Bit plus 4GB „extra“ an 32 Bit – klingt doch total gut. Denn 96+32= 128 Bit :heilig::daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Bonsaicracker schrieb:
Also 4GB an 96 Bit plus 4GB „extra“ an 32 Bit – klingt doch total gut. Denn 96+32= 128 Bit
Wie kommst du auf 96 Bit für 4 GB? Auf 96 Bit kommt man nur mit 3 oder 6 (Clamshell) Speicherchips. Welche Kombi da gehen würde, wären 6 GB (3x 2 GB) an einem 96 Bit Interface und dann nochmal 2 GB extra an einem zusätzlichen 32 Bit Interface. Das wären dann nach Nvidias Logik 8 GB mit 128 Bit.
 
Bonsaicracker schrieb:
Also mal ehrlich, wenn ich mir die Benchmarks nur als Beispiel von Cyberpunk anschaue, wer will denn das bei ~32 Fps freiwillig mit RT spielen. Da helfen auch keine 12 GB, genau wie bei der RTX 3060.
Cyberpunk ist ja auch das Nvidia gesponsorte Raytracing-Vorzeige-Spiel.
Far Cry 6 konnte ich mit der 3060 12GB mit Raytracing und alles auf Maximum einwandfrei spielen.
Metro Exodus ebenfalls, obwohl da die Wasserdarstellung mit Raytracing bei mir fehlerhaft war.

Die 12GB verhindern schon Nachladeruckler bei großen Texturen, siehe Hogwarts Legacy, wo die 3060 weniger Einbrüche als die RTX 3070 hatte.
Wie das mit der gepachten Version stand heute ist, weiss ich nicht.

Die RTX 4060 16GB wird leider auch an PCIe x8 und der Speicheranbindung mit 128bit leiden.
Es ist halt einfach eine XX50/Ti und keine XX60.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Cerebral_Amoebe schrieb:
Metro Exodus ebenfalls, obwohl da die Wasserdarstellung mit Raytracing bei mir fehlerhaft war.
Nein dass gibt es bei NVIDIA nicht 😉 😅 zu mindestens wenn man vielen hier glaubt.

Naja für FHD reichen auch eine Arc 750 und RX6600 bei mittleren Texturen sorry dafür braucht man keine RTX4060 für 350€ und mehr nein die Billigen kannst du alle vergessen was Qualität angeht und Lautstärke.
 
  • Gefällt mir
Reaktionen: Cerebral_Amoebe
mibbio schrieb:
Wie kommst du auf 96 Bit für 4 GB? Auf 96 Bit kommt man nur mit 3 oder 6 (Clamshell) Speicherchips. Welche Kombi da gehen würde, wären 6 GB (3x 2 GB) an einem 96 Bit Interface und dann nochmal 2 GB extra an einem zusätzlichen 32 Bit Interface. Das wären dann nach Nvidias Logik 8 GB mit 128 Bit.
Okay, ich habe mich jetzt nur aufs Marketing konzentriert. Was jetzt wie im einzelnen technisch angebunden wird, weiß ich ehrlich gesagt gar nicht 😉🤪

Deine Idee klingt doch schon mal gut. Also das halten wir die schon mal für die kommende RTX 5060er fest.
Ich habe da noch weiter tolle Ideen:
RTX 5070er mit einem 128 Bit und einem 64 Bit Speicherinterface = 192 Bit
RTX 5080er mit einem 192 Bit und einem 64 Bit Speicherinterface = 256 Bit
RTX 5090er, da muss man dann schon was ganz besonderes abliefern:
ein 256 Bit plus ein 128 Bit Speicherinterface = 384 Bit !!! 😎 Nimm das Kunde!!!

Wie welche Speichermodule gepaart werden ist dann dein Part, Hauptsache wir kommen unterm Strich billig auf eine angemessene Gesamtmenge. Vielleicht lässt sich ja noch ein 2 GB DDR3 Cache einbauen?!
 
  • Gefällt mir
Reaktionen: Mcr-King
@Mcr-King
Da nehmen sich AMD und Nvidia nichts.

Beim Thema Speicher muss man bedenken, dass der Speicher erst Stand heute so günstig ist und die Entwicklung von Ada schon längst abgeschlossen war, entschuldigt aber nicht die Entscheidung, PCIe x8 und 128bit umzusetzen.
Energie-Sparmaßnahmen waren das bei 130W bestimmt nicht.
 
Zuletzt bearbeitet:
Und für die RTX 5050er wird kein Speicher mehr direkt verbaut, hier kommen SO–DIMM DDR5 Dual–Channel Steckplätze drauf, die zusammen bis zu 32 GB unterstützen!!!
 
  • Gefällt mir
Reaktionen: Mcr-King
Mcr-King schrieb:
davon abgesehen sieht DLSS in FHD wie kotze aus.

In fast allen Tests waren bei DLSS vs Native kaum Unterschied zu erkennen, teilweise sogar eine geringe Verbesserung der Bildqualität bei Einstellung "Qualität".

Oder ist das bei dir nur ein "subjektiver" Eindruck der dem allgemeinen Nvidia Bashing entspringt?
 
😂 Nee ich rede von FHD DLSS du von WHDQ und höher sorry sogar CB und PCGH sagen in FHD DLSS an zu machen ist dämlich. 😉

Aber naja man kann es ja verwechseln.
 
Hast du mal einen Link dazu? Also wo die sagen das es in FHD dämlich ist.
 
  • Gefällt mir
Reaktionen: FrankN84
Cerebral_Amoebe schrieb:
Cyberpunk ist ja auch das Nvidia gesponsorte Raytracing-Vorzeige-Spiel.
Far Cry 6 konnte ich mit der 3060 12GB mit Raytracing und alles auf Maximum einwandfrei spielen.
Metro Exodus ebenfalls, obwohl da die Wasserdarstellung mit Raytracing bei mir fehlerhaft war.

Die 12GB verhindern schon Nachladeruckler bei großen Texturen, siehe Howarts Legacy, wo die 3060 weniger Einbrüche als die RTX 3070 hatte.
Wie das mit der gepachten Version stand heute ist, weiss ich nicht.

Die RTX 4060 16GB wird leider auch an PCIe x8 und der Speicheranbindung mit 128bit leiden.
Es ist halt einfach eine XX50/Ti und keine XX60.

Das ist doch alles verrückt! Bei deinem Hogwarts Beispiel sieht man, das wir eigentlich nur die Wahl zwischen Pest und Kollera haben.

Sehr stark Vereinfacht:
3070 viele Frames mit Nachladerucklern
3060 weniger Frames ohne Nachladeruckler und ggf. schönere Texturen, aber damit ich bei weniger fps kein Nachziehen sehe kaufe ich mir einen Monitor mit G–Sync

und die 4060 (Ti) mit 16 GB an 128 Bit ist auch wieder nur eine Mogelpackung?!
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben