Test Nvidia GeForce RTX 4060 im Test: Die neue kleinste RTX 4000 unabhängig analysiert

Ich finde das Fazit von CB zu den Einsteigermodellen nicht ganz richtig, denn das wirkliche und einzige Problem ist der VRAM. Alle anderen Kritikpunkte sind aus meiner Sicht nicht schwerwiegender als bei den vorherigen Generationen. Ein Einsteigermodell muss sich in der Leistung nicht von der vorherigen Generation abgrenzen. Nur wenn man den Preis mit einbezieht ist das eine gerechtfertigte Kritik, denn solche Leistung mit dem Preis würde ich sicher nicht kaufen.

Ansonsten bin ich aber sehr dankbar für den ausführlichen Test und euren genauen Blick auch auf die Einstiegsmodelle!
 
  • Gefällt mir
Reaktionen: Viper2000
Die Karte ist an sich schon eine Beleidigung für jeden Zweitrechner.
Ich zitiere Peter Lustig: "Dreck...."

Ok, Spaß beiseite, Danke für den Test 👍
 
  • Gefällt mir
Reaktionen: Mcr-King
Naja es wurde sich ja immer lauthals über den Verbrauch beschwert. Diesmal hat man ihn stärker reduziert und dafür weniger Leistungszuwachs. Jetzt ist es aber auch wieder nicht recht?
Ende 2022 hat die RTX3060 auch noch über 400€ gekostet. Die 12GB waren ein Ausrutscher da man nur 12 oder 6 verbauen konnte, später gab es sie dann als 8GB.
Ergänzung ()

Maxysch schrieb:
Das waren damals noch Zeiten wo man so was für 200€ bekommen hat :cheerlead:
Hm hat man nicht, ein Bruchteil der Leistung mit achtfachem Verbrauch hat über 1000€ gekostet.
 
  • Gefällt mir
Reaktionen: conglom-o
FrankN84 schrieb:
Vielleicht hattet ihr mit der "MSI GeForce RTX 4060 Ventus 2x Black" ein Montagsmodell bekommen? Lautstärke, Temperatur u. Verbrauch passen absolut nicht zum winzigen Chip.
Bei MSI ist man sowas eigentlich gar nicht gewohnt..
Oder man hat dort kräftig Einsparungen beim Kühlsystem vorgenommen. Das wird dann wohl nur ein teardown zeigen können.
Hardware Unboxed und TechPowerUp haben die MSI Ventus 2X ebenfalls getestet und hatten ähnliche Temperaturen und Lüfterdrehzahlen wie ComputerBase. Denke also nicht, dass ComputerBase ein Montagsmodell hatte.
TechPowerUp hat die Karte auch auseinandergenommen, da wurde definitiv kräftig gespart.
Und auch bei MSI waren die günstigeren Custom-Designs gefühlt meistens eher mies, nur bekommen die Reviewer fast immer eine Gaming X Trio o.ä. zur Verfügung gestellt, die 100 € mehr kostet und bzgl. Temperaturen und Lautstärke super abschneidet.
FrankN84 schrieb:
Die amerikan. Kollegen von club386 hatten eine "Palit GeForce RTX 4060 Dual". Die wurde unter Last lediglich 63 Grad warm, bei einer Lautstärke von 33,9 db.
Quelle: https://www.club386.com/palit-geforce-rtx-4060-dual-review-nvidia-forges-a-different-path/
Die Lautstärkemessungen unterschiedlicher Reviewer sind fast nie direkt vergleichbar, weil gefühlt jeder anders misst. Sowas elementar wichtiges wie der Messabstand ist meistens eben nicht gleich.

Arne schrieb:
Das fünfte ist die Windforce und da stehen die Chancen gut dass das genauso Schrott ist wie die MSI.
Laut TechPowerUp ist die noch wesentlich schlimmer und schießt den Vogel komplett ab: Die Lüfter machen mit 3000 rpm einen Riesenlärm und trotzdem sind die Temperaturen ca. 10 °C höher. :evillol:

FrankN84 schrieb:
Da gebe ich Dir Recht. Einzelne Custom Designs gehen sogar in Richtung 400 €+
Wer soll sowas kaufen?
Das ist auch so ein Umstand, der mich nervt. Gerade bei den "günstigen" Nvidia-Chips sind Custom-Designs mit leisem Kühler oft schon fast so teuer wie die billigen Custom-Designs mit dem nächstschnelleren Chip. Offenbar ein weiteres Puzzleteil in der Upselling-Strategie.
 
  • Gefällt mir
Reaktionen: FrankN84, McTheRipper, Holgmann75 und 2 andere
Ich habe in meinem 3. PC eine Vega 56 mit 8 GB; gekauft im März 2019.
Würde gerne mal wissen, wieviel die 4060 gegenüber der Vega 56 mehr leistet nach 4 Jahren.
Die 8 GB in 2023 sind ein Witz. Im Frühjahr 2019 gab es auch schon das Speicher-Thema. Nvidia hatte damals nur 6 GB in dieser Grafikkarten-Kategorie. Deswegen hatte ich mich damals für die Vega 56 entschieden.

Ich würde die Vega 56 jetzt nicht austauschen wollen. Solange die Vega 56 läuft, läuft sie. Spiele hauptsächlich an den anderen zwei PCs. Und in WQHD, notfalls Full HD ist die Vega 56 noch ausreichend bei den meisten Spielen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
FrankN84 schrieb:
Das kommt darauf an, welche Spiele man spielt und ob man Regler bedienen kann. Das hab ich mir sagen lassen bzw. damit wird hier stets argumentiert.
Jo, das Argument mit den Games ist aber nicht passend. Wer Minecraft spielt braucht keine RTX 4060. Auch nicht für GTA5, WoW oder D4 in 1080p.

Die GPU wird als 1080p Karte beworben. AAA Titel werden damit aber schon Xmas 2024 nicht mehr laufen wie beworben und gewünscht. Und es braucht schon hochwertigere Spiele, denn nur die haben FrameGen & RT.

Es mag Szenarien geben, in welchen jemand aufrüsten muss und diese Karte explizit für seine Spiele reicht, jedoch ist glaube ich die Kundschaft welche sich einen PC nur für ihre 3 Lieblingsspiele kauft, oder eher "Indie Spiele zockt" (kein DLLS3 & RT), sehr überschaubar.

Bei einem Hardwarekauf steht abseits dessen was der Kunde damit machen möchte, auch immer die Frage im Raum "wie länge hält der PC dann". Selbst bei einem Bürorechner fragt doch der Senior den Saturn Mitarbeiter eventuell "Und geht damit dann später auch das neuste Windows?".

Deswegen gab es auch ein Update hier:

chrome_WPXHOGoxPm.png


Ich kann es mir nicht verkneifen: RTX 4070 12GB Besitzer werden sich noch wundern. Auch hier wird WQHD Spieler noch die VRam Problematik ihrer Karte einholen.

Es gibt dann noch die Fraktion der User die das selbst erkannt haben, aber dann mit "Ich upgrade eh alle 2 Jahre meine Grafikkarte." argumentieren. Alle 2 Jahre 600€ ausgeben ist aber nicht sinnvoll. Dann kauf doch gleich eine RTX 4080 und dann hast du jetzt viel mehr FPS und in zwei Jahren die gleichen FPS wie mit einer 5070.

Das Gebrauchtmarkt Argument, nur 2 Jahre benutzen und noch für gutes Geld verkaufen, funktioniert auch nicht. Auf dem Gebrauchtmarkt sind Speicherkrüppel nix wert. Siehe RTX 3070 8GB vs. RX 6800 16GB. Hier ist die Karte mit mehr VRam mehr wert, als der Speicherkrüppel der aber DLSS hat und schneller in RT ist (schneller war).
 
  • Gefällt mir
Reaktionen: AI94, Jan und Mcr-King
Ich wiederhole mich: kaufen kaufen kaufen und bitte noch den ETH test machen oder sind wir nicht in Sachen vram und Preis im Jahr 2021? Dann bitte wecken
 
Die Karte wäre halt echt unfassbar gut allein wegen dlss 3.0 und eine absolute Empfehlung wenn die 16 GB Speicher hätte, wäre sie das non plus ultra
 
SJAFNWEIF schrieb:
Und auch bei MSI waren die günstigeren Custom-Designs gefühlt meistens eher mies, nur bekommen die Reviewer fast immer eine Gaming X Trio o.ä. zur Verfügung gestellt, die 100 € mehr kostet und bzgl. Temperaturen und Lautstärke super abschneidet.
Ich hab mich ehrlich gesagt auch direkt gewundert dass ausgerechnet dieses Modell hier im Test ist. Ich finds aber grundsätzlich gut, auch die billigen Modelle zu testen und nicht nur die Spitzengeräte.
Das geht ja so weit dass man natürlich viele Reviews der 4060 Ti Gaming X Trio findet, aber nichts zu der Gaming X Dual Fan, die aus meiner Sicht aber viel interessanter wäre. Wobei da vielleicht auch die unsägliche Tatsache eine Rolle spielt, dass der Name der einen Karte komplett im Namen der anderen enthalten und somit kaum zu googlen ist - man hätte die ruhig Gaming X Dual nennen können. Das ist ja bei den Ti- und non-Ti-Varianten leider auch so, nachdem hier ja auch der Speicher als Such- und Filterkriterium wegfällt. Wenigstens 3060-12G-Reviews hat man dadurch ja recht einfach gefunden...

Screenshot 2023-06-29 011549.png

Die Tabelle zeigts ja auch schön, alles außer der Asus Dual mit Quiet Bios ist eigentlich nutzloser Elektroschrott. Wobei das vielleicht auch wieder nur meine Sicht als verwöhnter Westeuropäer ist. Und selbst die knapp 1.200 U/min sind eigentlich viel zu viel für die paar Watt Abwärme - die RX 7600 Strix läuft mit unter 800 U/min. Bei 170 Watt. So schwer ist das also eigentlich nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FGA und Holgmann75
SJAFNWEIF schrieb:
Die Lautstärkemessungen unterschiedlicher Reviewer sind fast nie direkt vergleichbar, weil gefühlt jeder anders misst. Sowas elementar wichtiges wie der Messabstand ist meistens eben nicht gleich.
Die haben ja auch Vergleichskarten mitgetestet. Unter anderem eine 3060Ti FE.
Die machte bei CB 37 dB(A). Also wird die 4060 irgendwo bei 35db(A) liegen und das bei weit unter 70 Grad.
 
Sehr enttäuschend. Nichtmal gut genug um 1440p zu testen.

Auch die Energieeffizienz kann mich nicht überzeugen. Wenn ich in 1080p spielen will kaufe ich lieber einen mini-pc mit 7040 AMD APU. Der is gut genug für alte Spiele und selbst neue sind spielbar auf mittleren Einstellungen. Ein Mini-PC ist auch perfekt für office,video und browsing. Das ist richtiges Stromsparen!
 
  • Gefällt mir
Reaktionen: Mcr-King
nach mehreren test ist die Leistung recht inkonsistent
mal gewinnt die rtx4060 vs rtx3060 12gb um 20% mal gleich schnell und mal verliert diese.
Das wäre mit 20gbps nicht so

vertraue ich meiner tf analyse war klar das die rtx4060 trotz 8gb gewinnen wird aber die Bandbreite wird zum Problem.
Noch reicht diese in den meisten spielen auf 1080p nicht zu limitieren.
Was mich aber wundert ist wieso nvidia den ad107 mit 48rop 128bit und 96tmu herstellt
Das macht kein Sinn das sind teile des chips die sich kaum shrinken lassen
Ich ahne das der ad107 eigentlich ein cut ad106 ist und lediglich in der firmware als ad107 benannt wurde.
 
  • Gefällt mir
Reaktionen: Mcr-King
Maxysch schrieb:
Kannst mir sagen was du damit meinst?
Dass man damals eine RTX4060 Leistung nicht für 200€ bekommen hat, sondern selbst 1000€ Karten wie die TITAN X deutlich schwächer waren.
Sie also nicht einfach teurer wurden, sondern jetzt hunderte Prozent Performance, Effizienz und Speicher 4free bieten. Die RTX3050 gibt es um 200€, warum siehst du die nicht als Nachfolger für z.B. GTX660, dann passt es vom Preis.
 
SJAFNWEIF schrieb:
Laut TechPowerUp ist die noch wesentlich schlimmer und schießt den Vogel komplett ab: Die Lüfter machen mit 3000 rpm einen Riesenlärm und trotzdem sind die Temperaturen ca. 10 °C höher. :evillol:
Interessant was da so für Kühler verbaut wurden. Während bei den 4070 fast schon überdimensionierte Kühler verbaut wurden, hat man hier echt die Minimallösung. Eine einzelne Heatpipe, keine vernünftige Baseplate und der Radiator selber ist auch nicht gerade riesig.
 
Typisch Windforce eben, die Dinger waren schon immer Schrott, wie eigentlich so vieles bei Gigabyte (Grafikkarten).
 
syfsyn schrieb:
vertraue ich meiner tf analyse war klar das die rtx4060 trotz 8gb gewinnen wird aber die Bandbreite wird zum Problem.
Woran machst du das fest? Eine 4060 TI hat kaum mehr Bandbreite ist aber deutlich schneller. Der Cache ist schwer einzuschätzen. Da gibt's nur als Anhaltspunkt die Daten von AMD zu RDNA2.
syfsyn schrieb:
Was mich aber wundert ist wieso nvidia den ad107 mit 48rop 128bit und 96tmu herstellt
Das macht kein Sinn das sind teile des chips die sich kaum shrinken lassen
Zumindest das TMU:SM Verhältnis ist doch konstant innerhalb der Reihe.
ROP ist in der Tat merkwürdig. Man liest zwischendurch auch immer mal wieder von 32.
syfsyn schrieb:
Ich ahne das der ad107 eigentlich ein cut ad106 ist und lediglich in der firmware als ad107 benannt wurde.
Ne, gibt ja Bilder von der GPU.


@jackii
Das nennt man eben Fortschritt. Wenn man jedes Performance plus jedesmal bezahlen müsste, wären wir ja schon bei den Grafikkartenpreisen in Regionen von Eigenheimen.
 
  • Gefällt mir
Reaktionen: McTheRipper, Viper2000 und Holgmann75
Leistung ist immer von den technischen möglichkeiten abhängig bsp
2008 war mehr als 1,1tf undenkbar
Das lag an dem Fertigungsprozess der maxed nur 1ghz erlaubte in 55nm
Damals war das die gtx285
trotz 1,5ghz shadertakt kamen um die 1000gflops raus
Das low end war damals 2008 ne 9500gt mit nur 144gflops = 0,14tf
Die mid class 9800gt mit 500gflops 0,5tf

Erst die 45nm chips mit gtx40 serie brachte quasi ne verdoppelte leistung
High end damals gtx580 mit 1,9tf beinahe doppelte Leistung vs der tesls2 arch nur durch den prozessnode
der einstieg war doppelt so gut bei fasst gleichen preis.
Die mittelklasse war so schnell wie der Vorgänger zum halben preis.

Das erste mal wo der Nachfolger teurer wurde als der vorgänger aber versteckt war gtx600 serie 2012 wo ein mittelklassen chip als high end verkauft wurde.
Korrigiert zum teil mit der gtx700 gen 2013
Und 2014 mit der gtx 900 serie nochmals preise angestiegen sind bei quasi gleicher Leistung.
Erst 2016 mit 16nm wurde wieder die leistung quasi verdoppelt bei gleichen preis.
2018 war wieder stillstand 12nm node
2020 war ne Anpassung gedacht wurde aber von der mining krise komplett umgeworfen samsung 10nm akä 8nm
2022 bisher ist wieder ne Frechheit an preisen 5nm node
Und aktuell regelt der markt die preise zurecht wie sie normalerweise ohne mining gewesen wären
Korrektur wird als frühestens 2024 kommen spätestens mit 2025

Wieso das so gekommen ist liegt an der Konkurrenz
Dem Markt Umfeld, mining hat hier einiges umgeworfen
Und zuletzt an nvidia anderen Geschäften und aktuell Hoffnung AI das wird aber definitiv sinken.
Das weis auch nvidia, Ai ist derzeit ein kurzzeitiger gewinn da man große firmen dafür einspannen kann bis diese eigene Lösungen entwickeln.
Und davon ist auszugehen. Darum wird nvidia ab 2025 nach deren plan eine neue gen auflegen vermutlich ada refresh in n4 mit billigeren preisen.
Erst n2p 2026 2027 wird nvidia mit einer neuen arch kommen am desktop.


Die aktuelle Lage hatte andere Ursachen als gier.

chipkrise mining nachfrage und Lieferengpässe wegen pandemi.

jetzt herrschen die preise die eigentlich 2021 hätte sein müssen.
Und 2023 die neue gen bei gleiche preislevel geblieben wäre. Also die situation wie 2016
Das hat sich verzögert auf 2025

Ich wüde sofort nen Pc zusammenstellen bei den preisen aktuell bedenkt man die konsolen entwicklung wird es bis 2025 keine signifikante Steigerungen geben an der anforderungen von
1080p ab 5tf bis 10tf 48rop
1440p ab 13tf bis 22tf 64rop
2160p ab 30tf bis 50tf ab 112 rop

Die Leistungsanforderungen werden ab release der ps5 pro ansteigen auf quasi 60% mehr mehr tf pro Auflösung.
Das wird aber erst 2026 oder 2027 sein wen die meisten Entwickler das als basis anwenden
Aktuelle basis ist ps4 pro (5tf) bald ps5 (10tf)
Derzeit läuft die software Entwicklung langsam ab abseits dxr was die Anforderung verdoppelt die aber erst in der ps6 durchgehend genutzt werden das wäre ab 2028 so weit.
Darum würde ich mir abseits den eigene Wünschen an Auflösungsziel und Rechenleistung für alles andere sofort nen pc bauen. ich habe drei die völlig reichen
 
Zurück
Oben