Test Nvidia GeForce RTX 4060 im Test: Die neue kleinste RTX 4000 unabhängig analysiert

Cerebral_Amoebe schrieb:
DLSS 2 konnte mich bisher in Full HD nicht überzeugen.
Dito. Zwar gehe auch ich hier den "einfachen" Weg und schieße Screenshots und vergleiche diese, aber in den meisten Spielen fällt es auch so schon direkt nach dem Verlassen des Grafikmenüs auf, dass zumindest im Stand das Bild doch deutlich unschärfer als bei nativem Full HD wird.

In 1440p wandelt sich das Blatt dann. Ich habe zwar nur natives Full HD am Gaming PC (Projektor), aber dank der Treibermöglichkeiten kann man ja auch Upsampling mit Downsampling verbinden - der Treiber gaukelt der Grafikkarte also vor, es sei doch ein WQHD-Monitor (oder gar 4K UHD) angeschlossen.

Da muss ich dann sagen, bestanden bisher in meinen Tests keinerlei Unterschiede bzw. wenn, dann nur bessere Ergebnisse "mit" DLSS (Quality) gegenüber der nativen Auflösung.

Zu deinem Wunsch nach Full HD-Vergleichen:
https://www.computerbase.de/artikel/grafikkarten/god-of-war-fsr-2-0-dlss-test.80707/

Hier z.B. hast du auch Full HD-Fotos als Vergleich dabei. Aber ja, in Hogwarts Legacy z.B. gab es nur noch das native Full HD-Foto, kein Upsampling desselben :(
 
  • Gefällt mir
Reaktionen: Cerebral_Amoebe
Killerattacks schrieb:
... welcher auch noch mit einem schlechteren Speicherinterface angebunden ist. Einfach unvorstellbar.
Könnte daran liegen, dass das Speicherinterface eben vollkommen egal ist. Es kommt auf die effektive Speicherbandbreite an.
 
Zimmbo schrieb:
@Wolfgang
Stimmen die Werte von der 4070? Erscheint mir etwas komisch, das die 4070 in Full HD nicht einmal 50 Watt braucht, um dann bei doppelter Auflösung 200 Watt, also das vierfache zu ziehen? Wohlgemerkt FPS-limitiert.
Wolfgang schrieb:
Die Werte sind bei der 4070, jedoch treffen da wohl ein paar Dinge in dem Testszenario zu, die so normalerweise auch bei einer RTX 4070 nicht passieren. Das ist etwas unglücklich, ist in dem Szenario aber so.

Vermutlich weil das FPS-Limit bei 1440p & 4k 144Hz ist? (2560*1440) / (1920*1080) = 1,77..., danach dürfte der Stromvebrauch unter 1440p max 43*1,77= 76W sein, da es aber plötzlich 198W sind: 43W/60Hz*144Hz*1,77= 182W .. Beim 4070 Test damals wurde Doom FPS-Limit von 144Hz verwendet .. sollte im Artikel entsprechend ergänzt werden. Mir wäre ein FPS-Limitierter Test bei 1440p/4k@60Hz lieber, gibt ja jede Menge Leute die auf einem billigen 4k-Fernseher in 1440p/4k spielen.

Edit: Es wäre auch sinnvoll bei den Watt-Angaben bei MaxFPS & FPS-Limit anzugeben wieviel FPS die Karten dann geschafft haben. Auf Seite 2 des Artikels wurde Metro-Exodus Enhanced (RT) getestet, auf Seite 3 bei "Leistungsaufnahme beim Spielen" dann aber nur Metro-Exodus - diesmal vermutlich ohne RT, denn auf Seite 2 erreicht z.B die 4060 50Hz, bei "Leistungsaufnahme beim Spielen" max FPS verbraucht sie 126W, mit FPS-Limiter dann 100W .. wieso plötzlich weniger wenn sie sowieso nur 50FPS schafft, daher meine Vermutung das es zwei komplett andere Tests waren.
 
Zuletzt bearbeitet:
Artikel-Update: Wie angekündigt hat die Redaktion nach der MSI GeForce RTX 4060 Ventus 2x Black nun auch die ebenfalls 329 Euro teure PNY GeForce RTX 4060 Verto in den Test aufgenommen. Weil es sich wie bei der Ventus 2x um ein auf einen maximal niedrigen Preis optimiertes Design handelt, fallen auch die Messwerte ähnlich aus. ComputerBase hat den Artikel auf mehreren Seiten angepasst und mit ein paar Informationen sowie Messwerten zur PNY GeForce RTX 4060 Verto gefüttert.

Der CB-Funk Podcast zum Test
Darüber hinaus haben sich Fabian und Jan in der heute veröffentlichten Episode #26 von CB-Funk – der ComputerBase-Podcast dem Test der GeForce RTX 4060 sowie der sie begleitenden Marketing-Kampagne noch einmal im Detail angenommen. Wer also nicht nur gerne Benchmarks zum Durchklicken, sondern auch Analysen und Hintergründe auf die Ohren mag, der kommt in dieser Folge auf seine Kosten.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]

CB-Funk lässt sich nicht nur über den eingebetteten Podigee-Player abspielen, sondern auch bequem direkt in den Podcast-Apps eurer Wahl abonnieren und hören. Verfügbar ist der ComputerBase-Podcast auf Spotify, Apple Podcasts, Google Podcasts, Amazon Music und Deezer.

Nvidia GeForce RTX 4060 8 GB kaufen
 
  • Gefällt mir
Reaktionen: Otorva, Cerebral_Amoebe, cookie_dent und 3 andere
Schade, dass das PCIe-Interface nur am Rande erwähnt wird und in den Tests unberücksichtigt bleibt.
PCIe 4.0 gab es erst ab der 11. Gen bei Intel bzw. ab Ryzen 3000 bei AMD.
 
  • Gefällt mir
Reaktionen: Killerattacks
bensen schrieb:
Könnte daran liegen, dass das Speicherinterface eben vollkommen egal ist. Es kommt auf die effektive Speicherbandbreite an.
Das liest sich so als würden wir nicht den Leistungseinbruch in 1440p und erst recht 4K beobachten den wir sehen und es so z.B. bei der 3060 nicht gab.
 
Für 330€ gibts also nicht einmal einen Fanstop im idle bei der PNY :freak:
 
Weiß jemand auf welchem Leistungsniveau die 2070 oder 2080 liegt.
In keinem mir bekannten Test kommen diese Karten vor. Vor allem die 70er Serie wurde ja immer gerne gekauft.
 
Und next. Wer kauft solche Karten? Der informierte Endkunde wohl nicht. Wirklich traurig, was in dieser gen so geboten wird.
 
Cerebral_Amoebe schrieb:
Ich bin mal auf die realen Benchmark-Ergebnisse gespannt, wenn der Verbrauch bei 115W liegt ;)

Wenn die Custom-Hersteller die schon für 289€ anbieten wollten ...
Da soll nicht mehr viel zu holen sein, was ja das komische ist. Man kann das Powertarget natürlich runterdrehen, sie soll aber nicht wirklich effizenter werden. SIe ist schon so runtergespart, weniger Strom für Frame, soll nicht gehen.

Und laut Igor soll sie erst billiger werden, wen die 3060ti nicht mehr angeboten wird, das soll aber noch bis September der fall sein. So ergibt die Preisleiter auch sinn.... man möcht keine konkurenz im eigenen Haus.

1688039363903.png
 
lxmichi schrieb:
Weiß jemand auf welchem Leistungsniveau die 2070 oder 2080 liegt.
In keinem mir bekannten Test kommen diese Karten vor. Vor allem die 70er Serie wurde ja immer gerne gekauft.
die 4060ti und 4060 sollten leistungstechnisch im Bereich der 2070 und 2080 liegen. Mal angenommen, es gäbe solche Tests, die Leute würden sofort sehen, wie schlecht die aktuelle gen ist. Ne 2080 hab es damals für 500€. Die galt damals als totaler Preistreiber. 5 Jahre später werden dieselben Karten zu ähnlichem Preis verkauft und sollen Einstiegsmodelle darstellen (Ja, die Inflation ignoriere ich).
 
  • Gefällt mir
Reaktionen: Monarch2 und lxmichi
NoNameNoHonor schrieb:
Kann ich nicht bestätigen, zumindest was FSR 2 angeht. Diablo 4 sieht nativ besser aus als mit eingeschaltetem FSR 2, und ich spreche aus eigener Erfahrung (also nicht irgendwo angelesen).
Welche Auflösung?
FSR2 generell weniger Quali als DLSS2.
Also Äpfel und Birnen.

"

DLSS 2 vs. FSR 2: Bildqualität im Vergleich​


In Diablo IV haben sowohl DLSS als auch FSR einen regelrechten Glanzauftritt, denn beide Techniken umschiffen die sonst üblichen Probleme bei voller Ausnutzung der zu erwartenden Vorteile. Im Ergebnis können DLSS und FSR in der Einstellung „Qualität“ bei dem ein oder anderen Objekt gegenüber der nativen Auflösung die Details etwas feiner herausarbeiten und zeigen davon abgesehen die identische Bildschärfe bei höheren FPS. Erst mit dem Performance-Preset fällt sie minimal bis leicht ab, bleibt jedoch auf einem hohen Niveau.


Die Bildstabilität ist mit DLSS und FSR ebenfalls durchweg besser als mit der nativen Auflösung. Ganz egal ob Ultra HD oder Full HD die Zielauflösung ist oder ob mit dem Quality- oder dem Performance-Modus gearbeitet wird: Das temporale Upsampling von AMD und Nvidia liefert ein ruhigeres Bild als das spieleigene TAA. In UHD ist das Ergebnis in beiden Fällen als quasi flimmerfrei zu bezeichnen.


Bereits gegenüber der nativen Auflösung schneiden DLSS und FSR sehr gut ab, beim Vergleich derselben Renderauflösung (nativ vs. Zielauflösung) sind beide Technologien dann weit überlegen: Ultra HD mit FSR/DLSS auf „Performance“ (also vor dem Upsampling in Full HD gerendert) sieht weitaus besser aus als die native Full-HD-Auflösung, die unscharf ist und darüber hinaus flimmert. Selbst gegenüber der nativen WQHD-Auflösung ist das Upsampling besser.
" https://www.computerbase.de/artikel...tt_amd_fsr_2_und_nvidia_dlss_2_in_der_analyse
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lxmichi
Also betrifft die zu hohe Leistungsaufnahme alle Karten. Wäre ich jetzt schwurbler würde ich ein Muster erkennen und behaupten dass es Absicht war um die 7600 gerade noch zu schlagen und würde das als Betrug am Käufer bezeichnen. Aber es wird wohl ein Bug zur richtigen Zeit sein nicht?!
 
  • Gefällt mir
Reaktionen: Enyo79
lxmichi schrieb:
Weiß jemand auf welchem Leistungsniveau die 2070 oder 2080 liegt.
In keinem mir bekannten Test kommen diese Karten vor. Vor allem die 70er Serie wurde ja immer gerne gekauft.
3060 und 2070 sind dasselbe Niveau, mit Vorteilen im einstelligen Prozentbereich für die 3060.
 
  • Gefällt mir
Reaktionen: lxmichi
lxmichi schrieb:
Weiß jemand auf welchem Leistungsniveau die 2070 oder 2080 liegt.
In keinem mir bekannten Test kommen diese Karten vor. Vor allem die 70er Serie wurde ja immer gerne gekauft.
Hitman 3 in 1080p Ultra:
4060 - 198fps
2080S - 188
2080 - 174
2070S - 167
2070 - 150

AC: Valhalla 1080p Ultra:
4060 - 110fps
2080S - 70
2080 - 66
2070S - 64
2070 - 56

Far Cry 6 1080p Ultra:
4060 - 115
2080S - 109
2080 - 108
2070S - 108
2070 - 103

Witcher 3 1440p Ultra:
2080S - 117
2080 - 111
4060 - 102
2070S - 102
2070 - 86

Je nach Game-Engine und Alter kann die 4060 mal mehr liefern, mal auch schlechter (höhere Auflösung, älteres Game).
 
  • Gefällt mir
Reaktionen: meisterkatzen, Draco Nobilis, Tornavida und eine weitere Person
Dai6oro schrieb:
Also betrifft die zu hohe Leistungsaufnahme alle Karten. Wäre ich jetzt schwurbler würde ich ein Muster erkennen und behaupten dass es Absicht war um die 7600 gerade noch zu schlagen und würde das als Betrug am Käufer bezeichnen. Aber es wird wohl ein Bug zur richtigen Zeit sein nicht?!
Grundsätzlich wär es ja ziemlich egal, ob die Karte 115w oder 130w braucht.
Nachdem man mit den 130w die 7600 aber gerade so in Raster schlägt und davor noch schön mit den 115w auf den Folien vorgerechnet hat, wieviel man da nicht spart, hat das schon einen seeehr fahlen Beigeschmack.
So genau wie bei anderen Karten wird der Verbrauch nie stimmen, weil man sich den Shunt und den entsprechenden Controller eingespart hat (war bei 330€ wohl kein Budget mehr übrig :lol: ), jetzt wird eben mehr oder weniger genau geschätzt. Konstant 20w zu wenig zu schätzen ist aber entweder technisch gesehen absolut peinlich umgesetzt oder das Ganze passiert mit Vorsatz.
 
  • Gefällt mir
Reaktionen: lynx007 und Dai6oro
Die Karte hätte eine 4050Ti für 270,- werden sollen, bestenfalls.
Ich glaube das wird nix mit ner neuen Graka bis Starfield rauskommt. Shit.
 
Für mich sind DLSS & Co. allenfalls Krücken, die die geringe Leistungsfähigkeit einer minderwertigen Karte zu kaschieren wissen. Aber es läuft ja für NVidia, warum also vom Kurs abweichen.
 
  • Gefällt mir
Reaktionen: Nobbi56 und Denniss
Zurück
Oben