Test Nvidia GeForce RTX 4060 im Test: Die neue kleinste RTX 4000 unabhängig analysiert

Killerattacks schrieb:
Das liest sich so als würden wir nicht den Leistungseinbruch in 1440p und erst recht 4K beobachten den wir sehen und es so z.B. bei der 3060 nicht gab.
Das liest sich als hättest du gar nicht verstanden was ich geschrieben habe.
In 4k ist ja auch die effektive Bandbreite geringer als bei 1080p.

Das Businterface ist alleine aber völlig egal. Das ist wie die Geschwindigkeit eines Autos anhand der Anzahl der Zylinder festmachen zu wollen.

Abseits dessen wäre ich an Tests interessiert die zeigen, dass die Bandbreite das Problem ist und nicht andere Parameter wie zum Beispiel die Speichermenge.
 
Danke für den Test. Aber mich hätte auch brennend interessiert, wie hoch der Leistungsverlust der 4060 noch einmal zusätzlich ist, wenn man die Karte auf einem Brett mit PCIe 3.0 betreiben müsste. So wie ich z. B.:D Aber ist auch egal, da ich sowieso die Finger von dieser überteuerten Karte lassen werde.
Ich finde es einfach nur traurig, was AMD und Nvidia da in den letzten Jahren an Karten für den Einsteigerbereich abliefern.
 
Die Lautstärke der Ventus ist ja ein Witz, so wenig Abwärme und dennoch laut. Ich hoffe das der Absatz für diese Karte möglichst gering bleibt damit solche Aktionen nicht unterstützt werden.
 
  • Gefällt mir
Reaktionen: Monarch2 und Discovery_1
sarge05 schrieb:
Mitlerweile gibt es immer mehr Titel, wo die 4060 ti, 4060, 3070 usw abkacken... In QHD sowieso, aber auch immer öfter in FHD
Last of Us, Plague Tale, Hogwarts...

1688041752188.png


Was zu Matchtexturen führt (hogwarts)
1688041840700.png


oder halt bis zur unspielbarkeit führendes Stuttering...
1688041908846.png



Jetzt schon keine einzellfä#lle.... Und der kastrierte PCIE Link, verschärft das Problem noch wie man bei der 4060 sehen kann....
1688041297556.png


Nichts was man mit den Schiebereglern in den Griff bekommen könnte.... aber gerade runtergedrehte Texturen machen halt den "mehrwert" von DLSS oder auch RTX schnell zu nichte... Man bekommt Fakeframes und Inputlag für matschtexturen.... das ist halt wirklcih eine Mogelpackung die keiner haben will. Plötzlich wird eine 2 Jahre alte GPU von AMD, die RX 6700 (xt) zu besseren alternative erkoren....
1688042342334.png
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Gene Jackman, cruscz und Draco Nobilis
Arne schrieb:
Anhang anzeigen 1371041
Die Tabelle zeigts ja auch schön, alles außer der Asus Dual mit Quiet Bios ist eigentlich nutzloser Elektroschrott. Wobei das vielleicht auch wieder nur meine Sicht als verwöhnter Westeuropäer ist. Und selbst die knapp 1.200 U/min sind eigentlich viel zu viel für die paar Watt Abwärme - die RX 7600 Strix läuft mit unter 800 U/min. Bei 170 Watt. So schwer ist das also eigentlich nicht.
Ich wollte hier eigentlich noch dazu schreiben, dass ja immerhin jetzt auch die Billigkarten alle nen zero-fan-Modus haben, und dann kommt PNY um die Ecke mit noch nutzloserem Elektroschrott...
 
DJMadMax schrieb:
Das ist mir auch aufgefallen, aber spontan musste ich da an unsere Diskussion bezüglich der Leistungsaufnahme der RTX 3060 Ti bei 144 FPS-Limit denken - du erinnerst dich sicherlich. Ich merke (sowohl bei deinen Artikeln, als auch bei eigenen Tests) immer mehr, wie komplex und teilweise leider auch unzuverlässig (im Rahmen, zum Glück) es ist, den Energiebedarf einzelner Komponenten bei einzelnen Aufgaben und Teillasten zu ermitteln.
Ja, Teillast zu messen ist ein verdammtes komplexes Ding, wo schnell immer Dinge reinspielen, die man gar nicht bedacht hat - und das ganz gerne dann mal nur bei wenigen der getesteten Produkten, sodass man das Problem erst merkt, wenn man schon weit beim Testen ist...

Vermutlich werden wir die Teilllast-Test noch einmal überarbeiten. Aber im Moment ist das nicht mehr als ein Plan, weitere Details weiß ich selbst noch nicht. Das wird wieder ein elendes Herumprobieren...
Cerebral_Amoebe schrieb:
DLSS 2 konnte mich bisher in Full HD nicht überzeugen.
Auch Upsampling braucht Auflösung und selbst DLSS kann in Full HD sicherlich schnell problematisch werden - und mehr als Quality kann da da wirklich nirgends empfehlen. Ich sehe Upsampling in Full HD auch eher nur als Notlösung an (darauf wird auch im Artikel hingewiesen), erst mit höheren Auflösungen lohnt sich das das so richtig, auch qualitativ. In WQHD fängt es an, in Ultra HD können DLSS und FSR dann so richtig glänzen.
 
  • Gefällt mir
Reaktionen: DJMadMax, MrHeisenberg, Gortha und eine weitere Person
Killerattacks schrieb:
Das Speicher Interface ist nicht schlechter, dank des Caches.... Du hast zwar einen schmaleren Bus, das ist richig.... durch den viel größeren Cache, ist er tatsächlich nicht zwingend schlechter... weil viel weniger Daten hin und hergeschaufelt werden müssen.... In der Praxis...
Gibt nen guten Beitrag von Igor dazu....

Aber was halt wirklich bleibt sind die 8GB und der PCIE x8 Link....

immer Mehr spiele wo diese 8gb nicht reichen. Und die Konsole, wo die meisten Spiele konzepiert werden, hat mehr (V)Ram zur verfügung, was bedeutet, das Spiele wo man auf Matsch textruen runterschrauben darf nicht weniger werden sollten.
Dazu kommt noch der PCIE Linke, was für Aufrüster mit PCIE3.0 nen Schlag ins gesicht ist....
1688043140960.png


Mir wird wohl wirklich nichts anderes übrig bleiben als auf die 6800xt um zu sattlen... Eigentlich wollte ich auf GPU mit der ich RTX wiedergeben kann.... Aber nVidia will mein Geld nicht, oder es müssen solche abstriche bei Ram & co gemacht werden, die ich nicht bereit bin zu machen. Ich brauche keine Fakeframes und inputlag (DLSS3)... und 1k möchte ich auch nicht ausgeben.... aber weiter 2 Jahre zu warten und zu hoffen das nv dann mit dem Ada nachfolger etwas raushaut, was QHD und rtx kann und das bezahlbar....

Dann bleib ich wohl bei AMD.... für RT ist es halt leider noch zu früh... Bis 2025 macht es mein rx 480 aber auch nicht mehr, und dann habe ich zumindest QHD.
1688042879607.png
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: McTheRipper
@Discovery_1 es wurde schon getestet und teilweise kostet das bei manchen Spielen der pci express 3.0 bis zu 6% an leistung. Da bleibt also sogar dann noch weniger plus gegenüber der rtx 3060 übrig wie es scheint. Mir kann das ebenso egal sein weil interessant ist es für mich ohnehin nicht wie ich es so epfinde(finde)
 
guggi4 schrieb:
Grundsätzlich wär es ja ziemlich egal, ob die Karte 115w oder 130w braucht.
Nachdem man mit den 130w die 7600 aber gerade so in Raster schlägt und davor noch schön mit den 115w auf den Folien vorgerechnet hat, wieviel man da nicht spart, hat das schon einen seeehr fahlen Beigeschmack.
So genau wie bei anderen Karten wird der Verbrauch nie stimmen, weil man sich den Shunt und den entsprechenden Controller eingespart hat (war bei 330€ wohl kein Budget mehr übrig :lol: ), jetzt wird eben mehr oder weniger genau geschätzt. Konstant 20w zu wenig zu schätzen ist aber entweder technisch gesehen absolut peinlich umgesetzt oder das Ganze passiert mit Vorsatz.
Richitg... Da gibt es keine "verschwörung" die das so oder so macht.... . Da geht der Manger zum Ingeneur und sagt "das darf die Karte kosten"... und Grundlage ist der Marketshare, Kenzahlen der Aktionäre usw.... . Weil nvidia, mit ienem Marktanteil von 80, 70% sehr gut aufgestellt ist.... kann man halt wirklich alle Produkte auf "Kuhmelk Modus" stellen....
Das Marketing, was das Zeug, egal was für eine Roze es ist, dann verkauft, kommt dann am Schluss. Die karte wird vermutlich innerhalb der nächsten 2 Jahre , nicht bevor die letzte 3060 ti rausverkauft wurde, im Preisfallen... Laut Igor würden ja viele Boardpartner jetzt schon gerne runter, aber Sie dürfen angeblich nicht... Willkommen im praktischen Monopol....
 
Bin vor einer Woche von einer RX470 auf eine RX6650XT umgestiegen. Schöne Karte. Bin damit zufrieden.
Reicht für den Moment und macht was sie soll.
Die RTX4060 fällt auch in diese Kategorie. Eine Einstiegs/Mittelklassekarte für den Gelegenheitsspieler leider zum Preis einer Premiumkarte vor 10/15 Jahren.
MfG
 
Balikon schrieb:
Intel Arc A380, wenn das tatsächlich Dein Hauptanspruch ist, ab 150 Euro.
Intel Arc 750, wenn Du noch ein wenig spielen willst, ab 240 Euro.

Kannte ich gar nicht, danke.
Es scheint aber mehrere Probleme damit zu geben, wenn man den Reviews glaubt.
Außerdem kein DLSS 3.0 (was aber unwichtig ist)
 
Zuletzt bearbeitet:
DefconDev schrieb:
Die Preise sind viel zu hoch fürs Einsteiger-Segment. 6 Jahre nach einer 1080 ti erhalten wir dieselbe Leistung mit einer 4060.
Finde ich jedenfalls etwas mau.

Die GTX 1080 Ti entspricht von der Leistung her der 3060 12GB.
Die GTX 1080 Ti kostete 2017 UVP 819 Euro, die RTX 4060 heute 329 Euro!

"Früher" galt als Mittelklasse eine Leistung von 40 bis 65 FPS bei Full HD, heutzutage ist man mit 60 bis 80 FPS (FHD) nicht zufrieden.
Die "Mittelklasse" GTX 1060 kostete zum Zeitpunkt des Erscheinens der GTX 1080 Ti stolze 250 bis 300 Euro, je nach Modell.
 
  • Gefällt mir
Reaktionen: thuering, Gortha und CiX
ThirdLife schrieb:
Je nach Game-Engine und Alter kann die 4060 mal mehr liefern, mal auch schlechter (höhere Auflösung, älteres Game).
Die Spiele die du aufgelistet hast und auf die sich die Benchmarks beziehen sind doch alle ältere Games oder übersehe ich da was?
 
Revan1710 schrieb:
Schneller und effizienter als eine 6700 XT bekäme man mit einem Navi 32 ohne Probleme hin. Zumindest ganz sicher etwas runderes als der lauwarme Aufguss, der die 6750 XT ist
Die 6750XT ist ja nicht sooo schlecht, sie ist halt zu teuer, wie fast alles auf der IT Dank Covid. Igors vermutete Werte einer 7800XT sprechen aber nicht für die 7700XT, außer AMD haut die zum Kampfpreis raus.
Ich würde gerne auf mehr VRAM und Leistung aufrüsten, aber die Preise sagen NEIN. Und mit einer 6900XT liebäugle ich ebenso, aber möchte ungerne die 275W TDP überschreiten, da 550W Gold Netzteil
 
  • Gefällt mir
Reaktionen: Revan1710
Gravlens schrieb:
Die Spiele die du aufgelistet hast und auf die sich die Benchmarks beziehen sind doch alle ältere Games oder übersehe ich da was?
Ist jetzt die Frage was man als alt in dem Kontext bezeichnen will. Witcher 3 (2015) finde ich alt ggü. Hitman 3 (2021) oder Far Cry 6 (2021) oder eben AC Valhalla (2020).
 
lynx007 schrieb:
Der "Hass" über die Karte nimmt kein ende...

Scheinbar wurde bei der 4060 bei manchen Modelen derart an den Bauelementen gespart, das die von der Karte ausgelesenen Verbrauchswerte sehr weit von real Werten unterscheiden. So säuft Karte säuft bis zu 18%, 130 Watt unter Last, und sie soll auch sehr viel im im Idle saufen, 50 Watt....

Anhang anzeigen 1371070

@Wolfgang War das bei euch auch Thema?
Erinnert mich an den Abgang von EVGA..
Margen sinken, also spart man. Kunden sind die benachteiligten.
 
Zurück
Oben