Test Nvidia GeForce RTX 4060 im Test: Die neue kleinste RTX 4000 unabhängig analysiert

Der heimliche Preis/Leistung Sieger dieser Generation ist ironischerweise RDNA2.

RDNA3 und Ada können Preis / Leistung nicht mithalten, und wenn man von High-end absieht nicht einmal bei der Leistung alleine.
 
  • Gefällt mir
Reaktionen: anarchie99, danyundsahne und Mcr-King
Und wenn man bedenkt, das erst 2025 der Nachfolger von Ada kommt, ist vllt. ne RNDA2 mit üppig Vram
gar net soo verkehrt, ... ganz einfach weils länger reichen muss.
 
  • Gefällt mir
Reaktionen: Hate01 und Painkiller72
Nächstes Jahr hoffentlich kein Modell mit 4GB GDDR7! Spaß beiseite....

Irgendwie finde ich (die 4090 ist eine Ausnahme) die Generation irgendwie kein WoW-Effekt hat und dann noch teilweise manche Modelle wie diese sogesehen schlechter sind als die Vorgänger.

Naja mal schauen wenn Ende 2024 oder Anfang 2025 die nächste Generation erscheint und GDDR7 dabei haben. Hoffentlich sind diesmal die Hersteller nicht so sparsam mit VRAM.
 
  • Gefällt mir
Reaktionen: Painkiller72
GerryB schrieb:
Und wenn man bedenkt, das erst 2025 der Nachfolger von Ada kommt, ist vllt. ne RNDA2 mit üppig Vram
gar net soo verkehrt, ... ganz einfach weils länger reichen muss.
Ich kann mich noch an so einige Aussagen erinnern die noch nicht mal zwei Jahre her sind hier im Forum. Ja 8GB VRAM langen dicke noch für die nächsten Jahre. 🤪🤪🤪🥸🥸🥸

Ich hatte bis vor 13 Monaten auch noch eine RTX 2070 Super im PC mit der ich sehr zufrieden war. Es war 2020 ein 2 jähriger Ausflug ins Nvidia Lager weil ich mit RX5700 XT und vorher einer Vega 56 so leidvolle Erfahrungen sammeln durfte. DLSS und Raytracing waren sehr gute Erfahrungen mit der RTX 2070 Super

Nun werkelt seit 13 Monaten eine RX6800 im Referenz Design vom AMD im PC und ich vermisse wirklich gar nichts im Moment. Früher hat man öfters überlegt, welche sinnfreie Anschaffung man jetzt noch machen sollte für seine Kiste aber 'Mann' wird älter und das Geld auch immer knapper 😄😄😄

Die RX6800 ist für mich bis jetzt die beste AMD Karte die ich besitzen darf. Die wirklich letzten und genau so guten Erinnerungen an AMD hatte ich zuletzt mit der ATI 9600/9800er Serie und das ist wirklich schon sehr lange her 🙂
Die HD7950 war auch ne gute Erfahrung und dieser Klopper ist auch heute noch in einem PC von einem Kumpel in Betrieb. Auch schon wieder 11 Jahre alt die Karte aber sie ist nocht nicht gestorben oder musste gebacken werden.

Alles was ich sonst noch so von AMD besitzen durfte ist mir nicht wirklich im Schädel hängen geblieben. Ich habe mich immer versucht nach Preis/leistung zu orientieren und da ist mir AMD schon immer eher entgegen gekommen aber die Zeiten haben sich nunmal grundlegend geändert.

Jeder der eine RTX Karte der Vorgänger Generation besitzt oder eine RDNA2 Karte sein eigen nennt ist nicht wirklich genötigt auf die aktuellen Kartengenerationen umzusteigen.

Meistens ist es doch nur die Neugier die einem zum Kauf treibt oder ? 🫣🫣
 
Painkiller72 schrieb:
Ich kann mich noch an so einige Aussagen erinnern die noch nicht mal zwei Jahre her sind hier im Forum. Ja 8GB VRAM langen dicke noch für die nächsten Jahre. 🤪🤪🤪🥸🥸🥸
VRAM scheint hier der ultimative Schlachtruf zu sein. Eine GPU mit ausreichend VRAM und mieser Rechenleistung macht nichts spielbarer.
 
  • Gefällt mir
Reaktionen: thuering
Painkiller72 schrieb:
Die RX6800 ist für mich bis jetzt die beste AMD Karte die ich besitzen darf.
Falls Bedarf besteht, hier mal ein Bsp. zum UVen, ... ist auf 165Wtgp zugeschnitten.(x)
https://www.hardwareluxx.de/communi...h-dem-sweetspot.1297349/page-27#post-29876345


(x) Da hatte ich mal nach langer Zeit das UVing von Gurdi@Igorslab angeschaut, und ein bisschen auf meinen Chip/Güte zurechtgemacht.
https://www.igorslab.de/amd-rx-6800...ting-von-ueber-240-watt-bis-unter-180-watt/2/
(sein Setting vom IL-Review schafft mein Chip net stabil, ... sind natürlich jetzt auch ganz andere Treiber)
 
  • Gefällt mir
Reaktionen: Painkiller72
Fenkel schrieb:
Erwartest du auf diese dümmliche Frage eine Antwort? Grafiken vielleicht mal anschauen.
Sorry, war schon spät und ich habs echt nicht gesehen.
Gegen die 190 ms nativ sind 80 ms aber ein gewaltiger Sprung ;)
 
Fenkel schrieb:
VRAM scheint hier der ultimative Schlachtruf zu sein. Eine GPU mit ausreichend VRAM und mieser Rechenleistung macht nichts spielbarer.
Diese Zeiten sind seit gut 10 Jahren vorbei.
Dank DLSS und FSR erst recht, Heute geht den Karten der VRAM aus bevor der Chip zu langsam ist.
Über wenig RAM könnte man auch evtl. hinweg sehen wenn die Hersteller nicht auch noch das PCIe Interface verkrüppeln würden und so einen weiteren Flaschenhals einbauen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BOBderBAGGER
Der Chip kann nicht schnell genug sein und Texturendetails kann man reduziert, da habe ich kein Problem damit. Bin bis heute noch wunderbar mit 6 GB ausgekommen.
 
  • Gefällt mir
Reaktionen: Gortha und Fenkel
DJMadMax schrieb:
Selbstverständlich siehst du Pixelabstufungen, wenn du bei einem 22" FHD-Monitor ohne Kantenglättung arbeitest.
Man muss da ein ganz klein wenig unterscheiden: Je höher die DPI eines Monitores ist, um so weniger fallen "nicht" geglättete Kannten auf. Gleichzeitig gibt es aber auch bei ohen DPI-Zahlen Situationen, an denen sowas stark aufallen kann. Dann ist der Winkel der Kante entscheidend und das kann da sogar störend werden, wenn man entsprechende Versätze und Lücken in den Linien hat.

Das Beispiel der Hochspannungskabel hast du sehr gut dafür gewählt!
DJMadMax schrieb:
damals eher noch 16:10 (1920x1200) gängig.
Also 2006 fing die Zeit der 16:10 Monitore langsam an und eine gängige Auflösung war damals 1680 * 1050, die 1920 * 1200 kam erst noch ein Stück später. Man erkennt das auch gut an den Tests, sowohl CB, als auch andere, dass sich 16:10 in den Tests erst so 2008 "durch" gesetzt hat. Es ging dann aber sehr schnell auf 1920 * 1200 hoch, was dann aber durch FHD ersetzt wurde und man so um 2010/11 auch noch 2560 * 1600/1440 mit genommen hat.

Ach, war das eine schöne Zeit.
DJMadMax schrieb:
Bei FSR & XeSS muss man nochmal unterscheiden, hier fallen die Ergebnisse leider von Spiel zu spiel doch stark unterschiedlich aus.
Was auch bei DLSS der Fall ist. Man hat für alle Spiele Vorzeige-Titel, in denen sich die Entwickler sehr viel Mühe geben haben um die Technik zu implementieren und quasi auch alle möglichen erweiterten Tricks von FSR, XeSS und DLSS nutzen, oder es ist eine Minimal-Implementation, die entsprechend bescheiden läuft.
DJMadMax schrieb:
Dass DLSS oftmals nicht nur gleichwertige, sonder gar bessere Ergebnisse als interne Kantenglättung liefert
Was, wenn man sich die Algorithmen dahinter ansieht, auch nicht verwundert und was seit zig Jahren bekannt ist und in der Fotografie verwendet wird um hochauflösende Bilder zu errechnen, obwohl der Sensor so etwas garnicht zulassen würde.

Bei der Fotografie nimmt man ein Objekt mit mehreren Bildern auf, die leicht zu einander versetzt sind, dadurch steigt die Wahrscheinlichkeit, dass in jedem Bild andere Details enthalten sind, die man zusammen führen kann, und genau das macht sich DLSS2, FSR2 und XeSS zu nutzen. Supersampling, halt nur
Wolfgang schrieb:
Du verstehst temporales Upsampling nicht.
Temporales Upsampling ist ja auch reinstes Voodoo! Zumindest, wenn man nicht die grundlegende Techniken dahinter verstanden hat. Super-Resolution-Imaging ist dabei nicht mal Neu und die Verfahren da arbeiten unterschiedlich.

Es hat schon einen Grund, warum man auch bei DLSS und FSR2 sowie XeSS von Supersampling spricht. Hier wird halt anders als früher in der Fotografie aus versetzen Bilder, eben mit zeitlich versetzen Bildern gearbeitet.

DJMadMax schrieb:
Die Vinyldisukssion führt hier zu nichts und wurde (nicht nur im Internet) schon tausendfach geführt. Der Ausgang ist immer gleich: der Techniknerd beruft sich auf genau die Aspekte der Datenträger, die du genannt hast, der Purist beruft sich auf den vollanalogen Signalweg und seine 20.000 Euro Lautsprecherkabel mit linksrum gerührten Kupferatomen, ich verlasse mich hingegen gerne auf mein Gehör.
Die Diskussion bei Vinyl ist ohnehin vollkommen für die Katz. Will man den vollen "Dynamik"-Umfang, sind digitale Datenträger weit überlegen, während Schallplaten einen deutlich begrenzteren Umfang haben, weil hier darauf geachtet werden muss, dass die Nadel nicht aus der Spur springt.

Da wird sehr viel erzählt, wie du schön ausführst, und am Ende ist vieles nur Einbildungskraft. Das schöne an einer digitalen Kopie ist, wenn sie quasi vollständig neutral abgemischt wurde, dass man das Lied wirklich an die eigenen Vorlieben anpassen kann, wenn man den will.
 
  • Gefällt mir
Reaktionen: DJMadMax
GerryB schrieb:
Da hatte ich mal nach langer Zeit das UVing von Gurdi@Igorslab angeschaut, und ein bisschen auf meinen Chip/Güte zurechtgemacht.
(sein Setting vom IL-Review schafft mein Chip net stabil, ... sind natürlich jetzt auch ganz andere Treiber)
Ich hab damals das Video von IL auch angeschaut und das man mit dem MPT Tool da noch so einiges optimieren kann, aber ich hab es letztendlich gelassen eben weil es wegen der Chipgüte ne kleine Lotterie ist. Meine Karte ist im Wattman global so eingestellt

Wattman RX 6800 Global Profil.png


Einzig bei The Last of US Part I crasht der 23.5.2 immer wieder zurück auf den Desktop wegen schnellen VRAM Timings. Hier musste ich zurück auf Standard Settings. Bei meinen Einstellungen verbraucht die Karte nicht mehr wie 185 Watt bei WQHD und 120Hz Bildwiederholfrequenz.

Wattman RX 6800 Profil Last of Us P I.png


Du hast mich aber neugierig gemacht und eventuell probiere ich die Settings von Gurdi mal aus. Thanks for the Info.
 
  • Gefällt mir
Reaktionen: GerryB
shayenaaa schrieb:
1.) Ansprüche ans Gaming haben, ein mindest standard haben... (wenn man sich selbst liebt und schätzt, foltert man sich nicht mit ner 970gtx..)

2.) Bereitschaft Geld auszugeben

Lach, wir reden hier von den gleichen Leuten die eine Idris, Polaris, etc in ihrem Star Ciitzen Hangar haben deren Controller Sammlungen in der Regel irgendwo zwischen dem Preis einer 4080 oder jenseits einer 4090 liegen.

Es scheitert also ehr weniger an Anspruch oder Geld, sondern ehr daran das der Markt aktuell nichts liefert für das man jetzt die Grafikkarte Updaten müsste. Assetto Corsa, Squadrons, Mankind Remastered oder welche alten Games auch immer gerade gespielt werden, die laufen halt auch mit genug FPS ganz ohne in den letzten 10 Jahren eine GPU gekauft zu haben. ;-)
Die von uns die den MS Flightsim dann auch spielen oder VR, die haben dann meistens dann doch zumindest ein wenig was Neueres.

Wobei mir jetzt beim Einstieg ins Sim Racing dann das gleiche ebenfalls aufgefallen ist, läuft alles tadellos auf der antiken RX580. Also wird dann wohl das Cockpit erst mal ausgebaut und erst wenn ich auf VR wechseln kann, wird dann der Rechner halt ausgetauscht.


Wie gesagt, ist halt mein spezifisches Umfeld mit alten Leuten und Nerds ;-)
Falls Starfield gut ist und einen dicken Rechner braucht, kannst du davon ausgehen einfach gekauft wird was es braucht, ganz egal wieviel das kostet. Aber nur so zum haben … die Zeiten sind wohl bei den meisten in meinem Umfeld vorbei, besonders weil viele noch ihre alten Knochen haben an dehnen sie seit Jahren oder Jahrzehnten nagen und nur wenig anders spielen.

Da fallen mir gleich drei Renter ein, die seit Jahrzehnten fast nur Homeworld, Age of Empires 2 und einen komischen super teuren Train Simulator spielen.
Nicht weil sie unbedingt nur ein Spiel spielen wollen, sondern einfach weil ihnen das eine Spiel/Franchise halt mehr Spaß macht als was sie sonst so ausprobiert haben und sie weder Lust noch Zeit haben jetzt ständig neue Spiele zu testen, die dann eh nicht so gut sind, wie das was sie schon haben.

Der Markt ist halt in bestimmten Nischen einfach nimmer so aufregend wie er mal war. Deswegen ist ja Star Citizen so erfolgreich, ein Haufen Träume was sein könnte, für Leute die viel Geld, wenig Zeit und keinen Alternativen haben.

Aber klar, die Zielgruppe für Tripple A Spiele und die Grafikkarten die man dafür braucht, das sind wir wohl tatsächlich nimmer mehr. Es gilt halt nicht nur für Consolen das die Software die Hardware verkauft.
 
Zuletzt bearbeitet: (Wer hastig schreibt, schreibt vier mal.)
  • Gefällt mir
Reaktionen: Rockstar85
Grummelbart schrieb:
Sowas ist unlogisch. Warum sollte man, wenn man älter wird, seine Hobbies aufgeben? Ich höre doch auch nicht auf zu fotografieren, oder fange an nur alle paar Tage, für max. 1h, ein Buch zu lesen.
Weil ich weniger Freizeit und mehr neue/wichtigere Hobbies als früher habe. Früher als Single Student konnte ich locker 4h am Tag zocken :)
 
Mork-von-Ork schrieb:
Um da interessant zu sein müsste die 7700XT preislich auf jeden Fall unter 450€ liegen.
Genau daran glaube ich eben nicht, wenn sie schneller als die 4060 Ti sein wird. Die Mehrleistung und der größere VRam wird man sich eben auch bezahlen lassen. Man wirbt dann stolz damit wie die 7700 XT besser ist als die Konkurrenz.

Gegen die 6700 XT kann man dann wieder nur im UVP-Vergleich bestehen.
 
JMP $FCE2 schrieb:
Overwatch frisst nur in den höchsten Detailstufen unverhältnismäßig viel Leistung.

Details auf "Hoch", und Renderskalierung auf 100% (der Standardwert ist höher). Fällt beim Spielen nicht auf, und ist wesentlich genügsamer.

OW schaffte schon mit der GTX 960 120 fps auf "Hoch", damals allerdings noch in 1680x1050.
Full HD Epic, meine 1660 Super 92 statt 173 einer 4060.
Mein Monitor hat (noch) 144hz.
 
DevPandi schrieb:
gängige Auflösung war damals 1680 * 1050
Ach stimmt, die hatte ich ganz verdrängt (und selbst ne Weile genutzt). Wie im Beitrag schon erwähnt, das war aus dem Kopf abgerufen - da ging diese eine 16:10er Auflösung unter. Ich hatte mich aber beim Schreiben schon gewundert, dass ich da nur die 1920x1200 aufgeführt hatte, das sah so "leer" aus :D

DevPandi schrieb:
Was auch bei DLSS der Fall ist
Sind dir denn Titel bekannt, wo DLSS ab WQHD in der Quality-Stufe schlechter aussieht, als die native Auflösung mit Antialiasing?

Mir tatsächlich nicht, ich lass mich da aber gern eines besseren belehren. Bei niedrigerer Auflösung oder gar bei Balanced- und Performance-Preset muss hingegen aufgepasst werden, gar keine Frage. Wenn zu wenig Pixel zum Rendern/Zwischenrechnen vorhanden sind, kann auch nicht gezaubert werden. 4x 0 bleibt 0.

Das Beispiel mit der Fotografie im Vergleich zu DLSS/FSR/XeSS ist ganz passend - Pixel Binning heißt das Kind dort.
 
DJMadMax schrieb:
Sind dir denn Titel bekannt, wo DLSS ab WQHD in der Quality-Stufe schlechter aussieht, als die native Auflösung mit Antialiasing?
Es geht nicht umbedingt, dass die schlechter aussehen sondern dass sie zu bestimmten Artefakten - Ghosting z.B. neigen.

Ich hatte letzten mal das Vergnügen Cyberpunk 2077 mit DLSS zu spielen, die damalige Version war durchaus von Ghosting geplagt, während die FSR2.1 nicht hatte. Ich kann die "aktuellen" Verbesserungen in DLSS aber nicht nach prüfen! Daher keine finale Aussage.

Vielen dieser Artefakten, die dann das Bild trüben, kann man entgegen wirken, in dem man sowohl bei DLSS als auch FSR2 weitere Informationen bereit stellt - Object-Masken zum Beispiel - die dabei helfen sollen einige der Artefakte, die entstehen können, zu minimiere oder gar zu verhindern.
 
  • Gefällt mir
Reaktionen: DJMadMax
shayenaaa schrieb:
Ich tue mir den scheiss in 720p low quality nicht an sorry.
Mit solch dummer, übertriebener Polemik musst du dich nicht wundern, dass dich niemand ernst nimmt.
 
  • Gefällt mir
Reaktionen: Fenkel und msv
DevPandi schrieb:
Ich hatte letzten mal das Vergnügen Cyberpunk 2077 mit DLSS zu spielen, die damalige Version war durchaus von Ghosting geplagt, während die FSR2.1 nicht hatte. Ich kann die "aktuellen" Verbesserungen in DLSS aber nicht nach prüfen! Daher keine finale Aussage.
Ich CyberPunk 2077 hat sich das Ghosting Problem massivst verbessert. Es ist aber auch schon ein wenig her, dass ich es das letzte mal getestet habe.
 
  • Gefällt mir
Reaktionen: DJMadMax
Fegr8 schrieb:
Nächstes Jahr hoffentlich kein Modell mit 4GB GDDR7! Spaß beiseite....
VRAM-as-a-service, die 8GB GDDR7 stehen nur 12 Monate ab Registrierung zur Verfügung. Danach werden diese auf 4GB und GDDR5 Speed gedrosselt falls man keine Nvidia-Premium-VRAM-Boost Subscription für 9,99$ pro Monat abschließen sollte…
Warum sollte bei Nvidia nicht klappen, was Premium-Autohersteller schon vorleben?
 
  • Gefällt mir
Reaktionen: Denniss, Killerattacks und Jethro
Zurück
Oben