Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestNvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3
Das Gesamtpaket der Karte (mal vielleicht vom Preis abgesehen, wir alle wünschen uns dass sie weniger kosten würde) ist der Knaller. Effizient, schnell, dank den großen Kühlern selbst in Silent-PCs absolut einsetzbar. Das traf auf die 3090 oder 3090TI nie zu.
Du siehst mit RT schafft eine vergleichbare CPU (in einer CPU intensiven Szene) in Spider-Man Remastered ca. 35 fps 1% und 48 fps avg, aus diesem Test kannst du die Daten für die 4090 ablesen (GPU intensive Szene) in 4K - 94 avg. fps & 80 fps 1% - ein fettes CPU-Bottleneck in 4K.
Alles verstanden? Wo war mein Beitrag nun Unsinn? Natürlich ist dies durch leichte Unterschiede im Test-Setup und der Szene nicht 100% übertragbar, aber einen guten Eindruck vermittelt es wohl.
Ergänzung ()
Richtig und da es zu vielen Spielen Technik-Analysen mit CPU-Benchmarks gibt, kann man dort auch eine kleine Transferleistung erwarten.
Es ist einfach absurd, dass die Redaktion diese vielen Benchmarks für vorhersehbare Ergebnisse noch einmal durchführen soll.
Es geht doch nicht darum das man CPU und MB ggf. für 350,00 € bekommt. Hier wird wohl niemand eine derartige Low-Budget-Kombi wählen der eine RTX 4090 kauft. Es geht vielmehr darum, dass man seit Jahren CPU und MB gut lange nutzen kann ohne größere Abstriche bei der Grafik von Spielen machen zu müssen. In meinem Fall ist die CPU jetzt natürlich wirklich schon was älter, aber das gilt ja auch für CPUs die weniger alt sind. Im Übrigen gibt es auch User die wenig Freue daran haben den kompletten Rechner jedes Jahr auseinander zu pflücken...
Hier Spider-Man Remastered als Maßstab zu nehmen ist leider recht sinnfrei, denn in unzähligen anderen Spielen schafft man hier ggf. den Sprung auf konstante 60 oder sogar 120 FPS oder kann z.B. RT problemlos nutzen. Ich glaube aber es macht keinen Sinn die Sache hier weiter auszudiskutieren...
Außerdem ging es nicht darum alle Benchmaks nochmal durchführen zu müssen. Ein paar exemplarische Benchmarks würden ja genügen - das hat auch rein gar nichts mit dem Willen zu Recherche und Transfer zu tun...
@Wolfgang : Könnt ihr die Schlussfolgerungen von HWU zum Thema DLSS 3 bestätigen?
Vor Allem die Frage ob DLSS3 bei Midrange 40x0 Karten überhaupt Sinn machen würde, weil man ja zum Einen mit unangenehm schlechter Latenz ein komisches Spielgefühl haben würde und zum Anderen weil höhere Frametimes Artefakte sichtbarer machen und sich UI Elemente bei einigen Games verzerren sollen.
Müsste man nicht zur Konklusion kommen, dass die Folien mit DLSS 3 eigentlich Äpfel und Birnen vergleichen und demnach eigentlich unzulässig sind?
Davon abgesehen ist die 4090 natürlich top.
Hier nochmal das Video von HWU zur Inspiration. Interessant auch die Limitierung des Powertarget um langsamere Karten zu simulieren.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Kann ich Nvidia Reflex nur nutzen wenn meine ganze pheriperie das kann oder wie genau läuft das?
Hab eine LG 48 Oled TV da kann ich das wohl nicht nutzen oder?
Braucht das Mainboard dafür auch eine Reflex zertifizierung?
Das Problem bei Anno ist die Engine, die nicht genug parallelisiert und somit mehr als 6 Kerne nicht auslastet. Auf einem 7900X sollte das Spiel eigentlich auf allen 12 Kernen selbst im Endgame keine Probleme haben, kann die Engine aber nicht.
Kann ich Nvidia Reflex nur nutzen wenn meine ganze pheriperie das kann oder wie genau läuft das?
Hab eine LG 48 Oled TV da kann ich das wohl nicht nutzen oder?
Braucht das Mainboard dafür auch eine Reflex zertifizierung?
Kann ich Nvidia Reflex nur nutzen wenn meine ganze pheriperie das kann oder wie genau läuft das?
Hab eine LG 48 Oled TV da kann ich das wohl nicht nutzen oder?
Braucht das Mainboard dafür auch eine Reflex zertifizierung?
Meines Wissen nach, benötigst du ein Monitor mit G-Sync-Modul inklusive „Reflex Latency Analyzer“ an Bord
Nachtrag:
Die Technologie lässt sich dabei in zwei Elemente aufteilen:
1) Mit einem Monitor inklusive Reflex Latency Analyser und einer kompatiblen Maus kann die Maus-, Render- sowie Systemlatenz gemessen und optimiert werden (ohne diese Kombination lässt sich lediglich die Render-Latenz der Grafikkarte, bestehend aus Render Queue + Rendering, messen)
2) Das GeForce Experience Spieloverlay (aktivierbar in den Einstellungen) kann die unterschiedlichen Latenzzeiten darstellen (HUD Layout -> Leistung -> Latenzzeit), hierzu müssen jedoch zunächst die experimentellen Funktionen aktiviert werden
Es ist schon Wahnsinn, was man heute alles bei einem Grafikkarten-Test alle beachten muss.
Full-HD, WQHD, 4k, jetzt neu 5k
Dann mit Raytracing / ohne Raytracing
Das ganze dann noch mal mit DLSS / FRS, in allen Auflösungen und mit/ohne Raytracing.
Dazu noch mal DLSS 3 vs. DLSS 2?
Und dem ganzen noch die Krone aufzusetzen, ein Treiberupdate das die ganzen alten Karten add-hoc auch noch mal bis zu 5% schneller macht...
Gut, Full-HD ist für das aktuelle Model natürlich nicht wirklich von belang...
Aber vor "ein paar Jahren" gab es halt noch drei Auflösungen und dann "go". Verrückt was da alles hinzugekommen ist und die Messergebnisse/Geschwindigkeit der Karten beeinflusst.
Von daher VIELEN DANK an Computerbase für die tausenden Benchmarks und die Arbeit die dahinter steckt. Auch das ihr immer die Community so gut einbindet und die 5% Leistungszuwachs bei den alten Karten anseht. Anderen Seiten wäre das vermutlich egal. Einmal gebenchmarkt und dann is gut.
Deswegen bin ich gerne Pro-Mitglied! Macht weiter so!
bei meiner 3080 wars ein schuss in den ofen. tatsache ist, das die fps bissi raufgehen, aber der verbrauch geht halt auch hoch (Physik und so) - wer sowieso ins PL läuft dürfte einfach nur schlechter dasstehen.
...
(das "300w setting" hat übrigens ein offenes PL, und geht im TS bench sogar bis 340w maximal, das als disclaimer - in games ist der verbrauch um die 300w - im TS bench geht der höher, aber niemals ins PL, das bis 370max geht -- mit dem 522.25 rennt die karte aber ins PL, der takt bricht ein, und die score geht runter, also unter dem strich schlechteres fps/w verhältnis - und time spy teilt diese einschätzung - und da die VRAM takte gleich sind, ist eine beenflussung hier ausgeschlossen)
und gerade nochmal kontrolliert, mit 516.94 ist wieder alles i.o.m knapp über 18000, solide über dem durchschnitt.
...
Ich kann das mit meiner 3080 12GB nicht nachvollziehen.
Ich habe meine bei 1860MHz @ 0.831v und der Verbrauch ist 0-3W hochgegangen.
Die Punktzahl ist um ca. 150 Punkte hoch. Habe nun 18850 GPU Punkte bei TimeSpy.
Mein vorheriger Treiber war der 512.15.
@Wolfgang : Könnt ihr die Schlussfolgerungen von HWU zum Thema DLSS 3 bestätigen?
Vor Allem die Frage ob DLSS3 bei Midrange 40x0 Karten überhaupt Sinn machen würde, weil man ja zum Einen mit unangenehm schlechter Latenz ein komisches Spielgefühl haben würde und zum Anderen weil höhere Frametimes Artefakte sichtbarer machen und sich UI Elemente bei einigen Games verzerren sollen.
Müsste man nicht zur Konklusion kommen, dass die Folien mit DLSS 3 eigentlich Äpfel und Birnen vergleichen und demnach eigentlich unzulässig sind?
Davon abgesehen ist die 4090 natürlich top.
Hier nochmal das Video von HWU zur Inspiration. Interessant auch die Limitierung des Powertarget um langsamere Karten zu simulieren.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich hab Frame Replacement in Spiderman probiert, es deaktiviert VSync und ich hatte Tearing, ich mag kein Tearing. Mein PC Monitor ist ein EIZO, hat also keinen gsync und der AVR (Denon X7200WA) hat trotzt HDMI Board Update keinen Support für dynamische FPS, also müsste ich auch am TV mit Tearing leben. Dann eben kein Frame Replacement...
Dann sollte man besser gleich in 8K testen. Das hat zwar keine Praxisrelevanz, sollte aber weit weg von CPU Limits sein und die Performance der Karten gut zeigen.
Krasse Leistung, krasser Preis. Alles in allem bin ich froh, dass es im PC-Bereich wieder ordentlich voran geht. Die Jahre der Stagnation, gerade im CPU-Bereich, waren doch recht langweilig und ein Aufrüsten eher unnötig. Das hier erinnert mich schon eher an meine Anfangszeiten, die 90er. Da hast du dir nen PC für 2000 Mark gekauft, und 3 Jahre später war der nur noch Elektroschrott, weil schon nichts mehr ordentlich darauf lief.
Es geht vielmehr darum, dass man seit Jahren CPU und MB gut lange nutzen kann ohne größere Abstriche bei der Grafik von Spielen machen zu müssen.
Hier Spider-Man Remastered als Maßstab zu nehmen ist leider recht sinnfrei, denn in unzähligen anderen Spielen schafft man hier ggf. den Sprung auf konstante 60 oder sogar 120 FPS oder kann z.B. RT problemlos nutzen.
Ja, man KONNTE CPU und MB in 4K sehr lange nutzen ohne Abstriche zu machen, mit einer RTX 4090 + 6700K wirst du aber zwangsläufig immer häufiger ins CPU-Limit laufen und auch die min. fps sind oft ziemlich niedrig.
Natürlich ist das nicht in jedem Spiel der Fall, in vielen Titeln, die nicht CPU intensiv sind (Doom Eternal z.B.) wirst du nach wie vor 120fps erreichen, aber das ging in vielen dieser Titel auch schon mit einer 3090.
Und wenn nicht Spider-Man Remastered... dann sag doch, was du spielst oder schau einfach selbst, wie das jeweilige Spiel mit deiner CPU läuft.
Nur warum soll die Redaktion exemplarische Benchmarks durchführen, nur damit du dann sagen kannst "Spider-Man Remastered / Spiel xyz in dem Benchmark zu nehmen ist leider sinnfrei cb"?
Insgesamt "leider geil" was Nvidia zumindest Technisch da abliefert. Der Umstieg auf TSMC war wohl bitternötig und das hat die Effizienz deutlich nach vorne gebracht. Ich befürchte, das AMD da wieder etwas hinterher hängt, nachdem die davor Effizienter waren, zumindest im Rasterizing. Aber AMD hatte da auch den besseren Fertigungsprozess genutzt, wo die dann jetzt gleichauf sind.
Bei der 4090 sieht man wieder schön, wieviel Leistung für die letzten paar Prozent verbraten wird. Was sollen dann GPUs bringen, wenn sie bis zu 600W ziehen dürfen, wemn bereits von 350W zu 450W eher marginaler unterschied besteht. Es wird ja praktisch schon ein muss, Hardware mit hoher TDP an die Leine zu legen. Im Ryzen 7000 Test war es ähnlich, die erhöhte TDP hat gerade mal knappe 5% mehr gebracht, was in den meisten Situationen im privatem Umfeld eher nur mess- als wirklich spürbar ist.
Preise und der Fakt, dass DLSS 3 dann wohl auch eine 4000er erfordert sind dagegen die Schattenseiten gegenüber Nvidia. Mal sehen, wie sich die Upscaler von AMD und Intel entwickeln, die nicht so beschränkt mit der Hardware sind. FSR war ja schon dicht an DLSS 2 dran, mit dem Vorteil, dass man dafür nicht nur die aktuelleren Karten der eigenen Marke nehmen muss. Für die Durchdringung bei Spielen ist es ja schon deutlich vom Vorteil, wenn man sich nicht so stark auf Grafikkarten beschränken muss. FSR und XeSS sind ja beide vom Prinzip offen für alle Karten, nur NV geht da wieder mal den propritären Weg.
Die hohen Preise kommen wohl auch dadurch zu stande, dass man bei TSMC mehr Zahlen muss, als zuvor bei Samsung, wenn man dann seine hohe Marge behalten will, muss der Preis dann ebenso erhöht werden. Zudem wurden sie zum zweiten Mal durch einen Mining-Boom verwöhnt. Ich bin gespannt, wie sich das so weiter entwickelt, da die Lebenshaltungskosten in allen Ländern zur Zeit ordentlich steigt und dadurch die Nachfrage nach Luxusartikeln für Normalbürger sinkt. Klar, gibt noch genug, die dazu bereit wären, 2000€ für ne Graka auszugeben, um die ersten Kontingente wegzukaufen. Aber insgesamt würde ich von einem geringeren Absatz ausgehen, und dann liegen die Dinger in den Regalen. Kann schon was dran sein, dass EVGA aus guten Grund aus dem Grafikkartenmarkt ausgestiegen ist. Weil zur gegebenen Zeit das Risiko zu hoch ist, insbesondere wenn man eine Menge X abnehmen muss, was spekuliert wird. Bei wieviel war das, 80% (?) Umsatz des Unternehmens dann plötzlich damit Miese einfahren, würde das Unternehmen dann wohl das Genick brechen.
Ich frage mich grad, wieviel Unterschied es bringen würde meinen 5900x mit dem 5800x3D zu tauschen. Hab mir zwar reviews angeschaut und beide gefunden, aber die Benchmarks fluktuieren schon ziemlich - da ist es schwer den Performancegewinn fest zu stellen Hat da wer eine % Schätzung? xD
Fehlt nur noch die Ergänzung von Tests mit echten Menschen und nicht nur Maschinen.
Klar ist die neue Hardware besser. Aber was bringts? Wem nützt der Unterschied zwischen 2k und 4k im Gaming wirklich was? Von Videos ganz zu schweigen.
Ich erinnere mich an einen schönen Test vor Jahren bei Linus Tech Tips wo ein Teil der Redaktion dasselbe Spiel Mal in 2K und Mal in 4k spielen dürfte ohne zu wissen, welcher Modus gerade aktiv war.
Das Ergebnis war schockierend. Einer konnte es grundsätzlich erkennen. Alle anderen mehr schlecht als Recht.
Ich habe den Eindruck die Hardware-Branche sowohl im Gaming als auch im Videobereich begeht gerade den SUV-Wahnsinn der Autobranche.
SUVs werden ganz sicher von einigen Leuten gebraucht. Von den meisten aber nicht.
So ähnlich vemute ich das mit 4K Gaming und teilweise sogar mit 120Hz.
Ich würde mir wünschen wenn Tech-Seiten nicht nur Industrie-Wahn in Form von hoher, schneller, weiter durchpeitschen, sondern nach Sinn und Einsatz fragen und gerade dies testen.
Die moderne Menschheit verballert viel zu viel Ressourcen. Auf allen Ebenen. Und das für Technik, die oft nicht ansatzweise genutzt wird sondern völlig fehldimensioniert ist.
Wenn dann hier Leute von "Effizienz" reden, meinen sie nur Maschinen. Wir bauen diese Maschinen aber für Menschen. Gamer sind Menschen. Und bei weitem nicht nur Tech-Enthusiasten.
Oder in einem simplen Satz: Ich würde mir ein wenig mehr Bodenständigkeit wünschen.
Die 4090 ist sicher ein exzellentes High-End-Produkt... welches für evtl 0.1-1% der Anwender interessant ist.
Das Problem bei Anno ist die Engine, die nicht genug parallelisiert und somit mehr als 6 Kerne nicht auslastet. Auf einem 7900X sollte das Spiel eigentlich auf allen 12 Kernen selbst im Endgame keine Probleme haben, kann die Engine aber nicht.
Irgendwann ist halt mit Parallelisieren auch Schluss, ökonomisch wie technisch, soll heißen, auch wenn es jetzt vielleicht spezifisch bei Anno besser ginge, irgendwann hast du immer einen Thread, der auf einen anderen wartet und irgendwann erzeugt der Sync letztlich so viel Overhead, dass es einen auch nicht vorwärts bringt (das war schon zu Multi-CPU-Zeiten die Krux).
So trivial ist das ganze also nicht und die Devs müssen abschätzen, bis wohin es gangbar ist.