Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format

Fighter1993 schrieb:
Das einige hier wirklich denken eine FE zu bekommen, und alle die ihre 4090 verkauft haben. Bei vielen werden wir hier viele Lange Gesichter sehen wenn sie nach 2 Monaten immer noch keine Grafikkarte haben. Sofern sie wirklich auf die FE bestehen. Bei Costums könnte das anders aussehen.
Ich würde nie auf die Idee kommen, meine alte GPU zu verkaufen, bevor ich nicht die neue habe und sie klaglos funktioniert.
 
  • Gefällt mir
Reaktionen: Cohen
Laphonso schrieb:
Das heißt mit einem 5800x3D bekommt Ihr die gleichen Benchmarks mit der 5090 in dem Parcours? also inkl. der fps Korridore?
Hilf uns: was hat ein deutlich langsamerer 5800X3D jetzt damit zu tun außer nichts?
 
  • Gefällt mir
Reaktionen: thom_cat, eXe777 und Fighter1993
aeri0r schrieb:
Verstehe eher deine Logik nicht.
Günstig und teuer sind immer subjektiv und somit relativ.

Wenn du nur ausdrücken willst, dass die Preis höher sind ohne dass du das ins Verhältnis zur Leistung setzt, dann kannst du die Begriffe günstig/teuer dafür nicht verwenden. Das passt einfach nicht.
 
-Slayer- schrieb:
wenn ich den Slider auf x4 stelle los drei Zwischenbilder berechnen lasse? Irgendwie müssen die ja „weg“ damit ich bei 120fps bleibe
dann werden die nativen fps soweit reduziert das du die 120fps einhälst. Das wären dann 30fps native.

Für 120hz macht nur x2 sin, also normales FG
 
  • Gefällt mir
Reaktionen: -Slayer-
adfsrg schrieb:
Du musst es nicht in der doppelten Auflösung rendern und darstellen. Wenn du beides verdoppelst, dann ist die Renderauflösung ja nicht mehr doppelt so hoch wie die Ausgabe und du bist wieder am Anfang.

Ich versuch mal ein einfach nachzuvollziehendes Beispiel:
Beim Film verwendet man ja 4K-UHD-Kameras für 2K-FHD Filme und für 4K-UHD-Filme verwendet man 8K-UHD-Kameras - also abgesehen von Billigproduktionen. Das ist exakt das gleiche Prinzip.
Du irrst Dich. Du willst Alias, also Quantifizierungseffekte beim Rendering wegbekommen. Vektoren sind aber nicht gerastert, sie haben eine unendliche Aufllösung.

So lange Du die Auflösung des Auges in Bewegung(!) nicht mindestens verdoppelst (Nyquist) wirst Du Alias-Effekte sehen.

Es geht hier nicht um die Monitorauflösung sondern um die des Auges.

Einfaches Beispiel:

Wenn Du recht hättest, könnte ich ja einen 320x200 Monitor nehmen und ein Bild mit 640x400 rendern und dann runterskalieren. Und hätte damit das perfekte Bild.

Ist aber leider nicht so :)
 
Grestorn schrieb:
Ich würde nie auf die Idee kommen, meine alte GPU zu verkaufen, bevor ich nicht die neue habe und sie klaglos funktioniert.
Das kann ich auch nicht nachvollziehen. Nur um ein paar Kröten mehr rauszuholen? Da ist doch drauf geschissen. 🤷‍♂️
 
  • Gefällt mir
Reaktionen: Grestorn
  • Gefällt mir
Reaktionen: T-Horsten und Apo
0xffffffff schrieb:
Mal schauen ob und wann eine 5080 ti mit 24 GB kommt,
Dafür müsste Nvidia dann aber extra einen GB203 Chip mit 192- oder 384-Bit Speicherinterface auflegen. Denn den 256-Bit des GB203 (RTX 4080 & RTX 4070 Ti) gehen rechnerisch keine 24 GB VRAM, außer es gibt irgendwann GDDR7-Speichermodule mit 3 GB.
 
Fighter1993 schrieb:
Ich denke ehr ein besseres Gehäuse wirst du um die Menge an Wärme abzuführen nicht finden.
Die Luft muss nur raus egal wie.
Die für die aktuellen Karten ab besten geeigneten Gehäuse sind eindeutig solche Doppelkammern. Die "Probleme" von denen Wolfgang berichtet, können in der Form hier gar nicht auftreten, die Luft kann ungehindert von unten nach oben durchgepustet werden.
1737722516523.png

https://www.corsair.com/de/de/p/pc-...ower-dual-chamber-pc-case-white-cc-9011266-ww

Natürlich braucht es auch hier Lüfter, um die 600W der GPU und 200-300W der CPU nach außen zu befördern. Nur staut sich die warme Luft nicht wie bei dem von CB genutzten Gehäuse hinten und mit einer entsprechend langen GPU, wie es die Partnerkarten sein werden, wird die warme Luft noch vor einem oft genutzten CPU Luftkühler ausgeblasen.

Auch das wäre mit einer Partnerkarte eine viable Option, wenn du zum Beispiel Richtung der ASUS Astral denkst, sie könnte die warme Luft direkt über die seitlichen Lüfter loswerden.
1737724165946.png

https://www.antec.com/product/case/c8-curve-wood

Da praktisch die gesamte neue Gen auf durchblasende Lüfter setzt, halte ich das genutzte Torrent Gehäuse für suboptimal. Auf jeden Fall lässt sich damit aber kein Unterschied zwischen den Partnerkarten und der FE festhalten, da bei dem Gehäuse in beiden Fällen die Luft hinten rausgepresst wird.

Von solchen Builds verspreche ich mir jedenfalls viel mehr als von dem Torrent, natürlich kann es dank der riesigen Lüftern genug Luft bewegen, aber es passt nicht zu den aktuellen GPUs.
1737723687056.png


 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nuestra
Laphonso schrieb:
Pauschal ist die Aussage 16 GB VRAM für 4K seien zu wenig sicher Quatsch.
Indianer Jones nimmt sich bis zu 25 GB laut Video von

Deine 16 GB loosen dann voll ab
 
Wolfgang schrieb:
@Laphonso
So rum funktioniert das Spielchen nicht ;)
Ja Moment, entweder spielt die CPU eine Rolle oder nicht?

Der CPU Headroom ist in zig Games doch bewiesen, die 4090 wurde schneller in 4K Szenarien.

1737723295110.png


1737723433276.png

Und dass ein 10800x3D bessere Fps und vor allem Frametimes in "4K GPU Limits" bringt können wir dann bei Euren Tests hier dann ja sehen in einem Jahr? Wir haben ja Eure 9800x3D Daten jetzt.

Es sei denn, wir reden gerade aneinander vorbei :D
 
Stanzlinger schrieb:
Indianer Jones nimmt sich bis zu 25 GB laut Video von

Deine 16 GB loosen dann voll ab
Ich kann in den meisten Spielen den Cache so konfigurieren (im Ini file), dass jeder Speicher überlastet ist.

Es geht doch nicht darum, was man einstellen kann, sondern was sichtbare Einbußen mit sich bringt.

Außerdem: Wieviel Speicher allokiert wird, ist nicht gleichbedeutend damit, dass dieser Speicher auch benötigt wird. Die alte Diskussion.

Wie sehr Indy 4 auf Karten mit 16GB "abloosen" (sic!) kann man ja an den diversen Benchmarkt mit der 4080 nachlesen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shadACII, Apo und Laphonso
Stanzlinger schrieb:
Deine 16 GB loosen dann voll ab
Ja, und wie umfassend ist die Liste dieser 17+ GB VRAM Games?

Das ist ja das, woran es einige hier festmachen :)
 
Grestorn schrieb:
Vektoren sind aber nicht gerastert, sie haben eine unendliche Aufllösung.
Also quasi wie ein analoges Signal...
Grestorn schrieb:
So lange Du die Auflösung des Auges in Bewegung(!) nicht mindestens verdoppelst (Nyquist) wirst Du Alias-Effekte sehen.
Nein, wenn du die Auflösung des Auges erhöhst, wird es doch umso schlimmer.
Grestorn schrieb:
Es geht hier nicht um die Monitorauflösung sondern um die des Auges.
Da du die Auflösung des Auges nicht ändern kannst, lass uns stattdessen die Auflösung des Monitors ändern. Eine Erhöhung der Auflösung des Auges entspricht dann einer Verringerung der Auflösung des Monitors.
Du sagst also quasi, dass das Bild umso besser wird, je weniger Pixel der Moni hat. Ich hingegen sage, dass das Bild umso besser wird, je mehr Pixel der Moni hat. Das deine Aussage falsch und meine richtig ist, ist so offensichtlich, ich weiß gar nicht, wie ich es dir erklären soll. Ich versuch's mal: Kannst du dich an das iPhone 4 erinnern? Das erste mit Retina-Display? Das sah besser aus, als das 3G, oder? Deiner Logik folgend müsste es umgekehrt gewesen sein.
 
und wieviele werden wohl wegen MFG ihren Monitor erneuern? Software sell’s Hardware
 
Grestorn schrieb:
Hast Du mal versucht, die DLSS DLL gegen eine neuere Version zu tauschen? Am einfachsten geht das mit del DLSS Swapper, wenn Du es nicht manuell machen willst.
Guter Hinweis, den Swapper habe ich sogar. Ich habe es auch direkt mal probiert, hat aber keinen Unterschied gemacht. Original war Version 3.1.2.0 und getestet habe ich mit der gerade neuesten verfügbaren Version (310.1.0.0).
 
  • Gefällt mir
Reaktionen: Grestorn
adfsrg schrieb:
Nein, wenn du die Auflösung des Auges erhöhst, wird es doch umso schlimmer.
Ich hab mich missverständlich ausgedrückt.

So lange Du nicht mindestens mit der doppelten Auflösung des Auges renderst UND darstellst...

Und davon sind wir weit weit weg.

Wenn Du mit Nyquist argumentiest, musst Du die Aufkösung des Auges als Referenzpunkt nehmen (wie ja beim Schall auch die max. Frequenz des Ohrs) und nicht die Auflösung des Monitors.
 
netzteil für 5090 braucht es auch, was für ein Käse
 
Stanzlinger schrieb:
Indianer Jones nimmt sich bis zu 25 GB laut Video von

Es gibt einen Unterschied zwischen Speicherbelegung und Speichernutzung. Das Spiel lief doch auch mit 24GB VRAM auf der 4090 in 4K problemlos, nur jetzt belegt das Spiel einfach mehr Speicher, weil mehr vorhanden ist. Das bedeutet aber nicht, dass es auch diese Menge nutzt.
 
  • Gefällt mir
Reaktionen: shadACII und Grestorn
Zurück
Oben