Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format
Moritz Velten
Lt. Commander
- Registriert
- März 2020
- Beiträge
- 1.738
dgneo schrieb:Möge das Scalpen beginnen..... Ich lach mich schlapp......
Aber irgendwann werden die Preise auch wieder besser.
heisenberg001
Ensign
- Registriert
- Feb. 2024
- Beiträge
- 144
Und dann schwitzen 😁
@Wolfgang Mir ist was aufgefallen: Einige Tester (oder vielleicht alle, wenn es so gewollt war von Nvidia) haben ein spezielles Test-Exemplar bekommen mit einer speziellen Die, auf der "Press Build" steht. Also für die Fach-Presse gedacht als Test-Muster. Hier auf CB wurde wohl ein Renderbild im Test hinterlegt, da der/die? Die nicht realitätsgetreu wiedergegeben ist.
Nun frage ich mich, ob da vorselektiert worden ist und die Press-Dies noch eine höhere Güte haben als die Dies von der Stange...Denke, da wird es Takt-mässig keinen Unterschied geben.
Aber warum macht sich Nvidia den Aufwand, Dies speziell für einen Anlass zu "markieren"?
Nun frage ich mich, ob da vorselektiert worden ist und die Press-Dies noch eine höhere Güte haben als die Dies von der Stange...Denke, da wird es Takt-mässig keinen Unterschied geben.
Aber warum macht sich Nvidia den Aufwand, Dies speziell für einen Anlass zu "markieren"?
Was ich auch noch spannend finde: nutzen alle User von 4080/4090 und jetzt dann 5080/5090 eine Wasserkühlung für die CPU? Ich habe bei meiner 4080 auch aufgrund der Position des 12VHPWR Stecker zur MSI gegriffen, denn die meisten Modelle würden mit dem Wireview-Adapter oder anderen 180° Adapter dazu führen, dass das Kabel wegen dem Kühler nicht eingesteckt werden könnte.
Was ich recht cool fand beim Test von DerBauer wo er die Karte mit 70% Powertarget betrieben hat, also ca 400 Watt. Dabei war die Karte im Durchschnitt 27% besser als die 4090.
Sprich wenn man auf 10% Leistung verzichten kann spart man 170 Watt und die Karte läuft auch noch kühler und effizienter.
Das macht die 5090 dann schon interessant.
Sprich wenn man auf 10% Leistung verzichten kann spart man 170 Watt und die Karte läuft auch noch kühler und effizienter.
Das macht die 5090 dann schon interessant.
Und eventuell ist die GPU dadurch langlebiger oder ist das kein Faktor auf den man Einfluss hat?
Also wenn die GPU vom Powertarget beschränkt wird, hat das positive Wirkung auf die Langlebigkeit oder nur die anliegende Spannung (V) sowohl bei der GPU als auch dem Speicher?
Das mit der Spannung ist keine Frage, zuviel ist nicht gesund auf Dauer und da was rausnehmen (Undervolting) ist immer gut für Verbrauch und Langlebigkeit. Aber den Gesamtverbrauch limitieren, hilft das auch?
Weniger Strom fliesst durch die Karte und weniger Wärme wird erzeugt, also vielleicht könnte so ein gezügelter Betrieb das auch zu einer längeren Lebensdauer einer GPU beitragen.
Aber hilft nicht, wenn man einfach nur Pech hat und die neue Karte sich schon plötzlich ohne Vorwarnung gerade mal nach nur 6 Monaten verabschiedet (irgendein Bauteil macht schlapp) und die GPU kein Bild mehr ausgibt und beim Bootvorgang auch kein Lebenszeichen von sich gibt... (ist mir genau so mit einer neuen R9 290 passiert).
Falls einer eine Ahnung hat, was mit meiner 290 eventuell passiert ist: die ging beim entspannten Surfen im Internet aus: hat einfach den Geist aufgegeben und wollte nicht mehr.. (vermute, hat was mit der Stromversorgung auf der Platine zu tun, aber keine Ahnung)...wollte die schon dem Buildzoid (ActuallyHardcoreOverclocking oder wie er seinen Youtube-Kanal nennt) zur Reparatur schicken, damit er die an einen Zuschauer verschenken kann...
Also wenn die GPU vom Powertarget beschränkt wird, hat das positive Wirkung auf die Langlebigkeit oder nur die anliegende Spannung (V) sowohl bei der GPU als auch dem Speicher?
Das mit der Spannung ist keine Frage, zuviel ist nicht gesund auf Dauer und da was rausnehmen (Undervolting) ist immer gut für Verbrauch und Langlebigkeit. Aber den Gesamtverbrauch limitieren, hilft das auch?
Weniger Strom fliesst durch die Karte und weniger Wärme wird erzeugt, also vielleicht könnte so ein gezügelter Betrieb das auch zu einer längeren Lebensdauer einer GPU beitragen.
Aber hilft nicht, wenn man einfach nur Pech hat und die neue Karte sich schon plötzlich ohne Vorwarnung gerade mal nach nur 6 Monaten verabschiedet (irgendein Bauteil macht schlapp) und die GPU kein Bild mehr ausgibt und beim Bootvorgang auch kein Lebenszeichen von sich gibt... (ist mir genau so mit einer neuen R9 290 passiert).
Falls einer eine Ahnung hat, was mit meiner 290 eventuell passiert ist: die ging beim entspannten Surfen im Internet aus: hat einfach den Geist aufgegeben und wollte nicht mehr.. (vermute, hat was mit der Stromversorgung auf der Platine zu tun, aber keine Ahnung)...wollte die schon dem Buildzoid (ActuallyHardcoreOverclocking oder wie er seinen Youtube-Kanal nennt) zur Reparatur schicken, damit er die an einen Zuschauer verschenken kann...
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.916
5hred schrieb:Aber warum macht sich Nvidia den Aufwand, Dies speziell für einen Anlass zu "markieren"?
Hat Steuer Gründe ist bei z.B. Autos auch so, dass es spezielle Presse Autos gibt.
Technisch hätte ich von einer 4080 kommend absolut kein Grund zum Meckern, die 5090 würde sich gut machen in meinem Rechner und ich würde auch ziemlich sofort das PT auf 70-80% setzen und noch etwas undervolten. Die 10% könnte ich locker verkraften. Was aber einfach wirklich nicht geht (für mich) ist dieser Preis... Aber eigentlich auch egal, als nächstes stünde sowieso erst ein CPU/MoBo/RAM/NT Upgrade an, iwann im Frühling.Deimonos schrieb:Das macht die 5090 dann schon interessant.
BmwM3Michi
Vice Admiral
- Registriert
- Mai 2009
- Beiträge
- 7.045
RTX 5090: Schwerwiegender Treiber-Fehler macht teure Nvidia-Grafikkarten unbrauchbar...
https://www.notebookcheck.com/RTX-5...Nvidia-Grafikkarten-unbrauchbar.956308.0.html
https://www.notebookcheck.com/RTX-5...Nvidia-Grafikkarten-unbrauchbar.956308.0.html
Dann guck dir mal die Bilder in diesem Thread an. Solltest du da keinen Unterschied sehen, benötigst du mindestens eine BrilleAimero schrieb:Also ich sehe wirklich 0,0 Unterschied zwischen FSR 3.1, DLSS3 und DLSS4 wenn ich mir Screenshots ansehe.

https://www.computerbase.de/forum/threads/dlss-4-was-bringt-der-dll-swap-mit-guide.2227559/
Torr Samaho
Lieutenant
- Registriert
- Nov. 2009
- Beiträge
- 717
genau das. hatte eigentlich vor, meinen 7800x3d + 4090 zu verkaufen und das erlös in o.g. kombi zu stecken, aber nicht bei den mondpreisen und dem stromverbrauch für gerade mal den unterschied.Fighter1993 schrieb:20-30% mehr als das bis jetzt aktuell schnellste.
Wenn der Preis gleich geblieben wäre ok. Aber so ne.
Aimero
Lieutenant
- Registriert
- Apr. 2018
- Beiträge
- 549
kannst du mir ein spezielles Beispiel geben, wo man wirklich was sehen sollte?Tr8or schrieb:Dann guck dir mal die Bilder in diesem Thread an. Solltest du da keinen Unterschied sehen, benötigst du mindestens eine Brille
https://www.computerbase.de/forum/threads/dlss-4-was-bringt-der-dll-swap-mit-guide.2227559/
Bei FF7 Rebirth z.B. kann ich selbst mit ran zoomen keinen unterschied erkennen.
lord_mogul
Cadet 4th Year
- Registriert
- März 2014
- Beiträge
- 105
Warten wir mal auf die 5090 Ti, die kann dann UE5 auch in UHD in vollen 3840x2160 mit 60 FPS schaffen.
Und jetzt gibts erst einmal 4K 200 fps, aber sind nur 1080p50.
Und jetzt gibts erst einmal 4K 200 fps, aber sind nur 1080p50.
Ähnliche Themen
- Antworten
- 939
- Aufrufe
- 67.074
- Antworten
- 611
- Aufrufe
- 47.836
- Antworten
- 533
- Aufrufe
- 31.496
- Antworten
- 114
- Aufrufe
- 6.832
- Antworten
- 441
- Aufrufe
- 36.556