Wo kostet die Karte bitte 3000 Euro?Marcel55 schrieb:Was fürn Flop für 3000€, na kommt wer hat noch nicht wer will noch mal?
Spaß bei Seite der Sprung ist schon ok für eine Generation, nach der letzten waren die Erwartungen einfach zu groß. Jetzt sind wir zurück auf normal.
Aber wer ne 4090 hat kann sich das Upgrade sparen.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 9.055
Kann man so allgemein nicht sagen.DieSuperSuppe schrieb:Ich finde es immer wieder erschreckend wieviel die Fertigung einer GPU ausmacht. 2 Jahre Entwicklung und die selbe Fertigung führen zu fast nichts.
Von 28nm Kepler auf 28nm Maxwell 2.0 war es ein recht ordentlicher Schritt, dafür, dass es die gleiche Fertigung war. Nvidia konzentriert sich aber mittlerweile mehr auf die KI Features.
Bei so einem Stromverbrauch würde AMD Chipletdesign vielleicht Sinn machen.
Wenn man neben der großen GPU noch eine RTX 4040 mit 2GB oder so mit draufnagelt für den Leerlauf und Desktop Betrieb und die RTX 5090 legt sich währenddessen 5 Watt schlafen.
Wenn man neben der großen GPU noch eine RTX 4040 mit 2GB oder so mit draufnagelt für den Leerlauf und Desktop Betrieb und die RTX 5090 legt sich währenddessen 5 Watt schlafen.
GameBert82
Newbie
- Registriert
- Aug. 2024
- Beiträge
- 4
Nach 1.5 Jahren mit einer 4080, die mir immer ein "so ein bisschen zu wenig"-Gefühl gab - für sowohl professionellen Einsatz (Video Produktion) als auch fürs Zocken am 4K 240Hz Monitor - WÄRE die 5090 und ein neues aktuelles AM5 System drumherum sicher ein interessantes Paket und ein deutlich spürbarer Performance Sprung. Aber... ey... NEIN. Nicht zum Start und nicht zu dem Preis. Ich kann noch warten und beobachten - mal sehen wo sich das noch hin entwickelt.
Ja. Der gesamte Stromverbrauch eines PCs wird in Wärme umgewandelt (mit Ausnahme dessen, was WLAN/Bluetooth-Funksignal abgestrahlt wird und was als Daten durch Netzwerkkabel rausgeht - aber das sind vergleichsweise winzige Anteile).scryed schrieb:Ich nehme das Mal als Startpunkt , also es werden 575 Watt reingesteckt und es kommt dann 1zu1 in warme wieder raus ?
575W sind 575W, dafür ist völlig irrelevant, ob die Karte mit 50°C oder 100°C läuft. Niedrigere Temperatur hier bedeutet lediglich, dass mehr Luft durchströmt und die Wärme schneller verteilt wird, aber das ist auch alles.
Was glaubst du denn was eine Grafikkarte sonst macht ausser den allergrößten Teil der reingesteckten elektrischen Energie in Wärmeenergie umzuwandeln? Ich seh da hinten keine Abtriebswelle bei den Dingern. Selbst die Lüfter da drauf erhöhen am Ende einfach nur minimalst die Lufttemperatur.scryed schrieb:Ich nehme das Mal als Startpunkt , also es werden 575 Watt reingesteckt und es kommt dann 1zu1 in warme wieder raus ? Oder übertreiben wir hier Mal wieder
Aber nur weil du die Frequenzen nicht mehr hörstDer Rest ist pure Fiktion aus der CB Bubble mit ihrem "rasseln" und ihren "spulenfippen"
Zuletzt bearbeitet:
- Registriert
- Dez. 2006
- Beiträge
- 188
Wir übertreiben hier keinesfalls. 1zu1 wirds tatsächlich nicht umgewandelt, das gilt aber für beide Gerätschaften. Der Vergleich kommt der Sache jedenfalls sehr nahe.scryed schrieb:Ich nehme das Mal als Startpunkt , also es werden 575 Watt reingesteckt und es kommt dann 1zu1 in warme wieder raus ? Oder übertreiben wir hier Mal wieder
Wo seit ihr alle bis zur 2080 gewesen da hat man weniger Energie reingesteckt dafür aber dauerföhn von 83 Grad gehabt ....
erazzed
Lt. Commander
- Registriert
- Dez. 2008
- Beiträge
- 1.356
So wirklich freiwillig sind die Ansprüche an GPU-Leistung nun nicht. Wenn man sich die aktuellen Spiele so anschaut, wird man ja gezwungen eine >1000€ Grafikkarte im Rechner zu haben, um überhaupt auf vernünftige fps-Werte zu kommen. Dass dann mit der RTX 50 Generation nur ein so geringer Performancesprung zu beobachten ist, tut dann halt doppelt weh. Insb. wenn man anhand der Hardwarespezifikationen Rückschlüsse auf die Performance der 5080, 5070 Ti und 5070 ziehen kann. Meine Erwartungen waren schon recht niedrig, aber was wir hier bei der 5090 sehen, zeichnet ein düsteres Bild für z.B. eine 5080. Das sind Performancezuwächse in homöopathischen Dosen... Die maximal 16GB für die 5080 dämpfen die Euphorie dann vollends.calippo schrieb:Was ist denn ein "richtiger" Gaming PC? Ein Teil des Problems sind doch die immer weiter steigenden Ansprüche der Gamer. [...]
Ich persönlich bin in einer richtig bescheidenen Situation. Ende Oktober hat sich meine 2080 Ti spontan dazu entschlossen zu sterben. Zeitlich hätte das nicht ungünstiger passieren können, da zu diesem Zeitpunkt die 4090 im Preis schon wieder auf ~2000€ gestiegen war. Also warten auf die RTX 50. Nun ist die 5090 da und ich bin mehr als enttäuscht.
Mit dem geringen Performancezuwachs hätte ich ja noch leben können, aber das Gesamtpaket passt halt einfach nicht:
- Preis einfach völlig überzogen. Insb. die riesige Lücke zwischen der 5090 und 5080. Zudem werden die Preise ja nur noch schlimmer, wenn man zum Releasetag keine FE bekommt und dann auf die nochmal locker >200€ teureren AIB Modelle zurückgreifen muss. Völliger Wahnsinn.
- Stromverbrauch ist einfach Wahnsinn. Klar, mit Undervolting oder Reduzieren des Power Targets wird da einiges möglich sein, aber selbst der Idle-/Multi-Monitor-Verbrauch auf dem Desktop oder beim Anschauen von Videos ist einfach nur richtig schlecht. Da wird wohl das 512bit Speicherinterface und die GDDR7 Module ihren Teil zu beitragen, weshalb da wohl auch nichts wirklich reduziert werden kann.
- Rückschritt bei der Kühllösung der FE. Warum man nun auf eine 2-Slot Lösung gewechselt ist, verstehe ich ebenfalls nicht. Bisher sehen die Memory-Temperaturen nicht sonderlich toll aus - wie soll das dann erst aussehen, wenn die Thermalpads mit der Zeit ihre Kühlleistung einbüßen. Die Graka dann in ein paar Jahren einfach mal öffnen und Repasten etc. ist dank des Flüssigmetalls dann auch evtl. gar nicht so einfach. Dass Nvidia den Sensor zum Messen der Hotspot-Temperatur abgeschafft hat, ist dem Ganzen dann auch nicht zuträglich. Zudem scheint der Dual-Blow-Through dafür zu sorgen, dass die CPU und im Grunde alles, was sich auf dem Mainboard befindet, komplett gegrillt wird. An dieser Stelle mal ein Dank an CB, dass sie ihre Tests in einem Gehäuse durchführen. Den ganzen Testbench-Testern ist das vermutlich überhaupt nicht aufgefallen. Ich hätte hier eine 3-Slot-Kühllösung mit niedrigeren Temperaturen durchaus bevorzugt...
Zuletzt bearbeitet:
Grundgütiger
Lieutenant
- Registriert
- Aug. 2017
- Beiträge
- 990
@Chaosbreed, die 20% mehr Leistung bei Karten unterhalb der 5090 müssten über den Takt kommen.
Eher stört mich hier DLSS4 welches anders, aber nicht besser ist.
Eher stört mich hier DLSS4 welches anders, aber nicht besser ist.
Alles unter der ASUS Astral und Gigabyte Waterforce geht natürlich nicht, deshalb sind 3000€ natürlich sehr realistisch!BDR529 schrieb:Wo kostet die Karte bitte 3000 Euro?
/s
Syrato
Rear Admiral
- Registriert
- Juni 2012
- Beiträge
- 6.039
Mal so mal so.Bitcoon schrieb:Wäre interessant, wie die Karte hier in der Bubble mit vielen 4090 Besitzern ankommt ^^
@Laphonso kauft sich wie immer einen neuen PC und ich würde nur gerne das Kühlkonzept unter die Lupe nehmen, sonst sehe ich 0 Mehrwert in der 5090.
Aber kommt ja stark auf die eigenen Spiele und wie "sensibel" man darauf reagiert. FG/MFG/DLSS sind für Einige Spiele top.
In Cyberpunk, MSFS usw., aber bei meinem Spieleparkour (12 Spiele) mit Total War Wie 3, Factorio Space Age, The Riftbreaker usw. nutzen nur 2 diese Features (Riftbreaker und PoE2)
Floppes
Lieutenant
- Registriert
- Apr. 2017
- Beiträge
- 848
AMD Radeon würde man bei so einer Nummer in der Luft zerreißen und zwar zu Recht.
Dem quasi Monopolist Nvidia werden die Käufer auch die Nummer wieder verzeihen und die Karten alleine schon aufgrund des herausragenden Software aus den Händen reißen. Gute Nacht für die Gamer.
Dem quasi Monopolist Nvidia werden die Käufer auch die Nummer wieder verzeihen und die Karten alleine schon aufgrund des herausragenden Software aus den Händen reißen. Gute Nacht für die Gamer.
Wenn einem DLAA qualitativ noch nicht ausreicht, kann man auch DLDSR als Steigerung nehmen.adfsrg schrieb:Wobei DLAA selbstverständlich noch immer schlechter aussieht als richtiges SuperSampling.
- Registriert
- Nov. 2002
- Beiträge
- 8.997
Reflex 2 steht aktuell noch in keinem Spiel zur VerfügungCM286 schrieb:Ich vermisse den Test mit Reflex 2 oder gibts das aktuell noch nicht?
Genauso wie DLSS FG.-Slayer- schrieb:Wie verhält sich eigentlich MFG wenn ich 60fps Nativ habe und mein Framecap auf 120 (117) stelle? Ich benötige theoretisch ja nur 1 zwischen Bild mehr, aber was passiert, wenn ich den Slider auf x4 stelle los drei Zwischenbilder berechnen lasse? Irgendwie müssen die ja „weg“ damit ich bei 120fps bleibe.
Steht DLSS MFG im Modus 4x hast du immer ein gerendertes Frame und 3 künstliche Frames, bis dann wieder ein gerendertes (usw.) folgt. Das gilt auch bei einem FPS-Limiter. Stellst du den zum Beispiel auf 100 FPS, hast du nach wie vor 1 gerendertes und 3 künstliche Frames. Das gerenderte wird nur entsprechend eingebremst, um die 100 FPS nicht zu überschreiten. Deswegen reduziert sich bei DLSS FG/MFG in dem Fall auch die Leistungsaufnahme der Grafikkarte.
Würde ich nicht sagen, wenn sie ungefähr die Leistung bringen könnten.Floppes schrieb:AMD Radeon würde man bei so einer Nummer in der Luft zerreißen und zwar zu Recht.
Hier gehts ja nur um die absolute Highend Karte, da wärs schon geil mehr als einen Hersteller zu haben...
EdgarTheFace
Lt. Junior Grade
- Registriert
- Apr. 2006
- Beiträge
- 399
Würde es Sinn ergeben, für die Creator- und sonstigen AI-Workloads lieber einen 9950X zu testen als einen 9800X3D? Speziell bei Topaz Labs Video AI sieht das Ergebnis so aus als wenn die CPU einfach am Limit ist.
Der 9800X3D ist in einer Workstation wahrscheinlich seltener verbaut, wenn man MultiCore-Last erzeugt.
Der 9800X3D ist in einer Workstation wahrscheinlich seltener verbaut, wenn man MultiCore-Last erzeugt.
Das schon, aber wenn wir mal bei dem Beispiel bleiben (120 FPS Limit, MFG auf x4), dann hat man auch den Input-Lag von 30 nativen FPS bei "realen" 120 FPS =Wolfgang schrieb:Deswegen reduziert sich bei DLSS FG/MFG in dem Fall auch die Leistungsaufnahme der Grafikkarte.
Zuletzt bearbeitet:
Gleichzeitig dürften dann aber auch die Schwächen von (M)FG bei zu niedrigen Ausgangs-FPS mehr zum Tragen kommen, wenn die durch das gewählte FPS-Limit entsprechend weit reduziert werden.Wolfgang schrieb:Deswegen reduziert sich bei DLSS FG/MFG in dem Fall auch die Leistungsaufnahme der Grafikkarte.
Syrato
Rear Admiral
- Registriert
- Juni 2012
- Beiträge
- 6.039
Wer an Optimierung interessiert ist, Power Target auf 70%!
Wurde vom der8auer netterweise getestest!
Es zeigt, wie im Artikel von Wolfgang beschrieben und es war ja auch bei der 4090 und Intel 14xxx so, die letzten Prozente sind teuer erkauft.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Es zeigt, wie im Artikel von Wolfgang beschrieben und es war ja auch bei der 4090 und Intel 14xxx so, die letzten Prozente sind teuer erkauft.
Ähnliche Themen
- Antworten
- 440
- Aufrufe
- 35.450
- Antworten
- 568
- Aufrufe
- 40.418
- Antworten
- 2.303
- Aufrufe
- 182.399