Da bin ich mal gespannt wie die 5090 das bewältigen wird und wie effizient die dabei ist. Insgesamt wird es mit Sicherheit wieder eine sehr effiziente Karte aber in 4k (Details hoch/ultra) und Pathtracing (hoch-ultra) und einer Menge FPS wird die sicherlich an die 500+ Watt verbrauchen 😶Tr8or schrieb:Raytracing steckt ja auch noch in den Kinderschuhen.
Mit potenteren Karten wird Pathtracing sicherlich die Zukunft sein.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce-Leak zum Fest: Erste Fotos von PCB und GPU der Nvidia GeForce RTX 5090
- Ersteller Jan
- Erstellt am
- Zur News: GeForce-Leak zum Fest: Erste Fotos von PCB und GPU der Nvidia GeForce RTX 5090
Lan_Party94 schrieb:Eine GPU von vor 3 Jahren die 300W zieht stinkt gegen eine GPU von heute mit 300W komplett ab. Die neuere GPU wird für die selbe Leistung weniger Strom brauchen, somit machen Energielabel keinen Sinn - vor allem kommen das so Energiesparfunktionen bla bla wie bei den TVs und dann stimmt es sowieso vorne und hinten nicht. Und 600W wird die GPU im Worst Case ziehen, je nach Anwendung keine 100W und im Desktop Betrieb wahrscheinlich keine 50W. Was soll dann da drauf?
Niemand kauft sich eine neue 300W-Grafikkarte, und spielt dann mit den Settings, bei denen es die alte 300W-Karte auch getan haette. Und niemand kauft sich eine 600W-GPU, um damit im Desktop zu arbeiten oder eine 100W-Anwendung laufen zu lassen. Von daher: fuer die 300W-Karte ist der Verbrauch 300W, und fuer die 600W-Karte 600W. Oder so aehnlich, man kann sich ja an Verbrauchswerten orientieren, die z.B. bei Computerbase gemessen werden.
Aber selbst wenn Du die neue Grafikkarte mit den Settings und den FPS der alten betreiben wuerdest, ist der Neukauf nicht unbedingt Energiesparend, denn die Grafikkarte kostet auch Energie in der Erzeugung.
Slayn
Commodore
- Registriert
- Juli 2011
- Beiträge
- 4.116
Nope die Annahme bezogen sich auch nur weil damals noch von der Samsung Fertigung die Rede war und dann man auf TSMC gewechselt ist konnte man auf 450 runter. Das selbe Phenomän hast du hier nicht.-MK schrieb:War doch bei der 4090 genauso und am Ende war es ein Bruchteil davon.
Ripcord
Lt. Commander
- Registriert
- Dez. 2013
- Beiträge
- 1.338
Bin gspannt wie sich die 5090 gegen die 7900 XT schlägt. Müsste von der Leistungsaufnahme her etwa 100% schneller sein ohne FG oder DLSS, da 300W gegen 600W. Eigentlich müssen es sogar mehr als das Doppelte an Leistung sein, da neuere Generation.
Du bist nicht die Zielgruppe. Aber danke für deine Einschätzung und Meinung dazu.mae schrieb:Die Frage ist, ob man die gefraessigsten Spiele spielen will, und dann noch mit gefraessigen Settings (extrem hohe Bildwiederholraten usw.). Bei mir geht's auch so.
Die Zielgruppe ist semi-prof. Workload und 4K >60FPS Gaming inkl. Raytracing.
Nicht mehr und nicht weniger.
Ich hab resigniert.Azghul0815 schrieb:Warten wir ab...bis 2500 bin ich dabei.
NV präsentiert, ich warte Customs von Gigabyte, Inno3D usw. mit Waterblock ab.
Und dann bestelle ich.
Mir egal, ob da eine 2 oder 3 am Anfang steht, getreu dem Motto, koste es was es wolle.... die 4090 ist mir zu langsam und weg ist sie jetzt auch schon, bei 3K müsst ich jetzt "nur noch" 1000 Euro draufzahlen als Upgrade... und dann kommt noch der 9950X3D..... und die 500 bin ich schon los geworden für mein X870E Creator....
Ach alles egal, wir sind jetzt an einem Punkt angekommen, an dem der "Enthusiast" seinen Kopf ausschaltet und einfach bezahlt, wenn er seinem Hobby nachkommen möchte... andere Hobbys werden auch immer teurer und teurer und da wird nicht so ein fass aufgemacht...
Wer es will, soll es sich halt holen, NV macht alles richtig, auch wenn ich das alles nicht gut finde.
Wenigstens kriegt man ein grandioses Produkt am Ende.
Wart mal ab, kein Die Shrink, alles beim alten, bisschen an der Arch optimiert und schnellerer VRAM mit Anbindung und mehr Shader....Azghul0815 schrieb:Vermute da geht mit 400 Watt relativ viel, ohne gross Leistung zu verlieren.
Das wird dem Powerbudget nicht gut tun, denke die 600W sind sehr sehr realistisch (550 + paar % OC mit PT rauf).
ja, das dürfte gehen, aber dann ist der 12VHPWR maximal am Limit mit 600W.Redirion schrieb:theoretisch sollten +10% PT möglich sein, weil der Slot 66W über 12V anbietet.
Dann hast du 0 Reserve mehr und die 4090 hatte schon mit diesem Stecker Probleme.
Ich hoffe, dass es Customs mit 2x 12VHPWR gibt, damit mit nur noch 250-300 pro Stecker übertragen muss.
Mir ist meine 4090 schon abgefackelt, keinen Bock mehr auf das Drama und der anschließenden Klärung....
Lan_Party94
Commander Pro
- Registriert
- Jan. 2013
- Beiträge
- 2.638
Wenn meine alte GPU 100% Auslastung hat und ~300W zieht, aber die neue GPU bei den selben Spielen und Settings 50% Auslastung hat und nur 100W zieht - dann kostet es Energie, logisch, aber deutlich weniger!mae schrieb:Niemand kauft sich eine neue 300W-Grafikkarte, und spielt dann mit den Settings, bei denen es die alte 300W-Karte auch getan haette.
Aber selbst wenn Du die neue Grafikkarte mit den Settings und den FPS der alten betreiben wuerdest, ist der Neukauf nicht unbedingt Energiesparend, denn die Grafikkarte kostet auch Energie in der Erzeugung.
Gibt genügend Leute die "nur" 3 Spiele oder gar weniger Spielen. WoW, LoL, Dota 2, CS2, Overwatch etc.. Das sind Spiele die nicht viel Leistung brauchen und auch den allermeisten Rechnern laufen. Wenn ich vorher eine dedizierte GPU habe und nun auf eine APU wechsel - mit den selben settings - dann spare ich nochmal deutlich an Energie.
Oder wieso sollte jemand der seit 10 Jahren LoL spielt seine 10 Jahre alte 150W GPU gegen eine neue 100W GPU tauschen um das selbe Spiel zu spielen? Man spart Strom und hat gleichzeitig mehr Leistung.
Den Gedanken hatte ich auch, hängt von den Games und Settings hab.t3chn0 schrieb:Die 5090 wird vermutlich die erste, native 4K120 Karte werden.
Denke die Rasterzuwächse werden vielleicht "nur" bei 30% on top der 4090 liegen, aber wen interessiert das olle Raster-Rendering mit so einer GPU. 🥱
In der neuen Architektur werden Raytracing und Pathtracing Benchmarks vielleicht nochmal 50% oder mehr zulegen, da geht die Reise hin, siehe Alan Wake 2, Wukong und Indiana Jones.
Hier kommt in gewissen Szenarien ja sogar die 4090 in strugglen.
Kann mir vorstellen, dass die 5090 im Cyberpunk Pathtracing Benchmark als Referenz tatsächlich diesen Meilenstein der 60 fps knackt, und das breits ohne DLSS fps boost.
Bin auf jeden Fall hyped. 🤩
GhostDMonkey
Lieutenant
- Registriert
- Feb. 2009
- Beiträge
- 680
Was ich nicht verstehe, wenn die Daten bisher so stimmen sollten, wie kann man eine 5070 mit 12GB und eine 5060Ti mit 16GB rausbringen?????????????
Und wie weit wird sich die 5070 von einer 4070 Super absetzen können? 4070 S 56CUs vs 5070 50CUs. Am Ende erwarte ich dann max 20 bis 30% und das nur mit 12GB
Und wie weit wird sich die 5070 von einer 4070 Super absetzen können? 4070 S 56CUs vs 5070 50CUs. Am Ende erwarte ich dann max 20 bis 30% und das nur mit 12GB
Cyberbernd
Lt. Commander
- Registriert
- Sep. 2002
- Beiträge
- 1.240
Hi
......Wird gekauft wenn irgendwann mal ein Game erscheint wo ICH die Leistung dann bräuchte...
Wird eh wieder elendig lange dauern bis es die Wakü Blöcke gibt.Geschweige die Hersteller WaKü. Versionen.
Zum Glück daddel ich nur in 3440x1440 .
Weihnachtliche Grüße.
......Wird gekauft wenn irgendwann mal ein Game erscheint wo ICH die Leistung dann bräuchte...
Wird eh wieder elendig lange dauern bis es die Wakü Blöcke gibt.Geschweige die Hersteller WaKü. Versionen.
Zum Glück daddel ich nur in 3440x1440 .
Weihnachtliche Grüße.
SuperHeinz schrieb:Wenn man einen adäquaten RAM zu den 32 GB VRAM der RTX 5090 installieren möchte, ob da 64 GB RAM reichen oder sollte man gleich zu 96 GB oder gar 128 GB gehen?
Check ich nicht. Dir is klar, dass das eine mit dem anderen rein überhaupt nichts zu tun hat? Du brauchst nicht plötzlich mehr System-Ram, nur weil du mit einer neuen Grafikkarte mehr VRam hast lol.
SuperHeinz
Commander Pro
- Registriert
- März 2023
- Beiträge
- 2.702
Nun ja, wenn die Ansprüche so weitergehen, wie mit dem MSFS 2024 begonnen, dann könnten selbst 64 GB RAM ist absehbarer Zeit bisschen knapp werden. Und ich kaufe Anfang 2025 bestimmt nicht 64 GB RAM, um dann in wenigen Monaten wiederum nachzurüsten.
Ich habe ehrlich gesagt kaum RT Spiele. Allerdings bin ich an einer anderen Seite interessiert. Ich bin gespannt auf dieses Zusammenspiel der neuen Architektur in Verbindung mit (hoffentlich bald) DLSS 4.0.Laphonso schrieb:Den Gedanken hatte ich auch, hängt von den Games und Settings hab.
Denke die Rasterzuwächse werden vielleicht "nur" bei 30% on top der 4090 liegen, aber wen interessiert das olle Raster-Rendering mit so einer GPU. 🥱
In der neuen Architektur werden Raytracing und Pathtracing Benchmarks vielleicht nochmal 50% oder mehr zulegen, da geht die Reise hin, siehe Alan Wake 2, Wukong und Indiana Jones.
Hier kommt in gewissen Szenarien ja sogar die 4090 in strugglen.
Kann mir vorstellen, dass die 5090 im Cyberpunk Pathtracing Benchmark als Referenz tatsächlich diesen Meilenstein der 60 fps knackt, und das breits ohne DLSS fps boost.
Bin auf jeden Fall hyped. 🤩
Ich will einfach maximale Effizienz in meinen Spielen haben. Wenn die 5090 ähnlich effizient ist, wie die 4090, dann bin ich ultra happy.
Haben ist besser als brauchen. Ich will einfach das gesamte Ökosystem abrufen mit DLSS/FG, RT (PT), Gsync und allem was dazu gehört. Richtig Tech-Nerden ^^.
Alleine die 32GB VRAM mit einem 512Bit SI wird pervers werden. Hubraum ohne Ende.
Ich frage mich wirklich wie Konsolen da auch nur im Ansatz rankommen wollen.
Ich vermute mit der 50er Serie nochmal einen ordentlichen Sprung. Von der 5080 erwarte ich mir nicht sooo viel. Die 5090 hat quasi 100% mehr Shader.... absolut crazy.
Ergänzung ()
FS2024 läuft auch mit 32GB absolut perfekt. Hier hat man viel zu dick aufgetragen.SuperHeinz schrieb:Nun ja, wenn die Ansprüche so weitergehen, wie mit dem MSFS 2024 begonnen, dann könnten selbst 64 GB RAM ist absehbarer Zeit bisschen knapp werden. Und ich kaufe Anfang 2025 nicht 64 GB RAM, um dann in paar Monaten wiederum nachzurüsten.
Das Problem bei 128GB ist, dass man wenn, 2x 64GB Module benötigt und die gibt es kaum mit vernünftigen Latenzen und Geschwindigkeiten.
Das ist nur bei Volllast der Fall. Wenn alte und neue GPUs problemlos 60fps bei Spielen erreichen können, dann liegen die Unterschiede maximal 5w.Lan_Party94 schrieb:Eine GPU von vor 3 Jahren die 300W zieht stinkt gegen eine GPU von heute mit 300W komplett ab. Die neuere GPU wird für die selbe Leistung weniger Strom brauchen, [...]
Ich hatte vorher eine gtx1050 und seit Oktober den rtx3050. Abgesehen von Volllast-Betrieb, ist die 3050 eine Enttäuschung im Vergleich zu dem Vor-Vorgänger.
Verbraucht überall 2-5w mehr strom (idle, 1080p stream gucken, office-betrieb und spiele mit 60 fps cap) für die gleiche Leistung. Erst bei Volllast ändert sich die Situation dank der DLSS Funktionen.
Vor dem Kauf habe ich erwartet dass die 3050 in allen Situationen, außer Idle, sparsamer ist.
SuperHeinz
Commander Pro
- Registriert
- März 2023
- Beiträge
- 2.702
Ich plane ein Intel-System zu bauen, daher sollten 4x 32 GB-Module kein Problem darstellen.t3chn0 schrieb:Das Problem bei 128GB ist, dass man wenn, 2x 64GB Module benötigt und die gibt es kaum mit vernünftigen Latenzen und Geschwindigkeiten.
Ergänzung ()
Dann wäre eine GTX 1650 das richtige Mittel gewesen. Die RTX 3050 arbeitet auf einem viel höheren Niveau.Nero2019 schrieb:Vor dem Kauf habe ich erwartet dass die 3050 in allen Situationen, außer Idle, sparsamer ist.
Azghul0815
Rear Admiral Pro
- Registriert
- Dez. 2019
- Beiträge
- 5.837
Müssen sie nicht...t3chn0 schrieb:Ich frage mich wirklich wie Konsolen da auch nur im Ansatz rankommen wollen.
Kriegst ja 3x Ps5 Pro für eine GPU und vermutlich 5xPS5 pro für ein Highend Rig...also Äpfel und Birnen und so....
Ja aber wieviel Leistung verliert eine 4090 wenn man sie mit 350 Watt betreibt?Unti schrieb:Das wird dem Powerbudget nicht gut tun, denke die 600W sind sehr sehr realistisch (550 + paar % OC mit PT rauf).
Aber bald wissen wir es....
Und die "Idioten" wie wir die halt das Dickste was es gibt wollen 🫣😂😂Unti schrieb:Die Zielgruppe ist semi-prof. Workload und 4K >60FPS Gaming inkl. Raytracing.
Fighter1993
Vice Admiral Pro
- Registriert
- Juli 2009
- Beiträge
- 7.094
Niemals und dann noch nicht.Dwyane schrieb:Also für die RTX5080 mal wenigstens 1900,-€
Die 5080 wird nicht mehr wie 1200€-1300€ kosten.
Die Karte ist so unglaublich unattraktiv wer soll die für 1900€ bitte kaufen?
Und auch die 5090 wird denke ne UVP von
Die 5090 muss die doppelte Anzahl der Shader auch auf die Straße bringen. Das hat die 4090 auch nicht geschafft.
Ich bin da sehr skeptisch.
Ergänzung ()
Nein, nein und nochmals nein.dohderbert schrieb:Ich denke auch für die RTX 5090 wird es 2500€ - 3000€, da AMD abwesend ist..
Die RTX 5080 wird wohl Richtung 1400€ - 1600€ gehen und wenn mal eine
24GB Version der RTX 5080 kommt, dann 1800€ - 2000€ .. Einfach nur krank..
Zuletzt bearbeitet:
mTw|Marco
Lt. Commander
- Registriert
- Juni 2013
- Beiträge
- 1.095
SuperHeinz schrieb:Nun ja, wenn die Ansprüche so weitergehen, wie mit dem MSFS 2024 begonnen, dann könnten selbst 64 GB RAM ist absehbarer Zeit bisschen knapp werden.
Unsinn.
Der FS war und ist doch immer eine Ausnahmeerscheinung in Sachen Anforderungen.
Ähnliche Themen
- Antworten
- 218
- Aufrufe
- 17.808
- Antworten
- 44
- Aufrufe
- 2.415
- Antworten
- 2.152
- Aufrufe
- 168.165
- Antworten
- 210
- Aufrufe
- 18.681
- Antworten
- 234
- Aufrufe
- 21.989