News GeForce-Leak zum Fest: Erste Fotos von PCB und GPU der Nvidia GeForce RTX 5090

Tr8or schrieb:
Raytracing steckt ja auch noch in den Kinderschuhen.
Mit potenteren Karten wird Pathtracing sicherlich die Zukunft sein.
Da bin ich mal gespannt wie die 5090 das bewältigen wird und wie effizient die dabei ist. Insgesamt wird es mit Sicherheit wieder eine sehr effiziente Karte aber in 4k (Details hoch/ultra) und Pathtracing (hoch-ultra) und einer Menge FPS wird die sicherlich an die 500+ Watt verbrauchen 😶
 
  • Gefällt mir
Reaktionen: SweetOhm
Lan_Party94 schrieb:
Eine GPU von vor 3 Jahren die 300W zieht stinkt gegen eine GPU von heute mit 300W komplett ab. Die neuere GPU wird für die selbe Leistung weniger Strom brauchen, somit machen Energielabel keinen Sinn - vor allem kommen das so Energiesparfunktionen bla bla wie bei den TVs und dann stimmt es sowieso vorne und hinten nicht. Und 600W wird die GPU im Worst Case ziehen, je nach Anwendung keine 100W und im Desktop Betrieb wahrscheinlich keine 50W. Was soll dann da drauf?

Niemand kauft sich eine neue 300W-Grafikkarte, und spielt dann mit den Settings, bei denen es die alte 300W-Karte auch getan haette. Und niemand kauft sich eine 600W-GPU, um damit im Desktop zu arbeiten oder eine 100W-Anwendung laufen zu lassen. Von daher: fuer die 300W-Karte ist der Verbrauch 300W, und fuer die 600W-Karte 600W. Oder so aehnlich, man kann sich ja an Verbrauchswerten orientieren, die z.B. bei Computerbase gemessen werden.

Aber selbst wenn Du die neue Grafikkarte mit den Settings und den FPS der alten betreiben wuerdest, ist der Neukauf nicht unbedingt Energiesparend, denn die Grafikkarte kostet auch Energie in der Erzeugung.
 
  • Gefällt mir
Reaktionen: el_zoido und nurfbold
-MK schrieb:
War doch bei der 4090 genauso und am Ende war es ein Bruchteil davon.
Nope die Annahme bezogen sich auch nur weil damals noch von der Samsung Fertigung die Rede war und dann man auf TSMC gewechselt ist konnte man auf 450 runter. Das selbe Phenomän hast du hier nicht.
 
  • Gefällt mir
Reaktionen: SweetOhm
Bin gspannt wie sich die 5090 gegen die 7900 XT schlägt. Müsste von der Leistungsaufnahme her etwa 100% schneller sein ohne FG oder DLSS, da 300W gegen 600W. Eigentlich müssen es sogar mehr als das Doppelte an Leistung sein, da neuere Generation.
 
mae schrieb:
Die Frage ist, ob man die gefraessigsten Spiele spielen will, und dann noch mit gefraessigen Settings (extrem hohe Bildwiederholraten usw.). Bei mir geht's auch so.
Du bist nicht die Zielgruppe. Aber danke für deine Einschätzung und Meinung dazu.
Die Zielgruppe ist semi-prof. Workload und 4K >60FPS Gaming inkl. Raytracing.
Nicht mehr und nicht weniger.
Azghul0815 schrieb:
Warten wir ab...bis 2500 bin ich dabei.
Ich hab resigniert.
NV präsentiert, ich warte Customs von Gigabyte, Inno3D usw. mit Waterblock ab.
Und dann bestelle ich.
Mir egal, ob da eine 2 oder 3 am Anfang steht, getreu dem Motto, koste es was es wolle.... die 4090 ist mir zu langsam und weg ist sie jetzt auch schon, bei 3K müsst ich jetzt "nur noch" 1000 Euro draufzahlen als Upgrade... und dann kommt noch der 9950X3D..... und die 500 bin ich schon los geworden für mein X870E Creator....
Ach alles egal, wir sind jetzt an einem Punkt angekommen, an dem der "Enthusiast" seinen Kopf ausschaltet und einfach bezahlt, wenn er seinem Hobby nachkommen möchte... andere Hobbys werden auch immer teurer und teurer und da wird nicht so ein fass aufgemacht...
Wer es will, soll es sich halt holen, NV macht alles richtig, auch wenn ich das alles nicht gut finde.
Wenigstens kriegt man ein grandioses Produkt am Ende.
Azghul0815 schrieb:
Vermute da geht mit 400 Watt relativ viel, ohne gross Leistung zu verlieren.
Wart mal ab, kein Die Shrink, alles beim alten, bisschen an der Arch optimiert und schnellerer VRAM mit Anbindung und mehr Shader....
Das wird dem Powerbudget nicht gut tun, denke die 600W sind sehr sehr realistisch (550 + paar % OC mit PT rauf).
Redirion schrieb:
theoretisch sollten +10% PT möglich sein, weil der Slot 66W über 12V anbietet.
ja, das dürfte gehen, aber dann ist der 12VHPWR maximal am Limit mit 600W.
Dann hast du 0 Reserve mehr und die 4090 hatte schon mit diesem Stecker Probleme.
Ich hoffe, dass es Customs mit 2x 12VHPWR gibt, damit mit nur noch 250-300 pro Stecker übertragen muss.
Mir ist meine 4090 schon abgefackelt, keinen Bock mehr auf das Drama und der anschließenden Klärung....
 
mae schrieb:
Niemand kauft sich eine neue 300W-Grafikkarte, und spielt dann mit den Settings, bei denen es die alte 300W-Karte auch getan haette.
Aber selbst wenn Du die neue Grafikkarte mit den Settings und den FPS der alten betreiben wuerdest, ist der Neukauf nicht unbedingt Energiesparend, denn die Grafikkarte kostet auch Energie in der Erzeugung.
Wenn meine alte GPU 100% Auslastung hat und ~300W zieht, aber die neue GPU bei den selben Spielen und Settings 50% Auslastung hat und nur 100W zieht - dann kostet es Energie, logisch, aber deutlich weniger!

Gibt genügend Leute die "nur" 3 Spiele oder gar weniger Spielen. WoW, LoL, Dota 2, CS2, Overwatch etc.. Das sind Spiele die nicht viel Leistung brauchen und auch den allermeisten Rechnern laufen. Wenn ich vorher eine dedizierte GPU habe und nun auf eine APU wechsel - mit den selben settings - dann spare ich nochmal deutlich an Energie.

Oder wieso sollte jemand der seit 10 Jahren LoL spielt seine 10 Jahre alte 150W GPU gegen eine neue 100W GPU tauschen um das selbe Spiel zu spielen? Man spart Strom und hat gleichzeitig mehr Leistung.
 
  • Gefällt mir
Reaktionen: freezer255 und -MK
t3chn0 schrieb:
Die 5090 wird vermutlich die erste, native 4K120 Karte werden.
Den Gedanken hatte ich auch, hängt von den Games und Settings hab.

Denke die Rasterzuwächse werden vielleicht "nur" bei 30% on top der 4090 liegen, aber wen interessiert das olle Raster-Rendering mit so einer GPU. 🥱
In der neuen Architektur werden Raytracing und Pathtracing Benchmarks vielleicht nochmal 50% oder mehr zulegen, da geht die Reise hin, siehe Alan Wake 2, Wukong und Indiana Jones.
Hier kommt in gewissen Szenarien ja sogar die 4090 in strugglen.

Kann mir vorstellen, dass die 5090 im Cyberpunk Pathtracing Benchmark als Referenz tatsächlich diesen Meilenstein der 60 fps knackt, und das breits ohne DLSS fps boost.

Bin auf jeden Fall hyped. 🤩
 
  • Gefällt mir
Reaktionen: -MK
Was ich nicht verstehe, wenn die Daten bisher so stimmen sollten, wie kann man eine 5070 mit 12GB und eine 5060Ti mit 16GB rausbringen?????????????

Und wie weit wird sich die 5070 von einer 4070 Super absetzen können? 4070 S 56CUs vs 5070 50CUs. Am Ende erwarte ich dann max 20 bis 30% und das nur mit 12GB :grr:
 
Hi

......Wird gekauft wenn irgendwann mal ein Game erscheint wo ICH die Leistung dann bräuchte...

Wird eh wieder elendig lange dauern bis es die Wakü Blöcke gibt.Geschweige die Hersteller WaKü. Versionen.

Zum Glück daddel ich nur in 3440x1440 .:cool_alt:

Weihnachtliche Grüße.
 
SuperHeinz schrieb:
Wenn man einen adäquaten RAM zu den 32 GB VRAM der RTX 5090 installieren möchte, ob da 64 GB RAM reichen oder sollte man gleich zu 96 GB oder gar 128 GB gehen?

Check ich nicht. Dir is klar, dass das eine mit dem anderen rein überhaupt nichts zu tun hat? Du brauchst nicht plötzlich mehr System-Ram, nur weil du mit einer neuen Grafikkarte mehr VRam hast lol.
 
  • Gefällt mir
Reaktionen: Wilfriede
Ich kann es auch noch kaum erwarten, bis die 5090 mit 450-500W TDP, 160-180% der Leistung einer 4090 und für 2200-2400€ auf den Markt kommt.
Das wird ein neuerlicher Schlag ins Gesicht der Nvidia-Hater!
 
Nun ja, wenn die Ansprüche so weitergehen, wie mit dem MSFS 2024 begonnen, dann könnten selbst 64 GB RAM ist absehbarer Zeit bisschen knapp werden. Und ich kaufe Anfang 2025 bestimmt nicht 64 GB RAM, um dann in wenigen Monaten wiederum nachzurüsten.
 
  • Gefällt mir
Reaktionen: Topi41
Laphonso schrieb:
Den Gedanken hatte ich auch, hängt von den Games und Settings hab.

Denke die Rasterzuwächse werden vielleicht "nur" bei 30% on top der 4090 liegen, aber wen interessiert das olle Raster-Rendering mit so einer GPU. 🥱
In der neuen Architektur werden Raytracing und Pathtracing Benchmarks vielleicht nochmal 50% oder mehr zulegen, da geht die Reise hin, siehe Alan Wake 2, Wukong und Indiana Jones.
Hier kommt in gewissen Szenarien ja sogar die 4090 in strugglen.

Kann mir vorstellen, dass die 5090 im Cyberpunk Pathtracing Benchmark als Referenz tatsächlich diesen Meilenstein der 60 fps knackt, und das breits ohne DLSS fps boost.

Bin auf jeden Fall hyped. 🤩
Ich habe ehrlich gesagt kaum RT Spiele. Allerdings bin ich an einer anderen Seite interessiert. Ich bin gespannt auf dieses Zusammenspiel der neuen Architektur in Verbindung mit (hoffentlich bald) DLSS 4.0.

Ich will einfach maximale Effizienz in meinen Spielen haben. Wenn die 5090 ähnlich effizient ist, wie die 4090, dann bin ich ultra happy.

Haben ist besser als brauchen. Ich will einfach das gesamte Ökosystem abrufen mit DLSS/FG, RT (PT), Gsync und allem was dazu gehört. Richtig Tech-Nerden ^^.

Alleine die 32GB VRAM mit einem 512Bit SI wird pervers werden. Hubraum ohne Ende.

Ich frage mich wirklich wie Konsolen da auch nur im Ansatz rankommen wollen.

Ich vermute mit der 50er Serie nochmal einen ordentlichen Sprung. Von der 5080 erwarte ich mir nicht sooo viel. Die 5090 hat quasi 100% mehr Shader.... absolut crazy.
Ergänzung ()

SuperHeinz schrieb:
Nun ja, wenn die Ansprüche so weitergehen, wie mit dem MSFS 2024 begonnen, dann könnten selbst 64 GB RAM ist absehbarer Zeit bisschen knapp werden. Und ich kaufe Anfang 2025 nicht 64 GB RAM, um dann in paar Monaten wiederum nachzurüsten.
FS2024 läuft auch mit 32GB absolut perfekt. Hier hat man viel zu dick aufgetragen.

Das Problem bei 128GB ist, dass man wenn, 2x 64GB Module benötigt und die gibt es kaum mit vernünftigen Latenzen und Geschwindigkeiten.
 
  • Gefällt mir
Reaktionen: Laphonso
Die 600W sind die maximale Grenze, die noch versorgt werden kann.
Das heißt noch lange nicht, dass die genutzt werden.

Ich rechne mit <500W.
 
  • Gefällt mir
Reaktionen: maxrl und -MK
Lan_Party94 schrieb:
Eine GPU von vor 3 Jahren die 300W zieht stinkt gegen eine GPU von heute mit 300W komplett ab. Die neuere GPU wird für die selbe Leistung weniger Strom brauchen, [...]
Das ist nur bei Volllast der Fall. Wenn alte und neue GPUs problemlos 60fps bei Spielen erreichen können, dann liegen die Unterschiede maximal 5w.
Ich hatte vorher eine gtx1050 und seit Oktober den rtx3050. Abgesehen von Volllast-Betrieb, ist die 3050 eine Enttäuschung im Vergleich zu dem Vor-Vorgänger.
Verbraucht überall 2-5w mehr strom (idle, 1080p stream gucken, office-betrieb und spiele mit 60 fps cap) für die gleiche Leistung. Erst bei Volllast ändert sich die Situation dank der DLSS Funktionen.

Vor dem Kauf habe ich erwartet dass die 3050 in allen Situationen, außer Idle, sparsamer ist.
 
  • Gefällt mir
Reaktionen: Haldi
t3chn0 schrieb:
Das Problem bei 128GB ist, dass man wenn, 2x 64GB Module benötigt und die gibt es kaum mit vernünftigen Latenzen und Geschwindigkeiten.
Ich plane ein Intel-System zu bauen, daher sollten 4x 32 GB-Module kein Problem darstellen.
Ergänzung ()

Nero2019 schrieb:
Vor dem Kauf habe ich erwartet dass die 3050 in allen Situationen, außer Idle, sparsamer ist.
Dann wäre eine GTX 1650 das richtige Mittel gewesen. Die RTX 3050 arbeitet auf einem viel höheren Niveau.
 
t3chn0 schrieb:
Ich frage mich wirklich wie Konsolen da auch nur im Ansatz rankommen wollen.
Müssen sie nicht...
Kriegst ja 3x Ps5 Pro für eine GPU und vermutlich 5xPS5 pro für ein Highend Rig...also Äpfel und Birnen und so....

Unti schrieb:
Das wird dem Powerbudget nicht gut tun, denke die 600W sind sehr sehr realistisch (550 + paar % OC mit PT rauf).
Ja aber wieviel Leistung verliert eine 4090 wenn man sie mit 350 Watt betreibt?
Aber bald wissen wir es....

Unti schrieb:
Die Zielgruppe ist semi-prof. Workload und 4K >60FPS Gaming inkl. Raytracing.
Und die "Idioten" wie wir die halt das Dickste was es gibt wollen 🫣😂😂
 
Dwyane schrieb:
Also für die RTX5080 mal wenigstens 1900,-€
Niemals und dann noch nicht.
Die 5080 wird nicht mehr wie 1200€-1300€ kosten.

Die Karte ist so unglaublich unattraktiv wer soll die für 1900€ bitte kaufen?

Und auch die 5090 wird denke ne UVP von 2199$, 1799$ (Edit 2199€) haben das sollte das höchste der Gefühle sein.
Die 5090 muss die doppelte Anzahl der Shader auch auf die Straße bringen. Das hat die 4090 auch nicht geschafft.
Ich bin da sehr skeptisch.
Ergänzung ()

dohderbert schrieb:
Ich denke auch für die RTX 5090 wird es 2500€ - 3000€, da AMD abwesend ist..
Die RTX 5080 wird wohl Richtung 1400€ - 1600€ gehen und wenn mal eine
24GB Version der RTX 5080 kommt, dann 1800€ - 2000€ .. Einfach nur krank..
Nein, nein und nochmals nein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shaboo, -MK und legenddiaz
Egal wie teuer und welcher Verbrauch, eins kann ich jetzt schon sagen, das Ding wird eh gekauft und alle werden sich drum prügeln. :D
 
  • Gefällt mir
Reaktionen: Haldi und Fililander
SuperHeinz schrieb:
Nun ja, wenn die Ansprüche so weitergehen, wie mit dem MSFS 2024 begonnen, dann könnten selbst 64 GB RAM ist absehbarer Zeit bisschen knapp werden.

Unsinn.

Der FS war und ist doch immer eine Ausnahmeerscheinung in Sachen Anforderungen.
 
Zurück
Oben