News GeForce RTX 5090: Wie enttäuscht seid ihr von Nvidias 575-Watt-Brechstange?

Ryzen3D schrieb:
Ich sehe abgesehen von den deutlich besseren Spiegelungen keinen großen Vorteil in Raytracing.
Grundsätzliche die gesamte Lichtberechnung und damit einhergehend halt die Schatten und Umgebungsverdeckung, sowie eben das Wechselspiel mit (Licht-)Objekten außerhalb des Bildschirms.
Wenn man sich mal etwas mit beschäftigt und dann auch mal gezielt in Games drauf achtet, merkt man die Vorteile von Raytracing. Manche sind schon wirklich massive Sprünge in der Darstellung.
 
Für diesen Preis maximal enttäuschend. Weckt mich wenn es eine vernünftige SFF-GPU mit 75 Watt zu einem angemessenem Preis gibt.
 
SavageSkull schrieb:
Ich fand das neulich mit der Diskussion über Geforce Now schon interessant, wie Leute von dem Streaming Dienst schwärmen, weil sie der Meinung sind, damit weniger in Abhängigkeit von "Grafikkarten-Käufen" zu geraten. Irgendwie ein sehr merkwürdiger Schluß, der da gezogen wird.
Die eigene Hardware zuhause ist doch eher eine Freiheit, als eine Abhängigkeit eines Dienstleisters mit laufenden Kosten?
Ich glaube manchen Leuten ist hier einfach nicht klar, dass sie damit vorgegaugelte Freiheit gewinnen, aber eigentlich eine andere aufgeben.
 
Weyoun schrieb:
Es wäre für mich absolut unmöglich, bei 32 °C Raumtemperatur auch nur an Zocken zu denken. Bereits ab 27 Grad Innentemperatur muss ich die Klimaanlage einschalten.
Geht mir genau so. Bin querschnittsgelähmt und durch die fehlende Kühlung durch Schwitzen und das was das vegetative Nervensystem da sonst normalerweise noch so (Blutgefäße erweitern etc.) unterhalb der Lähmungshöhe macht, sind Temperaturen über 30°C für mich eine Qual.

Mal schauen wie warm der nächste Sommer wird, eventuell muss ich auch ne Klimaanlage kaufen (Mietwohnung, geht nur so ein Ding mit Wasser und Abluftschlauch).
 
Richtig übel für die Aufrüster die extra auf Blackwell gewartet haben.
Man könnte meinen man könnte getrost auf die alte Serie setzen, aber die 4080 und 4090 ist auch nicht mehr verfügbar. Oder nur zu absurden Preisen.

Es ist eine Katastrophe. Immer steigende Preise. Kaum Verbesserung. Immer mehr Knappheit. Immer höher Anforderungen. Gibt jetzt 2 Spiele die meine 4060 nur in 1080p low schafft. Dieser Trend scheint die Zukunft zu sein. Habe vor nem ¾ Jahr 300€ für die Karte geblecht und die ist jetzt veraltet. Mit ner 5060 und 8GB das Selbe für 400-500€. Danke. Also müsste ich quasi jetzt schon auf ne 5070 aufrüsten. Was kostet die 700€?
Meine GTX 950 war selbst nach 4 Jahren noch gut. Die kostete damals 150€. Mit Inflation etwa 250€.
Für Doom reicht eine RTX3050 nicht mehr aus!!! Wtf!!

Liebe Entwickler. Programmiert euren Mist ordentlich. RTX… Ach kommt. Die sind nur zu Faul echte Reflextionen zu programmieren. RTX macht das ja selber. Und so manches Game vor 8 Jahren sieht besser aus. Läuft aber auf ne GTX 1060 mit 80fps.
 
Zuletzt bearbeitet:
slogen schrieb:
Man kann nur noch auf AMD hoffen!

9900XT ähnlich RTX5080 für unter 1000€.
Brauchste nicht hoffen, wird nicht passieren.
 
BAR86 schrieb:
wobei "deutlich" hier schon auch eine gewisse Frage mit sich bringt: was ist deutlich?
N3 ermöglicht 30% mehr Transistoren bei gleicher leistungsaufnahme
Das ist wahscheinlich die Erklärung warum der 5090-Chip nicht im Vollausbau erscheint. Der Vorteil der RTX "6090" auf die 5090 wäre zu klein.
BAR86 schrieb:
Gerade Indoor sind die Unterschiede zwischen Overdrive und Rastern gewaltig, welches "Raytracing" benutzt du?
Ich habe sowohl Pattracing als auch Raytracing Ultra ausprobiert. Ich habe das Spiel durchgespielt (inklusive aller Enden). Die Leuchtreklame ist ein wenig besser, die Spiegelungen viel besser, Schatten interessieren mich nicht.
Nachteile von Raytracing:
  • gewaltiger FPS-Verlust
  • das Bild flimmert, siehe hier (
    )
-/+ Verlust der Bildschärfe (Tiefenschärfe) durch 4K zu DLSS. Wobei das inzwischen durch die Fortschritte in DLSS schon sehr gut geworden ist und man bessere Kantenglättung bekommt.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Bei der 5090 ist es mir egal, schade wäre es nur wenn auch die anderen 50xx Modelle hinter den Erwartungen zurück blieben.
Denn dann könnte man wohl getrost auf 40xx bleiben, DLSS4 ist ja bis auf MFG auch nutzbar...
 
MalWiederIch schrieb:
1-2kWh sind bei meinem täglichen Verbrauch läppisch, das wird bei den meisten mit PV Anlage so sein - und ich zocke garantiert nicht täglich.
Also wir haben einen Grundverbrauch von um die 300 Watt und verbrauchen im Schnitt (ohne Berücksichtigung der Wallbox) 12 kWh am Tag (im Sommer weniger, weil wir da häufiger im Freien sind, im Winter mehr). Als "Läppisch" sind da 1 bis 2 kWh für mich auf keinen Fall.
MalWiederIch schrieb:
Nein, ich lade nachts für 20 Cent oder weniger durch den dynamischen Stromtarif den 32kWh Akku voll und nutze tagsüber wenn der Strom 30 Cent und mehr kostet den Strom aus dem Akku. Nennt sich bei Victron Dynamic ESS.
Ach so, das klingt jetzt schon besser.
MalWiederIch schrieb:
Wie kommst du pauschal auf 10 Jahre Lebensdauer?
10 Jahre Garantie von Sungrow => also wird der Akku unter Umständen nach 10 Jahren auszutauschen sein, auch wenn die Statistik bzgl. der Zyklenangabe ein höheres Lebensalter erwarten lässt (wenn er täglich mehr als einmal geladen oder entladen wird (mit bis zu 5 kW Lade-/Entladeleistung), also einem halben C).
MalWiederIch schrieb:
und das ist nicht einmal der aktuelle Stand, wir sind aktuell bei 8.000 Zyklen bei LiFePO4 - wobei es sich natürlich bereits bei 2.000-3.000 Zyklen gerechnet hat …
Unser Sungrow Akku hat eher die 2.000 bis 3.000 LFP Zyklen als derer 8.000.
 
crustenscharbap schrieb:
Man bekommt einfach mehr fürs Geld.
Kommt immer drauf an, was man machen will.
High End Gaming ist immer noch massiv von Apple Hardware entfernt.
Weyoun schrieb:
Es wäre für mich absolut unmöglich, bei 32 °C Raumtemperatur auch nur an Zocken zu denken. Bereits ab 27 Grad Innentemperatur muss ich die Klimaanlage einschalten.
Ich sitze hier in meiner Wohnung auf der Bodenplatte des Hauses und freu mich über ein paar Grad, sowohl im Winter, als auch im Sommer.
Gerade im Sommer habe ich oft das Problem, dass wenn nicht der ganze Tag das Fenster offen ist, ich mit Strickjacke rumlaufen muß, damit mir nicht kalt wird (zu großes Delta Innen zu Außentemperatur)
 
Mich stört nebem der maximalen Verbrauch auch, dass die Karten immer fetter werden. Die 5090 Suprim von MSI im Test bei Hardwareunboxxed passt ja nicht mal mehr in ein ATX Gehäuse. Egal welches Modell, egal welche Größe, einfach zu fett für ATX. Fast 30-50% höher als ein Noctua D-15. Ganz zu schweigen, dass die Karten langsam die 3-4kg Grenze sprengen.
 
SavageSkull schrieb:
Wenn man sich mal etwas mit beschäftigt und dann auch mal gezielt in Games drauf achtet, merkt man die Vorteile von Raytracing. Manche sind schon wirklich massive Sprünge in der Darstellung.
Dann sind wir einer Meinung. Es gibt Unterschiede, aber diese rechtfertigen doch nicht 50% Leistungsverlust. Mir fallen in Cyberpunk die saudumme KI, die schlechten Animationen, die grottige Art wie Gegner/NPCs/Umgebung auf Treffer durch Schusswaffen oder Nahkampfwaffen reagieren viel mehr auf.
Iongy08 schrieb:
Und das ist kein großer Vorteil? Auweia
Ist es 50% Leistungsverlust und das flimmerige und unschärfere Bild wert?
 
Sieht ein wenig so aus wie AMDs frühere Grafikkarten, erst UV und leichtes OC sorgen für den Betrieb im sweet spot.
Das Teil macht den Eindruck, als ob die Ingenieure am Ende sagten: "Nicht schön, aber selten".
 
Mimir schrieb:
ABER selbst mit optimalem Kühlkonzept ist die Karte gemäß tests VIEL zu laut.

Wenn man als optimal nur Luftkühlung definieren würde dann könnte dies bei den derzeitigen gezeigten Modellen stimmen. Nur fehlen noch die Modelle von ZOTAC, MSI, PNY, GIGABYTE und den anderen Herstellern

Wenn man optimal auch auf Wasserkühlung definieren würde, dann wäre das Kühlungskonzept der Karte im Auslieferungszustand egal, denn danach ist sie weder noch laut noch heiß.
 
NerdmitHerz schrieb:
Wenn man als optimal nur Luftkühlung definieren würde dann könnte dies bei den derzeitigen gezeigten Modellen stimmen.
Diese Aussage beruhte sich m. E. lediglich auf die FE. Und ggf. noch Astral die hier getestet wurde. Aber es gibt auch andere Tests schon von MSI z.b. und Palit. Ist also ein nicht vorhandenes Problem.

Und wie du schon sagst, unter Wasser sowieso egal.
 
Laphonso schrieb:
Da werden viele 1xxx Euro draufpacken und gehen direkt auf die 5090.
Ja aber es sind immer noch 1000€ mehr für 25% Mehrleistung was doch sehr teuer ist.
Da tröstet MFG für die zukünftigen Games ein bisschen. Ich spiele eh viel Triple A und wäre mit MFG Fein.
Aber ja was will man machen was besseres gibts eben nicht.
 
Ryzen3D schrieb:
Ist es 50% Leistungsverlust und das flimmerige und unschärfere Bild wert?
Auf deinem Bild sieht man null. Nur einen schlechten Schatten wenn man mega genau hinschaut. 50% Leistungsverlust hast du garantiert nicht. Das ist nicht nur übertrieben, sondern sogar schon dreist übertrieben. Aber gut, wenn es dir in die Karten spielt ist es natürlich ein Argument.

Und woran soll irgendwer erkennen ob da was flimmert oder gar unscharf ist? Lass mal die Kirche etwas im Dorf.
 
Wie bewerte ich die blackwell arch
Sehr Schlecht
Alles auf ai getrimmt auf software Fokussiert und eine kleine Änderung am Sheduler
Das ermöglich den zwischenweg von 32bit und 64bit arch und die software entscheidet in was die gpu läuft
Am Pc bei spielen wie üblich mit 32bit parallel zugriff wo man leicht den fma Durchsatz erhöht hat was die Auslastung der 128fp32 verbessert auf 96fp32 per sm statt den bisher üblichen 88fp32 +8% ipc wenn man so will.
Der Rest ist eher meh warum der n5 node weiterverwendet wird ist mir echt Schleierhaft n4p hätte es sein müssen.
So ist das maximal ne oc rtx4090ti mit mehr alu aufs maximum getrieben.
Die anderen Sku sind ehrlich gesagt zwischen 10-15% schneller in raster in dxr mit glück 30% sofern kein cpu limit greift den das ist Thema.
Erstaunlich finde ich die Kühllösung aber wegen der 570w bei der falschen sku, diese Kühllösung in einen singleslot bei 200w wäre deutlich interessanter
Am ende hatte ich mir von der arch deutlich mehr erwartet insbesondere die sm Struktur ist enttäuschend quasi stillstand.
 
Quidproquo77 schrieb:
Ich find es spannend, dass es eigentlich nur darum geht irgendein Produkt entweder hochzuloben oder abzuwatschen, dazwischen scheint es ja nix mehr zu geben.
Das ist allgemein leider ein Problem, dass es entweder Hop oder Top ist.

Nur muss man hier auch entscheiden, was man bereits als Abwatschen bezeichnet. Gerade du neigst besonders in Bezug auf Nvidia dazu, dass du bereits kleinste Kritik als überzogen bezeichnest. Und bevor du dich jetzt aufregst, ich geb es an der Stelle sogar zu: Mir geht es bei AMD genauso, dass ich da manchmal etwas zu blind bin.

Blackwell ist im Ganzen für mich enttäuschend. Man geht von 128 SM auf 170 SM rauf, hat also 32 % mehr Shader auf der Uhr, dazu geht die TDP von 450 auf 575 W, das entspricht 27 %. Im Mittel kommen hier dabei 24/22 % mehr FPS herum. Das ist für sich gesehen enttäuschend. Nimmt man die Rechenleistung, gehts es um 27 % von 82,6 auf 104,8 hinauf, auch in diesem Zusammenhang im Mittel ist es enttäuschend.

Und natürlich kann man die RTX 5090 mit UV und ebenso dem Absenken der TDP effizienter machen. Das Hauptproblem dieser Vergleiche ist nur, dass viele diese Vergleiche so anstellen, dass eine getunte RTX 5090 gegen eine ungetunte RTX 4090 antritt. So ein Vergleich ist im besten Fall verzerrend und im schlimmeren Fall der Versuch, die RTX 5090 zu beschönigen, weil man weiß, dass Blackwell im Ganzen nicht so ein Fortschritt ist, wie manche gerne hätten.

Stellt man getunte RTX 4090 gegen getunte RTX 5090 entgegen und sucht bei beiden Grafikkarten den Sweetspot, dann kann sich die RTX 5090 nur anhand der höheren TDP von der RTX 4090 absetzen, weil das beste Ergebnis, dass man erreicht ein Tie bei der Effizienz ist.

Nimmt man dann noch den Preisanstieg hinzu, dann ist die RTX 5090 relativ unattraktiv. Das kann man an der Stelle auch nicht beschönigen.

Ist Blackwell deswegen schlecht? Nein, auf keinen Fall, aber Blackwell ist damit enttäuschend.

Klar, Nvidia hat auch dieses Mal viel für die Zukunft angekündigt, bis sich Neural-Shaders und Co durchsetzen, wird jedoch noch einiges an Zeit vergehen. Die effektivste Neuerung ist als DLSS 4 und MFG und nur Letzteres ist exklusiv für Blackwell. Blackwell kann damit die FPS noch mal deutlich erhöhen, keine Frage. Effektiv kommt es aber auf das Spiel an, ob man dennoch 60 fps "vorhanden" sein müssen, oder auch 30 reichen.

Am Ende ist das alles aber auch nicht schlimm. Die RTX 5000er-Serie bietet aktuell gegenüber der 4000er kaum Mehrwert - und das ist jetzt den Vergleich, denn viele ziehen. Wenn man von RTX 2000 oder RTX 3000 kommt, ist die RTX 5000 allerdings eine valide Option und sollte jetzt auch der RTX 4000 vorgezogen werden, wenn der Preis passt.
Laphonso schrieb:
Wer stagniert denn gerade nicht?
Bei RDNA 4 wird man abwarten müssen und dazu muss man auch schauen welche Vergleiche man dann anstellt. Geht man RDNA 3 mit RDNA 4 im Ganzen, dann stagniert RDNA 4 nicht nur, sondern ist auch ein "Rückschritt". Nimmt man jetzt Navi32 und Navi48, kommt es darauf an, was dabei rum kommt.
HAse_ONE schrieb:
"Nur" 30% Mehr Leistung allein ist kein Stillstand, aber der Preis ist quasi im selben Maße gestiegen, genauso wie die Leistungsaufnahme.
Mal abwarten, was sich innerhalb des Jahres mit Blackwell noch zeigt.
 
  • Gefällt mir
Reaktionen: thom_cat, Millennial_24K, PulsarS und eine weitere Person
Zurück
Oben