News Blender-Benchmark-Leak: GeForce RTX 5090 schlägt Mittelwert aller 4090 um 36 Prozent

@paganini Und da waren sogar noch ganz viele DLSS 2.X Implementierungen dabei, die mittlerweile auch besser aussehen, wenn man die aktuelle 3.X reinpackt.
Mit der 4.0 wird es dann noch mal nen großen Sprung geben.
Ergänzung ()

bensen schrieb:
Meine Aussage war nicht, die Werte sind niedriger. Wüsste nicht warum das dann "sogar" sein sollte.
Eine Interpretation meinerseits, da es hier eigentlich fast immer so ist, dass wenn jemand fragt ob beim Vergleich DLSS genutzt wurde, er darauf anspielt, dass die Ergebnisse ohne DLSS schlechter ausfallen würden
 
  • Gefällt mir
Reaktionen: paganini und shadACII
@paganini
Dieses Video bringt exakt gar nichts. Die Bitrate auf Youtube ist selbst in 4K so niedrig, dass es gerade mal auf einem 1080p Bildschirm angemessen ausschaut und nein, selbst wenn man 100 Mbps via Nvidia App anfängt aufzunehmen, ist es immer noch nicht das nativ gerenderte Bild.
In dem Video sehe ich überhaupt kein gutes Bild, das wäre auch verwunderlich, wenn Youtube eine brauchbare Bitrate erlauben würde.


DLSS ist immer nur dann gut, wenn man keine schnellen Bewegungsabläufe benötigt, also sowas wie Satisfactory spielt.
Bei Rennspielen, Shootern o.Ä. versagt DLSS vollständig und es sieht aus, als würde man auf Youtube Videos streamen, da geht mächtig was verloren an Bildschärfe und insbesondere Details auf Distanz.
Die Themen gehen stellenweise einfach so weit, dass man sogar auf LG OLED Bildschirmen Gsync ausschalten muss, weil die Bildqualität bzw. konkreter die Farbsättigung dadurch exorbitant leidet.

Wenn man mal richtig ins Fettnäpfchen mit DLSS treten und die Nase ganz tief reinstecken möchte, so dass man es garantiert sieht, was für ein Matsch da raus kommen kann, dann empfehle ich EA Sports WRC unter VR bei Nacht und starken Regen, man sieht absolut gar nichts mehr, die Bildqualität wird absolut unspielbar.

Alternativ zwei Rechner mit dem selben Spiel hinstellen und mal tatsächlich Nativ vs DLSS betrachten, ohne dass die Bildqualität durch Komprimierung bei Screenshots oder Videos ohnehin zerstört wurde.
 
  • Gefällt mir
Reaktionen: Azeron, c4rD1g4n, Hells_Bells und 2 andere
Soweit ich weiß nutzt Blender kein DirectX?^^

Und bis jetzt hatte ich nur von DirectX bzgl. dem Support für Neural Rendering gelesen, also ich gehe zumindest davon aus das die RTX Neural Shaders der 5090 in Blender überhaupt nicht genutzt werden.^^

Wobei ich da sowieso noch skeptisch bin was das visuelle anbelangt, zumindest die Tech Demo dazu hat mich jetzt nicht gerade visuell umgehauen.^^

Aber man sollte meiner Meinung nach sowieso erst mal größere Tests abwarten und wie gut das dann alles wirklich in Zukunft unterstützt wird, sieht man dann vermutlich auch erst später bei neueren Spielen die von Nvidia gefeatured werden.^^
 
eax1990 schrieb:
@paganini
Dieses Video bringt exakt gar nichts. Die Bitrate auf Youtube ist selbst in 4K so niedrig, dass es gerade mal auf einem 1080p Bildschirm angemessen ausschaut und nein, selbst wenn man 100 Mbps via Nvidia App anfängt aufzunehmen, ist es immer noch nicht das nativ gerenderte Bild.
In dem Video sehe ich überhaupt kein gutes Bild, das wäre auch verwunderlich, wenn Youtube eine brauchbare Bitrate erlauben würde.
Es wurde doch explizit die Stelle bei 17:10 verwiesen, wo die Vergleiche angegeben wurden.
Es geht nicht darum, selbst die Qualität anhand des Videos zu beurteilen, sondern zu sehen, wie die Kollegen von HUB die Unterschieden anhand ihrer Tests beurteilt haben.

Bei CB liest man mittlerweile auch eher häufiger als seltener bei Tests zu neuen Spielen, dass DLSS Quality mittlerweile sogar in 1080p bereits Nativ+TAA vorzuziehen ist.
 
  • Gefällt mir
Reaktionen: Zocker1996, shadACII und paganini
GR Supra schrieb:
Shutup and take my money.
36% mit 600 Watt, das ist Fortschritt. (Für die Aktionäre)

Und möglicherweise mehr als 100-200% durch DLSS und MFG.
KI > Rohleistung.
In ein paar Jahren wird es jeder verstehen.
 
  • Gefällt mir
Reaktionen: Laphonso
Nvidia RTX 5090 mit 36% mehr Geschmack,dank des Zusatzes von Dr. Oetker "Geschmacksverstärker",leere Grafikkarte aber der Geschmack geht,am besten mit Augenbinde essen,denn es ist alles das selbe mit unterschiedlichen Geschmacksverstärkern,am besten in Dalli Dalli in 50 Sekunden alles auf essen und pro Zutat die man am Geschmack erkennt 100,- Euro bekommen.Und pro Grafikkarte nur 600 Kcal ohne Vitamine und Spurenelemente,was will man mehr.^^
 
  • Gefällt mir
Reaktionen: dohderbert und Zocker1996
Diablow51 schrieb:
Ist zwar ein negativbeispiel aber in stalker 2 ist es jetzt sogar manchmal schon der fall.
Ich würde sage: das ist Gebabbel. Hier Zitat aus dem CB Test.

Und genauso sind 10 GB zu wenig für die optimale Performance in WQHD, 12 GB bringt hier die optimale Geschwindigkeit. Und dasselbe gilt dann noch einmal für 12 GB in Ultra HD, ab 16 GB ist dann alles optimal.
 
  • Gefällt mir
Reaktionen: shadACII
eax1990 schrieb:
Bei Rennspielen, Shootern o.Ä. versagt DLSS vollständig und es sieht aus, als würde man auf Youtube Videos streamen, da geht mächtig was verloren an Bildschärfe und insbesondere Details auf Distanz.
Meinst du jetzt DLSS oder DLSS Frame Generation?

Bei DLSS muss ich dich da enttäuschen. Das läuft auf einer ganzen Reihe von Shootern sehr gut und ich ziehe es im Quality Mode auch Nativ+TAA vor.
 
  • Gefällt mir
Reaktionen: ThirdLife, hahaqp, Zocker1996 und 3 andere
Mr_Cenk schrieb:
Habe eben 6 verschiedene Shops angerufen. Zwecks der RTX 5090. Vor-Ort Abholungen wird es gar nicht erst geben und jeder Angestellte hat das gleiche gesagt. "Wir bekommen sehr wenig Karten und die sind nur über die Onlineshops kaufbar!". Der Launch wird wohl schlimmer als bei der RTX 4090...
Und ich habe die RTX 3090 und RTX 4090 day one kaufen können. Der RTX 5090 Launch wird wohl der schlimmste. Obwohl die Karte mit Abstand am teuersten ist. Wahnsinn dieser Ansturm...So viel zum Thema "Wirtschaftskrise"...

Genau das gleiche berichtet auch " Moore's Law Is Dead " . Es soll anscheinend wie bei der 3000er Reihe und sogar schlimmer sein.. Kaum RTX 5080 und bei der RTX 5090 schaut es extrem schlimm aus..

Sehr seltsam, keine Ahnung was da nvidia vorhat.. künstliche Verknappung?
 
dohderbert schrieb:
künstliche Verknappung?
Vielleicht ist die Ausfallrate der Chips auch recht hoch und man sammelt noch Chips für eine 5080 Ti. 😀
Ist ja so ziemlich das erste Mal, dass die x80/ xx80 nicht auf dem "High End" Chip setzt.
 
  • Gefällt mir
Reaktionen: Zocker1996
Mumbira schrieb:
Ist ja so ziemlich das erste Mal, dass die x80/ xx80 nicht auf dem "High End" Chip setzt.
Das erste mal...
4080 (AD103 statt AD102)
2080 (TU104 statt TU102)
1080 (GP104 statt GP102)
980 (GM204 statt GM200)

In den letzten 5 Generationen vor Blackwell war die 3080 die einzige Ausnahme, die auch den großen Chip (GA102) hatte.
 
  • Gefällt mir
Reaktionen: ThirdLife, Mumbira und Laphonso
dohderbert schrieb:
Sehr seltsam, keine Ahnung was da nvidia vorhat.. künstliche Verknappung?
Genau das. Lieber eine AI Karte für 20K verkaufen. Als eine 5090.
Ich glaube bald es lohnt sich nicht am 30ten auf die Lauer zu legen um eine zu bekommen.
Gegen Bots gleicht das ja schon einem Lottogewinn.
 
  • Gefällt mir
Reaktionen: Zocker1996 und dohderbert
36 % Leistungszuwachs bei 27 % höheren Strombedarf. Schwach Nvidia, einfach nur einengrößeren Chip, vermutlich nur leicht höheren Takt, kleinere Strukturbreite nehmen. Das ist kein Fortschritt, sondern nur Ausbau. Dafür zu viel zu teuer.
Aber egal, wird immer Fanatikern geben die das kaufen werden. Nächstes Jahr 1000 Watt mit 40% mehr Leistung und es wird wieder gekauft... Dann halt 5000€.
Ergänzung ()

Moritz Velten schrieb:
Ich sage 600 bis 650 Watt.

Wer bietet wie viel?
Nächste Iteration? 700 Watt
 
  • Gefällt mir
Reaktionen: Zocker1996 und pacifictrain
Quidproquo77 schrieb:
Ich kapiere nicht woher dieser negative Vibe kommt. Wahrscheinlich vor Neid und Missgunst zerfressen,

Meine Erwartung war einfach zu hoch an der kommenden Generation weswegen ich doppelt kritisch darauf achte. Dazu kommt noch dass Raytracing Effekte getauscht wurden durch unscharfe Bilder, Ghosting Effekte und schlechter Latenz.

Seit der gtx980 hab ich immer auf nv gesetzt und seit der rtx serie ist mir nv immer unsympathischer geworden (wie oben beschrieben), dazu kommt noch der Geiz an Speicher um die Kunden doppelt zu melken.
 
paganini schrieb:
Wenigstens bekommt man bei Nvidia einen Plus an Leistung. Bei der Konkurrenz wird man voraussichtlich mit einem Minus an Leistung rauskommen ;-)


Bei vermutlich reduzierten Preisen. Und schaun wir mal, wie die neuen Karten mit RT abschneiden.
 
Mumbira schrieb:
ich ziehe es im Quality Mode auch Nativ+TAA vor.
Nur weil Nativ+TAA noch viel schlechter als DLSS ist, bedeutet das noch lange nicht, dass DLSS besser reines nativ ist. Wer was anderes behauptet, lügt (sich in die eigene Tasche).
 
aluis schrieb:
Nur weil Nativ+TAA noch viel schlechter als DLSS ist, bedeutet das noch lange nicht, dass DLSS besser reines nativ ist. Wer
"reines nativ", also komplett ohne AA, kann sich doch nun wirklich keiner antun, da nehme ich noch lieber die Unschärfe von TAA in Kauf als das Kantenflimmern ohne AA.

Zumal es dieses "reine nativ" auch in den wenigsten neuen Spielen überhaupt noch gibt, weil man oft irgendwas als AA Option auswählen MUSS. Und da steht halt oft nur noch TAA oder DLSS/FSR/XeSS/TSR(beiUE5) zur Auswahl.

In manchen Spielen ab und zu auch noch FXAA aber das ist denke ich keiner Erwähnung wert.

Kingdom Come Deliverance 2 bietet noch SMAA als alternative zu DLSS und FSR an, der erste Teil hatte ausschließlich SMAA.
Den Vergleich kann man sich hier ansehen:
https://www.capframex.com/assets/static/imageslider.html?url1=https://gamegpu.com/images/beforeafterimagesslide/kkd2_1.jpg&url2=https://gamegpu.com/images/beforeafterimagesslide/kkd2_3.jpg&title1=SMAA&title2=DLSS

Quelle:
https://en.gamegpu.com/action-/-fps-/-tps/kingdom-come-deliverance-ii-prevyu-test-gpu-cpu
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife, Quidproquo77, Zocker1996 und 2 andere
Fyrex schrieb:
Wo waren denn früher die ganzen Leute, die die Titan(s) gekauft haben. Ich kannte absolut niemanden.
:confused_alt:
Was hab ich denn verpasst? Was hat sich geändert, dass dieses Upselling so gut funktioniert? 🤷‍♂️
Ergänzung ()





Die zwanghaften 5090 Besitzer tuen mir eher leid.

Diese ganzen Leute kommen mir immer so vor, wie jemand der einen neuen TV kauft weil er glaubt dadurch würde das Programm besser. 🤷‍♂️

Welche extra Levels habt ihr denn damit in euren Spielen? Welche bessere Story, tolle Gegner oder gute Items?
Oder kann es sein, dass ich das gleiche Spiel erlebe mit einer deutlich günsteren Grafikkarte?

Nein, dass kann nicht sein. Wäre ja verrückt...
Jup, deswegen zocke ich auf einer 500€ Konsole, bzw. jetzt auf eine 800€ Konsole :daumen: Hauptsächlich Exklusivtitel und da fallen teilweise den 3000€+ PC Gamern die Kinnlade runter, was die PS da aus dem Hut zaubert :D

Ich freu mich, mein Geldbeutel freut sich und falls ich mal nicht zum Zocken komme und das Teil mal einstaubt, ist das kein Weltuntergang.

Wird Zeit für eine neue Packung Popcorn 🍿 Beste Unterhaltung hier 😂
 
  • Gefällt mir
Reaktionen: jotecklen, Fyrex und KempA
Artikel-Update: Inzwischen findet sich auch ein Ergebnis der für den chinesischen Markt in der Leistung kastrierten GeForce RTX 5090D in der Blender-Benchmark-Datenbank wieder – dieses Mal getestet in der Version 4.3.0, die niedrigere Ergebnisse aufweist als die Version 3.6.0. Die GeForce RTX 4090D weist in dieser Version ca. 10.500 Punkte auf, mit 14.706 Punkten legt die RTX 5090D also 40 Prozent zu.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: lubi7, FR3DI und Trinoo
Zurück
Oben