Video gesehen? Anscheinend nichtaluis schrieb:Jetzt wirds hier aber ganz wild![]()
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Blender-Benchmark-Leak: GeForce RTX 5090 schlägt Mittelwert aller 4090 um 36 Prozent
- Registriert
- Mai 2011
- Beiträge
- 21.388
@paganini Und da waren sogar noch ganz viele DLSS 2.X Implementierungen dabei, die mittlerweile auch besser aussehen, wenn man die aktuelle 3.X reinpackt.
Mit der 4.0 wird es dann noch mal nen großen Sprung geben.
Mit der 4.0 wird es dann noch mal nen großen Sprung geben.
Ergänzung ()
Eine Interpretation meinerseits, da es hier eigentlich fast immer so ist, dass wenn jemand fragt ob beim Vergleich DLSS genutzt wurde, er darauf anspielt, dass die Ergebnisse ohne DLSS schlechter ausfallen würdenbensen schrieb:Meine Aussage war nicht, die Werte sind niedriger. Wüsste nicht warum das dann "sogar" sein sollte.
@paganini
Dieses Video bringt exakt gar nichts. Die Bitrate auf Youtube ist selbst in 4K so niedrig, dass es gerade mal auf einem 1080p Bildschirm angemessen ausschaut und nein, selbst wenn man 100 Mbps via Nvidia App anfängt aufzunehmen, ist es immer noch nicht das nativ gerenderte Bild.
In dem Video sehe ich überhaupt kein gutes Bild, das wäre auch verwunderlich, wenn Youtube eine brauchbare Bitrate erlauben würde.
DLSS ist immer nur dann gut, wenn man keine schnellen Bewegungsabläufe benötigt, also sowas wie Satisfactory spielt.
Bei Rennspielen, Shootern o.Ä. versagt DLSS vollständig und es sieht aus, als würde man auf Youtube Videos streamen, da geht mächtig was verloren an Bildschärfe und insbesondere Details auf Distanz.
Die Themen gehen stellenweise einfach so weit, dass man sogar auf LG OLED Bildschirmen Gsync ausschalten muss, weil die Bildqualität bzw. konkreter die Farbsättigung dadurch exorbitant leidet.
Wenn man mal richtig ins Fettnäpfchen mit DLSS treten und die Nase ganz tief reinstecken möchte, so dass man es garantiert sieht, was für ein Matsch da raus kommen kann, dann empfehle ich EA Sports WRC unter VR bei Nacht und starken Regen, man sieht absolut gar nichts mehr, die Bildqualität wird absolut unspielbar.
Alternativ zwei Rechner mit dem selben Spiel hinstellen und mal tatsächlich Nativ vs DLSS betrachten, ohne dass die Bildqualität durch Komprimierung bei Screenshots oder Videos ohnehin zerstört wurde.
Dieses Video bringt exakt gar nichts. Die Bitrate auf Youtube ist selbst in 4K so niedrig, dass es gerade mal auf einem 1080p Bildschirm angemessen ausschaut und nein, selbst wenn man 100 Mbps via Nvidia App anfängt aufzunehmen, ist es immer noch nicht das nativ gerenderte Bild.
In dem Video sehe ich überhaupt kein gutes Bild, das wäre auch verwunderlich, wenn Youtube eine brauchbare Bitrate erlauben würde.
DLSS ist immer nur dann gut, wenn man keine schnellen Bewegungsabläufe benötigt, also sowas wie Satisfactory spielt.
Bei Rennspielen, Shootern o.Ä. versagt DLSS vollständig und es sieht aus, als würde man auf Youtube Videos streamen, da geht mächtig was verloren an Bildschärfe und insbesondere Details auf Distanz.
Die Themen gehen stellenweise einfach so weit, dass man sogar auf LG OLED Bildschirmen Gsync ausschalten muss, weil die Bildqualität bzw. konkreter die Farbsättigung dadurch exorbitant leidet.
Wenn man mal richtig ins Fettnäpfchen mit DLSS treten und die Nase ganz tief reinstecken möchte, so dass man es garantiert sieht, was für ein Matsch da raus kommen kann, dann empfehle ich EA Sports WRC unter VR bei Nacht und starken Regen, man sieht absolut gar nichts mehr, die Bildqualität wird absolut unspielbar.
Alternativ zwei Rechner mit dem selben Spiel hinstellen und mal tatsächlich Nativ vs DLSS betrachten, ohne dass die Bildqualität durch Komprimierung bei Screenshots oder Videos ohnehin zerstört wurde.
Soweit ich weiß nutzt Blender kein DirectX?^^
Und bis jetzt hatte ich nur von DirectX bzgl. dem Support für Neural Rendering gelesen, also ich gehe zumindest davon aus das die RTX Neural Shaders der 5090 in Blender überhaupt nicht genutzt werden.^^
Wobei ich da sowieso noch skeptisch bin was das visuelle anbelangt, zumindest die Tech Demo dazu hat mich jetzt nicht gerade visuell umgehauen.^^
Aber man sollte meiner Meinung nach sowieso erst mal größere Tests abwarten und wie gut das dann alles wirklich in Zukunft unterstützt wird, sieht man dann vermutlich auch erst später bei neueren Spielen die von Nvidia gefeatured werden.^^
Und bis jetzt hatte ich nur von DirectX bzgl. dem Support für Neural Rendering gelesen, also ich gehe zumindest davon aus das die RTX Neural Shaders der 5090 in Blender überhaupt nicht genutzt werden.^^
Wobei ich da sowieso noch skeptisch bin was das visuelle anbelangt, zumindest die Tech Demo dazu hat mich jetzt nicht gerade visuell umgehauen.^^
Aber man sollte meiner Meinung nach sowieso erst mal größere Tests abwarten und wie gut das dann alles wirklich in Zukunft unterstützt wird, sieht man dann vermutlich auch erst später bei neueren Spielen die von Nvidia gefeatured werden.^^
- Registriert
- Mai 2011
- Beiträge
- 21.388
Es wurde doch explizit die Stelle bei 17:10 verwiesen, wo die Vergleiche angegeben wurden.eax1990 schrieb:@paganini
Dieses Video bringt exakt gar nichts. Die Bitrate auf Youtube ist selbst in 4K so niedrig, dass es gerade mal auf einem 1080p Bildschirm angemessen ausschaut und nein, selbst wenn man 100 Mbps via Nvidia App anfängt aufzunehmen, ist es immer noch nicht das nativ gerenderte Bild.
In dem Video sehe ich überhaupt kein gutes Bild, das wäre auch verwunderlich, wenn Youtube eine brauchbare Bitrate erlauben würde.
Es geht nicht darum, selbst die Qualität anhand des Videos zu beurteilen, sondern zu sehen, wie die Kollegen von HUB die Unterschieden anhand ihrer Tests beurteilt haben.
Bei CB liest man mittlerweile auch eher häufiger als seltener bei Tests zu neuen Spielen, dass DLSS Quality mittlerweile sogar in 1080p bereits Nativ+TAA vorzuziehen ist.
GR Supra schrieb:Shutup and take my money.
36% mit 600 Watt, das ist Fortschritt. (Für die Aktionäre)
Und möglicherweise mehr als 100-200% durch DLSS und MFG.
KI > Rohleistung.
In ein paar Jahren wird es jeder verstehen.
LeckerRK
Lt. Junior Grade
- Registriert
- Aug. 2009
- Beiträge
- 267
Nvidia RTX 5090 mit 36% mehr Geschmack,dank des Zusatzes von Dr. Oetker "Geschmacksverstärker",leere Grafikkarte aber der Geschmack geht,am besten mit Augenbinde essen,denn es ist alles das selbe mit unterschiedlichen Geschmacksverstärkern,am besten in Dalli Dalli in 50 Sekunden alles auf essen und pro Zutat die man am Geschmack erkennt 100,- Euro bekommen.Und pro Grafikkarte nur 600 Kcal ohne Vitamine und Spurenelemente,was will man mehr.^^
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.282
Ich würde sage: das ist Gebabbel. Hier Zitat aus dem CB Test.Diablow51 schrieb:Ist zwar ein negativbeispiel aber in stalker 2 ist es jetzt sogar manchmal schon der fall.
Und genauso sind 10 GB zu wenig für die optimale Performance in WQHD, 12 GB bringt hier die optimale Geschwindigkeit. Und dasselbe gilt dann noch einmal für 12 GB in Ultra HD, ab 16 GB ist dann alles optimal.
Mumbira
Commander
- Registriert
- Feb. 2012
- Beiträge
- 2.725
Meinst du jetzt DLSS oder DLSS Frame Generation?eax1990 schrieb:Bei Rennspielen, Shootern o.Ä. versagt DLSS vollständig und es sieht aus, als würde man auf Youtube Videos streamen, da geht mächtig was verloren an Bildschärfe und insbesondere Details auf Distanz.
Bei DLSS muss ich dich da enttäuschen. Das läuft auf einer ganzen Reihe von Shootern sehr gut und ich ziehe es im Quality Mode auch Nativ+TAA vor.
dohderbert
Lieutenant
- Registriert
- Sep. 2007
- Beiträge
- 1.023
Mr_Cenk schrieb:Habe eben 6 verschiedene Shops angerufen. Zwecks der RTX 5090. Vor-Ort Abholungen wird es gar nicht erst geben und jeder Angestellte hat das gleiche gesagt. "Wir bekommen sehr wenig Karten und die sind nur über die Onlineshops kaufbar!". Der Launch wird wohl schlimmer als bei der RTX 4090...
Und ich habe die RTX 3090 und RTX 4090 day one kaufen können. Der RTX 5090 Launch wird wohl der schlimmste. Obwohl die Karte mit Abstand am teuersten ist. Wahnsinn dieser Ansturm...So viel zum Thema "Wirtschaftskrise"...
Genau das gleiche berichtet auch " Moore's Law Is Dead " . Es soll anscheinend wie bei der 3000er Reihe und sogar schlimmer sein.. Kaum RTX 5080 und bei der RTX 5090 schaut es extrem schlimm aus..
Sehr seltsam, keine Ahnung was da nvidia vorhat.. künstliche Verknappung?
Mumbira
Commander
- Registriert
- Feb. 2012
- Beiträge
- 2.725
Vielleicht ist die Ausfallrate der Chips auch recht hoch und man sammelt noch Chips für eine 5080 Ti. 😀dohderbert schrieb:künstliche Verknappung?
Ist ja so ziemlich das erste Mal, dass die x80/ xx80 nicht auf dem "High End" Chip setzt.
Das erste mal...Mumbira schrieb:Ist ja so ziemlich das erste Mal, dass die x80/ xx80 nicht auf dem "High End" Chip setzt.
4080 (AD103 statt AD102)
2080 (TU104 statt TU102)
1080 (GP104 statt GP102)
980 (GM204 statt GM200)
In den letzten 5 Generationen vor Blackwell war die 3080 die einzige Ausnahme, die auch den großen Chip (GA102) hatte.
Fighter1993
Admiral Pro
- Registriert
- Juli 2009
- Beiträge
- 7.418
Genau das. Lieber eine AI Karte für 20K verkaufen. Als eine 5090.dohderbert schrieb:Sehr seltsam, keine Ahnung was da nvidia vorhat.. künstliche Verknappung?
Ich glaube bald es lohnt sich nicht am 30ten auf die Lauer zu legen um eine zu bekommen.
Gegen Bots gleicht das ja schon einem Lottogewinn.
Eagle-PsyX-
Commander
- Registriert
- Juni 2006
- Beiträge
- 2.105
36 % Leistungszuwachs bei 27 % höheren Strombedarf. Schwach Nvidia, einfach nur einengrößeren Chip, vermutlich nur leicht höheren Takt, kleinere Strukturbreite nehmen. Das ist kein Fortschritt, sondern nur Ausbau. Dafür zu viel zu teuer.
Aber egal, wird immer Fanatikern geben die das kaufen werden. Nächstes Jahr 1000 Watt mit 40% mehr Leistung und es wird wieder gekauft... Dann halt 5000€.
Aber egal, wird immer Fanatikern geben die das kaufen werden. Nächstes Jahr 1000 Watt mit 40% mehr Leistung und es wird wieder gekauft... Dann halt 5000€.
Ergänzung ()
Nächste Iteration? 700 WattMoritz Velten schrieb:Ich sage 600 bis 650 Watt.
Wer bietet wie viel?
GutenTag
Lt. Junior Grade
- Registriert
- Juli 2024
- Beiträge
- 368
Quidproquo77 schrieb:Ich kapiere nicht woher dieser negative Vibe kommt. Wahrscheinlich vor Neid und Missgunst zerfressen,
Meine Erwartung war einfach zu hoch an der kommenden Generation weswegen ich doppelt kritisch darauf achte. Dazu kommt noch dass Raytracing Effekte getauscht wurden durch unscharfe Bilder, Ghosting Effekte und schlechter Latenz.
Seit der gtx980 hab ich immer auf nv gesetzt und seit der rtx serie ist mir nv immer unsympathischer geworden (wie oben beschrieben), dazu kommt noch der Geiz an Speicher um die Kunden doppelt zu melken.
paganini schrieb:Wenigstens bekommt man bei Nvidia einen Plus an Leistung. Bei der Konkurrenz wird man voraussichtlich mit einem Minus an Leistung rauskommen ;-)
Bei vermutlich reduzierten Preisen. Und schaun wir mal, wie die neuen Karten mit RT abschneiden.
Nur weil Nativ+TAA noch viel schlechter als DLSS ist, bedeutet das noch lange nicht, dass DLSS besser reines nativ ist. Wer was anderes behauptet, lügt (sich in die eigene Tasche).Mumbira schrieb:ich ziehe es im Quality Mode auch Nativ+TAA vor.
- Registriert
- Mai 2011
- Beiträge
- 21.388
"reines nativ", also komplett ohne AA, kann sich doch nun wirklich keiner antun, da nehme ich noch lieber die Unschärfe von TAA in Kauf als das Kantenflimmern ohne AA.aluis schrieb:Nur weil Nativ+TAA noch viel schlechter als DLSS ist, bedeutet das noch lange nicht, dass DLSS besser reines nativ ist. Wer
Zumal es dieses "reine nativ" auch in den wenigsten neuen Spielen überhaupt noch gibt, weil man oft irgendwas als AA Option auswählen MUSS. Und da steht halt oft nur noch TAA oder DLSS/FSR/XeSS/TSR(beiUE5) zur Auswahl.
In manchen Spielen ab und zu auch noch FXAA aber das ist denke ich keiner Erwähnung wert.
Kingdom Come Deliverance 2 bietet noch SMAA als alternative zu DLSS und FSR an, der erste Teil hatte ausschließlich SMAA.
Den Vergleich kann man sich hier ansehen:
https://www.capframex.com/assets/static/imageslider.html?url1=https://gamegpu.com/images/beforeafterimagesslide/kkd2_1.jpg&url2=https://gamegpu.com/images/beforeafterimagesslide/kkd2_3.jpg&title1=SMAA&title2=DLSS
Quelle:
https://en.gamegpu.com/action-/-fps-/-tps/kingdom-come-deliverance-ii-prevyu-test-gpu-cpu
Zuletzt bearbeitet:
Jup, deswegen zocke ich auf einer 500€ Konsole, bzw. jetzt auf eine 800€ KonsoleFyrex schrieb:Wo waren denn früher die ganzen Leute, die die Titan(s) gekauft haben. Ich kannte absolut niemanden.
Was hab ich denn verpasst? Was hat sich geändert, dass dieses Upselling so gut funktioniert? 🤷♂️
Ergänzung ()
Die zwanghaften 5090 Besitzer tuen mir eher leid.
Diese ganzen Leute kommen mir immer so vor, wie jemand der einen neuen TV kauft weil er glaubt dadurch würde das Programm besser. 🤷♂️
Welche extra Levels habt ihr denn damit in euren Spielen? Welche bessere Story, tolle Gegner oder gute Items?
Oder kann es sein, dass ich das gleiche Spiel erlebe mit einer deutlich günsteren Grafikkarte?
Nein, dass kann nicht sein. Wäre ja verrückt...
![Daumen hoch :daumen: :daumen:](/forum/styles/smilies/daumen.gif)
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Ich freu mich, mein Geldbeutel freut sich und falls ich mal nicht zum Zocken komme und das Teil mal einstaubt, ist das kein Weltuntergang.
Wird Zeit für eine neue Packung Popcorn 🍿 Beste Unterhaltung hier 😂
- Registriert
- Apr. 2001
- Beiträge
- 16.254
Artikel-Update: Inzwischen findet sich auch ein Ergebnis der für den chinesischen Markt in der Leistung kastrierten GeForce RTX 5090D in der Blender-Benchmark-Datenbank wieder – dieses Mal getestet in der Version 4.3.0, die niedrigere Ergebnisse aufweist als die Version 3.6.0. Die GeForce RTX 4090D weist in dieser Version ca. 10.500 Punkte auf, mit 14.706 Punkten legt die RTX 5090D also 40 Prozent zu.
[Bilder: Zum Betrachten bitte den Artikel aufrufen.]