Bericht Nvidia GeForce „Blackwell“: Neue Details und Benchmarks zu RTX 5090, 5080 & 5070 (Ti)

Laphonso schrieb:
Fairerweise hat Nvidia das verkackt, ich finde das maximal verwirrend für "Nicht-Insider"

Ja, weil sie immer DLSS FG oder jetzt DLSS MFG schreiben. Es wäre besser das durch ein + zu trennen.
 
  • Gefällt mir
Reaktionen: Mcr-King und Laphonso
@Lolliedieb Musst Du unsere emotionalen "Lagerkämpfe" hier mit so substanziellen Fachpostings unterlaufen, Frechheit.....

Toller Beitrag wieder von Dir :)
 
  • Gefällt mir
Reaktionen: Quidproquo77, Cr4y, Apocalypse und eine weitere Person
Rockbreak schrieb:
@SKu Eben, der einzige Unterschied bei DLSS4 für die 5000er Karten ist dass der FG Multiplikator statt x2 nun auch x3 und x4 beinhaltet, das wars, alle anderen Features hat und wird auch die 4000er bekommen (Wie Reflex 2 z.B.)

Und genau deshalb empfinde ich die RTX 5000 auch als "langweilig."

Die thermodynamischen Änderungen des FE Kühlers der 5090 sind technisch interessanter als die GPU an sich.
 
  • Gefällt mir
Reaktionen: controlokk, DeadMan666 und Pestplatte
Trinoo schrieb:
Ich weiß nicht was die Leute erwarten, jedes Jahr +50% Performance, 30% weniger Verbrauch und einen um 25% geringeren Preis.
Ich kann Deinen amüsanten Post in der Sache nachvollziehen.

Die Vergleiche hinken aber doch teils recht deutlich, da es im Halbleiterbereich in der Vergangenheit eben auch diese Fortschitte gab. Es gab nicht nur mehr, viel mehr, sondern eben auch das Gleiche für viel weniger mit jeder Generation.

Das ist nun seit AD erst einmal eine negative Änderung und ob mit AI-Gedöns wirklich mittelfristig so tolle Sachen möglich sind, muss man sehen.

Gutes Upscaling ist eine feine Sache, FG wohl auch. Anderes, wie Hairworks oder Hardware Tesselation sind keine Themen mehr, RT aus Sicht vieler zumindest fraglich - insbesondere wenn man berücksichtigt, wieviele Millionen Quadratkilometer Chipfläche für den Quatsch verschwendet und bezahlt wurden auf Karten, die das nie sinnvoll berechnet haben.
 
Tolle Features, nur bringt das alles irgendwie nix wenn die Games schrottig sind oder aus Kostengründen dirty Konsolenports sind und/oder dann Monate herum gepfuscht wird bis es mal so läuft wie versprochen, right Cyberpunk, Battlefield ...... bitte Spielnamen einsetzen.

Habe schon damals irgendwie das Gefühl gehabt die Gen auszulassen und erst bei der 60er Serie mal wieder vorbeizuschauen. Dürfte sich bestätigen. Auch NV kocht nur mit Wasser.
 
Luftgucker schrieb:
Zumindest bei Indiana Jones mit einer 4090 sind die Zwischenbilder schon recht "schwammig", kein Vergleich zu nativ + vsync.
Das kommt ganz auf dein setup und dem spiel an. 60fps native, sollten sich schlechter anfühlen wie 60fps+FG (sollte sich besser anfühlen und aussehen) wenn du einen 120Hz oder mehr Monitor hast. Wenn dieser allerdings nur 100hz hat kannst du FG eigentlich komplett vergessen. Ich würde einen Monitor mit min 240hz empfehlen um das volle potential von FG zu nutzen. Laut CB,Pcgh und anderen Redaktionen kommt Nvidia’s FG nicht gut klar mit höheren Fps(ich glaube es waren 100fps +fg) im gegensatz zu AMDs FG. Das soll ja jetzt behoben sein mit dlss4.

Leider bietet Das spiel keine entsprechende AMD unterstützung an, sonst hätte ich mir die integration von FG bei dem Spiel mal angeschaut.
 
  • Gefällt mir
Reaktionen: MiroPoch
Laphonso schrieb:
Wieso holst Du Dir keine 5080? Preisschild? Oder habe ich das falsch gelesen? ^^
Mit der Frau abgemacht. :D
Die 4080 raus, die 5070 Ti rein. Garantie ist auch nicht zu verachten.
 
  • Gefällt mir
Reaktionen: inge70, evilhunter und Laphonso
Bei der 4090 war doch das Problem, die Leistung gar nicht auf große und schnelle Displays zu bekommen dank altem Display Port. Alleine für den 57“ Samsung ist das ein großer Vorteil.

Ich werd‘ den Sprung von der 3090 machen, wenn die Tests positiv ausfallen.

Kaufentscheidend bei der Modellauswahl wird für mich die Lautstärke sein. Genial wäre natürlich, wenn die FE mit Custom-Designs mithalten kann… aber kann ich mir irgendwie nicht vorstellen, dass die fehlende Kühlkörpermasse und „nur“ 2 Lüfter das Leisten können.

Mal schauen, was die Tests ab 24.01. auch hinsichtlich Undervolting offenbaren werden. Gute Performance noch bei sagen wir mal 400W wäre wünschenswert.
Ergänzung ()

Crayten schrieb:
Es gibt halt keinen Grund, DLSS nicht zu nutzen, außer aus ideologischem Schwachsinn..
VR.
 
Trinoo schrieb:
Ich weiß nicht was die Leute erwarten, jedes Jahr +50% Performance, 30% weniger Verbrauch und einen um 25% geringeren Preis.
Ne aber man erwartet auch heutzutage noch mindestens eines davon. Hier hat man aber weder +50% Performance, noch weniger oder gleichen Verbrauch sondern sogar eine Verbrauchssteigerung bei nicht geringerem sondern gleichem oder höheren Preis.

Alle 3 zu haben war der Luxus von früher und toll aber heutzutage nicht mehr drinnen da gebe ich dir Recht, nichts von den dreien zu haben ist dann aber auch in 2025 wieder ne andere Hausnummer.
 
  • Gefällt mir
Reaktionen: N0Thing und MoinWoll
theGucky schrieb:
Die 5070Ti wird DIE Karte ich ich jedem empfehlen würde
300W und 880€ muss man aber auch schon sehr wollen.
 
Laphonso schrieb:
@Lolliedieb Musst Du unsere emotionalen "Lagerkämpfe" hier mit so substanziellen Fachpostings unterlaufen, Frechheit.....

:D

Als jemand, der aus der Wissenschaft kommt muss ich leider sagen, dass wir vermutlich so einige Probleme weniger hätten, würden wir nur noch faktenbasiert diskutieren und Entscheidungen treffen - irgendwie ist das in Verruf geraten ^^

Aber das driftet nun etwas zu sehr ins Off-Topic ab ... weitermachen :D
 
  • Gefällt mir
Reaktionen: inge70, Knobi Wahn, Laphonso und eine weitere Person
Also im Grunde genau die Enttäuschung die ich vermutet habe wenn man eine Grafikkarten im 4K Rasterbereich sucht.

Wenig Performancegewinn, wenig VRAM, hoher Verbrauch und hohe Preise.

Wird wohl AMD werden, da ich in World of Tanks, Path of Exile 2, Hades 2 und Elden Ring mit den Technikspielereien wie immer nichts anfangen kann

Schön das Nvidia DLSS mit jeder neuen Generation ins Absurdum führt da man den Vorgänger entwertet und die Verbreitung gefühlt immer weiter aufhält.
 
  • Gefällt mir
Reaktionen: ArrakisSand
wern001 schrieb:
Hab in einem anderen Thread geschrieben.

Jupi ich hab 250 FPS aber das Game fühlt sich an wie 30 fps
250FPS werden sich im ungünstigsten Vergleich, nämlich mit 4x MFG gegen eine NVIDIA + aktivem Reflex, anfühlen wie 60FPS.

Oder wie ~120FPS auf ner AMD Karte, aber eben in jedem Fall mit der Bewegunsschärfe von 250FPS.

Und sollte man die 250FPS nicht mit 4x MFG sondern mit 3x MFG erreichen wird es sich eher wie 160 auf ner AMD Karte anfühlen
 
  • Gefällt mir
Reaktionen: Laphonso, Apocalypse und Mcr-King
Topi41 schrieb:
Bei der 4090 war doch das Problem, die Leistung gar nicht auf große und schnelle Displays zu bekommen dank altem Display Port.
Hatte mit der 4090 auf meinem 240Hz 4K 10bit Bildschirm nie Probleme.

Topi41 schrieb:
Evtl. wird es durch die angeblich stark verbesserte Bewegtbildschärfe mit dem neuen DLSS SR Transformer Modell auch für VR gut nutzbar. Muss ich mal schauen, wenn ich die 5090 habe und DLSS4 released wurde. Gibt es VR-Spiele die DLSS unterstützen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pro_Bro
GrooveXT schrieb:
Dann müssen wir wohl weiter zurückreisen zur Voodoo 5, die als erstes FSA in Hardware durchgeführt hat, was im Grunde der Urvater von DLSS ist. Ich würde dir da gerne zustimmen, da aber FSR3 sogar auf Pascal und Maxwell läuft und DLSS2 nicht immer besser ist, würde ich das nicht als Killerfeature sehen. Zumal es nach wie vor fraglich ist, ob DLSS2 nicht auch auf Tensor Cores verzichten könnte und damit auch auf GTX Karten laufen würde, also das Feature eigentlich gar kein echtes Feature ist.
Ich präzisiere: Es ging mir um Features, deren Adoption wie die von dir genannten zu Launch noch in den Sternen standen. Das VSA100-SGSSAA konnte man ja direkt retrospektiv einsetzen. Da war direkt klar, dass es ein Kracher war.
Mögliche Vergleichskandidaten nennst du selbst:
GrooveXT schrieb:
Ausserdem gab es in der Geschichte der GPUs soviele Meilensteine, da hat DLSS wenig Schnitte. Von 16 auf 32 Bit Farben, Bumpmapping, Ambient Occlusion etc. Es gibt's nicht ohne Grund 12 DirectX Versionen...
Die Farbtiefenerhöhung ist z.B. ein Feature, bei dem sich diejenigen, die dafür eine andere Karte gekauft haben, voll nach hinten losging. Spiele, die das wirklich ausnutzten, performten dann nicht mehr genug. Für die hardwarebeschleunigten Bump-Mapping-Varianten gilt ähnliches. SSAO hatte nie Hardwarebeschleunigung.
 
  • Gefällt mir
Reaktionen: shadACII
Taxxor schrieb:
Und sollte man die 250FPS nicht mit 4x MFG sondern mit 3x MFG erreichen wird es sich eher wie 160 auf ner AMD Karte anfühlen
Warum lässt man wieder das Ghosting und die anderen Bildqualitätprobleme bei FG aus? Die kommen nämlich auch noch dazu, werden aber fast nie erwähnt sondern immer nur die Anzahl an Fps.
 
Rockbreak schrieb:
Warum lässt man wieder das Ghosting und die anderen Bildqualitätprobleme bei FG aus?
Hab beides noch in keinem FG Spiel erlebt und ich hab es bei allen wo es FG gab auch genutzt und das mit sehr geringen (40) Basis FPS.


Ob in einem generierten Frame mal irgendwas nicht zu 100% passt, fällt in den 10ms in denen der Frame zu sehen ist doch nicht auf.
Nicht mal in einem Game wie Spiderman, wo die Kamera sich wirklich schnell bewegt, ist mir mit 80FPS irgendwas negatives aufgefallen.

Daher habe ich auch bisher in keinem Spiel einen Grund gefunden, FG nicht generell zu nutzen, selbst wenn ich die FPS auch ohne erreichen würde
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso, shadACII und MoinWoll
Ich sehe hier irgendwie seit ein paar Jahren keine Upgrade Möglichkeiten mit Sinn für mich, kommt da mal wieder was?
 
Zum Release werden die Karten schnell ausverkauft sein und dann auf +30% gehen. Fe nicht lieferbar.
 
Zurück
Oben