Test Nvidia GeForce RTX 5080 im Test: DLSS 4 MFG und ein kleiner FPS-Boost für die RTX 4080

Für mich ist das eindeutig. Ich bleibe bei meiner 4080. Alles andere ist sinnfrei.
 
  • Gefällt mir
Reaktionen: Pisaro, LukS, cllN und eine weitere Person
slogen schrieb:
Gut für AMD... hoffe ja noch auf eine 9900XTX.
Bei AMD gabs durchaus noch höheres 7950, 7970 und 7990 waren auch mal schöne Karten ;-)
Aber bei AMD haben sie wohl ihre Architektur überarbeitet, da darf es dann durchaus auch vorne bei der Nummerierung weiter gehen, jetzt wo jetzt anscheinend dedizierte Kerne für Matrizen Berechnungen gibt.
 
@Wolfgang : Ihr gebt für Blackwell und Ada beidesmal 4 nm als Prozess an. Wäre da die Unterscheidung 5 nm/4 nm oder 4N/4NP nicht sinnvoll? So sieht das imho danach aus, als wäre der Prozess unverändert und das soll er doch sein.
 
Quidproquo77 schrieb:
Ich finde das besorgniserregend wie die MFG und FG Sache von den Lesern aufgenommen wird.
Latenz ist mit Reflex kaum ein Thema und immer noch niedriger als Nativ. Und darauf kommen die FPS für die Bildflüssigkeit. Also einen Trade off den man kaum ablehnen kann. Sollte später Reflex 2 integriert werden, was die Latenz weiter senkt, wird die Argumentation aber so weitergehen, weil dann von Reflex 2 ausgegangen wird.

Verstehe ich nicht ganz. Mit aktiviertem FG ist die Latenz trotz Reflex sehr wohl ein Thema. Man kann's, sofern man eine FG-fähige Karte besitzt, beim F2P Shooter Marvel Rivals tatsächlich gratis ausprobieren. FG funktioniert nicht schlecht, ist aber z.B. in Marvel Rivals für mich aufgrund der Latenz absolut nicht zu gebrauchen.
 
  • Gefällt mir
Reaktionen: Pisaro, mibbio und LDNV
Ich würde nicht mal sagen das der geringe Generationssprung nur an der Node liegt. Wenn man sich anschaut wie viele Grafik Gens schon jeweils in der selben Node erschienenen sind und trotzdem sparsamer und schneller waren drängt sich mir der Verdacht auf das man einfach nicht mehr gemacht hat als nötig. Reicht und klappt ja auch wie man sieht mangels Konkurrenz.

Klar ist eine neue Node der einfacherere Schritt selbst aus einer fast gleichen Arch mehr Leistung zu holen. Aber mit einer neuen Arch und optimierter Node wäre eben auch hier mehr möglich gewesen.

RTX 5000 wird sich trotzdem wie geschnitten Brot verkaufen. Gibt genug Leuten auf älteren Karten für die sich das lohnt. Fortschritt hingegen ist aber natürlich nicht. Und der Fakt das immer mehr Spiele RayTracing zur Pflicht machen führt auch dazu das immer mehr Leute von alten Karten aufrüsten müssen.

Mich beschleicht daher das Gefühl das Nvidia hier einfach nicht mehr gemacht hat als nötig. Mit minimalen Aufwand, maximalen Profit ziehen. :)
 
HAse_ONE schrieb:
Leute ... Hyped doch nicht im Vorfeld schon wieder die AMD Karten so hoch.
Hast Du gelesen, wieviele Leute die 50er Generation gehyped haben? Fazit: Ein Rohrkrepierer.

Ich hype nicht, ich schrieb auch in zwei Monaten wissen wir mehr, ergo kann man die zwei Monate auch noch warten, weils egal ist. Selbst wenn die Karte nur die 7800 XT knapp übertrumpft, aber im RT eben doppelt bis dreimal so schnell ist, ist das eine bessere Lösung für weit weniger Kohle für die Mehrheit der User, wenn sie eben keine 70/80/90iger der 40er Gen in Ihrem Besitz haben.
Ergänzung ()

thepusher90 schrieb:
@Eli0t RTX HDR ist KI HDR von nVidia. Das ermöglicht HDR in jeglichen Spielen die kein natives HDR anbieten. Das selbe gilt für jedwedes Video in Browsern oder Media Playern. Und es sieht sogar besser aus als manch native Implementierung, bei denen die Entwickler einfach keinen Plan von HDR Kalibrierung haben. Deus Ex 1 mit RTX HDR sieht großartig aus :D Oder auch Half Life 1 und 2.
Ich glaube Dir, daß es besser aussieht, aber solange entsprechende Monitore nicht in erschwinglichen Lagen sind, tangiert mich das nicht mal peripher :) So wie ich keine 1500€ für ne Graka ausgebe, gebe ich auch keine 1500€ für nen Monitor aus...
 
Die Leistung mit MFG ist sicherlich nicht schlecht, aber ich möchte einen Vergleich zwischen 5er und 4er Serie, für den NV MFG auch für 4er aktiviert. Habe mittlerweile die Vermutung, das die AI-Cores dafür gar nicht so notwendig sind, wie NV das behauptet.
 
  • Gefällt mir
Reaktionen: cllN
Eli0t schrieb:
:) So wie ich keine 1500€ für ne Graka ausgebe, gebe ich auch keine 1500€ für nen Monitor aus...
Du solltest Dich mal vor einen 42 Zoll LG C3 oder C4 setzen und zocken...
 
  • Gefällt mir
Reaktionen: Kommando, Pisaro und Laphonso
LDNV schrieb:
Mich beschleicht daher das Gefühl das Nvidia hier einfach nicht mehr gemacht hat als nötig. Mit minimalen Aufwand, maximalen Profit ziehen. :)
Das denke ich auch... Die dachten sich, wird eh gekauft, und wir sind eh die schnellsten, warum also noch schneller werden...
Ich wette falls es AMD irgendwann mal schafft doch mal schneller zu werden, kommt nvidia und nimmt aus der Schublade plötzlich was noch schnelleres raus.... Die kontrollieren einfach den Markt und machen was sie wollen.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle und LDNV
LDNV schrieb:
Ich würde nicht mal sagen das der geringe Generationssprung nur an der Node liegt. Wenn man sich anschaut wie viele Grafik Gens schon jeweils in der selben Node erschienenen sind und trotzdem sparsamer und schneller waren
Wieviele waren das denn genau?
Ich find ehrlich gesagt in den letzten 10 Jahren keine GPU Generation die auf der selben Node wie der Vorgänger lief.

Blackwell 4nm
Ada Lovelace 4nm
Ampere 8nm
Turing 12nm
Pascal 16nm, später 14nm
Maxwell 28nm
usw.

Ich glaub das letzte mal war es Kepler vs Maxwell wo man auf der selben Node war und mehr Leistung rausgekommen ist bei niedrigerem Verbrauch.
 
KlaasKersting schrieb:
Sehe ich überhaupt nicht so.

Die 5080 ist 20% günstiger als die 4080 und liefert ca. 15% mehr.
Hmm die 5080 ist 3% teuerer als die 4080 Supersusi und bringt ca. 9% mehr.
Die RT Leistung ist 1:1 ident (Core für Core) und selbst die 4080 mit oder ohne Super schwächelt dort schon... Vertretbar ist demnach ein dehnbarer Begriff. Ich würde behaupten, überteuerter Müll der quasi nur ein Ersatz für die 4080 Supersusi ist. Das MFG4 ist vielleicht nice im Flugsimulator aber ansonsten auch ziemlich wertlos.
Ergänzung ()

Magl schrieb:
Du solltest Dich mal vor einen 42 Zoll LG C3 oder C4 setzen und zocken...
Ich hab 42" IPS... das reicht mir und der Monitor wurde mir nachgeschmissen :)
 
  • Gefällt mir
Reaktionen: Desmopatrick
Gut zu wissen das ich bei meiner 4070 bleiben kann Lohnt sich überhaupt nicht zu wechseln.
 
ThirdLife schrieb:
Du reitest auf FPS rum und ignorierst, dass 30-40 Basis-FPS halt kein geiles MFG-Erlebnis zaubern werden.
Keineswegs, ich nehme beides mit in die Rechnung. Andere versteifen sich ausschließlich auf die Latenz, welche aber mit FG und Reflex immer noch deutlich niedriger ist als Nativ. Daher gibt es auch keinen so extremen Disconnect.

Zwischen 30 und 40 FPS liegt die Latenz inkl. Reflex und FG etwas dort wo sie bei 50 FPS läge, also locker in Singleplayer ausreichend. Früher spielte man mit Vsync und doppelt so hohen Latenzen. Latenz ist nicht alles, das ist ja nur eine Schutzbehauptung, weil deine GPU kein MFG hat.
ThirdLife schrieb:
Es bleibt alles beim Alten, FG ist für die User, die es eh nicht wirklich bräuchten...
Dann brauchst du es auch nicht aktivieren. Prozentual und relativ ist laut den Messwerten der Zugewinn von Latenz und FPS halt zwischen 30-60 FPS mit Abstand am größten. Und gerade bei Cyberpunk PT hat mir MFG am meisten gebracht. Da fühlte sich FG in der Verbindung Auge zu Maus schlechter an, da nur ~ 70 FPS statt 140.
 
  • Gefällt mir
Reaktionen: Taxxor
DiePalme schrieb:
Wann ging das denn? Und bei welchen Karten? Ich hab mit einer Zeng ET Labs 4000 angefangen und wüsste nicht eine Karte bei der man den VRam hätte aufrüsten können.
Doch doch, da gabs Karten da waren Sockel für Chips drauf, um von 1MB auf 2MB zu erweitern ;) (Oder von 512kB auf 1MB).
 
Eli0t schrieb:
Ich glaube Dir, daß es besser aussieht, aber solange entsprechende Monitore nicht in erschwinglichen Lagen sind, tangiert mich das nicht mal peripher :) So wie ich keine 1500€ für ne Graka ausgebe, gebe ich auch keine 1500€ für nen Monitor aus...
Habe auch lange mit mir gehadert ob ich mir einen HDR OLED für 800 Euro anschaffe.
Im Nachhinein empfinde ich das Geld als besser investiert als ich eine neue GPU. Wirklich richtig nice.
 
  • Gefällt mir
Reaktionen: Kommando, Schaschala, Player49 und 3 andere
crygamer schrieb:
Versteht jemand warum die Karte einen stärkeren Raster- als RT-Zuwachs hat? Hat mich maximal enttäuscht. Warum neue RT-Kerne bewerben, wenn die, relativ gesehen, langsamer sind als beim Vorgänger?
Nicht langsamer, aber gleich auf. Das macht nVidia, weil sie herzensgut sind, damit AMD aufholen kann :) Spaß beiseite, Blackwell wurde für Rechenzentren entwickelt, so wie natürlich auch Ryzen 9000 für Rechenzentren entwickelt wurde. Die Gamer gehen beiden Firmen am Arsch vorbei. Aber bei AMD weniger, weil die haben den Push von Sony, weil die wollen ihre Konsolen und Games verkaufen.... Nintendo nimmt das älteste und billigste um das mit Übergewinnen zu verkaufen, denen war Leistung noch nie wichtig :)
Ergänzung ()

KlaasKersting schrieb:
Anscheinend hat die 5090 massive Probleme bei der Skalierung.
Nee, die CPUs sind zu lahm :) Mit einem 11k8X3D wäre das etwas ganz anderes :) Man sieht ja auch, daß die 4090 weiter nach oben skalieren kann, wenn man einen 7800X3D gegen einen 9800X3D tauscht :)
 
Atnam schrieb:
Wieviele waren das denn genau?
Ich find ehrlich gesagt in den letzten 10 Jahren keine GPU Generation die auf der selben Node wie der Vorgänger lief.

Blackwell 4nm
Ada Lovelace 4nm
Ampere 8nm
Turing 12nm
Pascal 16nm, später 14nm
Maxwell 28nm
usw.

Ich glaub das letzte mal war es Kepler vs Maxwell wo man auf der selben Node war und mehr Leistung rausgekommen ist bei niedrigerem Verbrauch.
400- bis zum teil sogar 700er Serie z.B.
Von 600-700 waren ein paar 28nm Ableger dabei.

Dann schaue man sich an was Fermi am Anfang für ein Desaster war und viel Verbesserungen innerhalb der selben Node stattgefunden haben bis zum Ende hin, das ist schon gewaltig.

Erst mit Maxwell hat man den vollen Sprung zu 28 vollzogen und hatte den "Maxwell" Moment, der quasi ähnlich zum "Ada" Moment war.

Der Punkt ist: Ich glaube es möchte niemand bestreiten das Blackwell eher wie ein Ada Refresh rüber kommt. Hätte man die Jahre in eine wirklich neuen Architektur investiert wäre da sicher auch anderes möglich gewesen. Für Node Verbesserungen sind sie natürlich kaum verantwortlich, das liegt in Hand von TSMC aber dennoch wäre mehr drin gewesen, davon bin ich überzeugt.
 
body-mg schrieb:
Für mich ist das eindeutig. Ich bleibe bei meiner 4080. Alles andere ist sinnfrei.
macht doch eh fast nie Sinn , auf eine kommende Generation zu wechseln. Ich persönlich bin von der 880er zu der 1080er und dann zu 3080er gewechselt. Gut, jetzt habe ich vom Bekannten die neue 4090er erworben, welches da ja auch Sinn gemacht hat. Aber der nächste Wechsel sicher erst mit der 6000er Reihe..
 
  • Gefällt mir
Reaktionen: body-mg
EcOnOmiC schrieb:
Wir müssen jetzt ruhig bleiben abwarten und nicht überteuert die Jacke stopfen.
Die Preise werden schon runter gehen wann wenig 5000 kaufen oder auf die 6000er mit neuer Fertigung warten....
Die Preise gehen bei nVidia doch nie runter, außer sie müssen 3090 Ti die auf Halde liegen schnell noch loswerden.... Man hätte die 4080 günstiger machen können, aber wurde nicht gemacht. Es kam die 4080 Supersusi mit $200 weniger UVP. Was dazu führte, daß die 4080 teurer war als die 4080 Super :)
 
Darklordx schrieb:
Ich denke, ich kauf mir einen 4K OLED Monitor und warte auf die 6080 oder was auch immer von AMD kommt.

Dann kann ich die 240Hz vielleicht in echt sehen... Ohne Fakeframes...
Und womit Willste den 4K bis dahin befeuern?
 
  • Gefällt mir
Reaktionen: Pisaro und Laphonso
Zurück
Oben