Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Nvidia GeForce RTX 5080 im Test: DLSS 4 MFG und ein kleiner FPS-Boost für die RTX 4080
Apocalypse
Vice Admiral
- Registriert
- Okt. 2012
- Beiträge
- 6.299
Bei AMD gabs durchaus noch höheres 7950, 7970 und 7990 waren auch mal schöne Karten ;-)slogen schrieb:Gut für AMD... hoffe ja noch auf eine 9900XTX.
Aber bei AMD haben sie wohl ihre Architektur überarbeitet, da darf es dann durchaus auch vorne bei der Nummerierung weiter gehen, jetzt wo jetzt anscheinend dedizierte Kerne für Matrizen Berechnungen gibt.
FU_long
Lt. Commander
- Registriert
- Okt. 2006
- Beiträge
- 1.281
Quidproquo77 schrieb:Ich finde das besorgniserregend wie die MFG und FG Sache von den Lesern aufgenommen wird.
Latenz ist mit Reflex kaum ein Thema und immer noch niedriger als Nativ. Und darauf kommen die FPS für die Bildflüssigkeit. Also einen Trade off den man kaum ablehnen kann. Sollte später Reflex 2 integriert werden, was die Latenz weiter senkt, wird die Argumentation aber so weitergehen, weil dann von Reflex 2 ausgegangen wird.
Verstehe ich nicht ganz. Mit aktiviertem FG ist die Latenz trotz Reflex sehr wohl ein Thema. Man kann's, sofern man eine FG-fähige Karte besitzt, beim F2P Shooter Marvel Rivals tatsächlich gratis ausprobieren. FG funktioniert nicht schlecht, ist aber z.B. in Marvel Rivals für mich aufgrund der Latenz absolut nicht zu gebrauchen.
LDNV
Lt. Junior Grade
- Registriert
- Jan. 2016
- Beiträge
- 368
Ich würde nicht mal sagen das der geringe Generationssprung nur an der Node liegt. Wenn man sich anschaut wie viele Grafik Gens schon jeweils in der selben Node erschienenen sind und trotzdem sparsamer und schneller waren drängt sich mir der Verdacht auf das man einfach nicht mehr gemacht hat als nötig. Reicht und klappt ja auch wie man sieht mangels Konkurrenz.
Klar ist eine neue Node der einfacherere Schritt selbst aus einer fast gleichen Arch mehr Leistung zu holen. Aber mit einer neuen Arch und optimierter Node wäre eben auch hier mehr möglich gewesen.
RTX 5000 wird sich trotzdem wie geschnitten Brot verkaufen. Gibt genug Leuten auf älteren Karten für die sich das lohnt. Fortschritt hingegen ist aber natürlich nicht. Und der Fakt das immer mehr Spiele RayTracing zur Pflicht machen führt auch dazu das immer mehr Leute von alten Karten aufrüsten müssen.
Mich beschleicht daher das Gefühl das Nvidia hier einfach nicht mehr gemacht hat als nötig. Mit minimalen Aufwand, maximalen Profit ziehen.![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Klar ist eine neue Node der einfacherere Schritt selbst aus einer fast gleichen Arch mehr Leistung zu holen. Aber mit einer neuen Arch und optimierter Node wäre eben auch hier mehr möglich gewesen.
RTX 5000 wird sich trotzdem wie geschnitten Brot verkaufen. Gibt genug Leuten auf älteren Karten für die sich das lohnt. Fortschritt hingegen ist aber natürlich nicht. Und der Fakt das immer mehr Spiele RayTracing zur Pflicht machen führt auch dazu das immer mehr Leute von alten Karten aufrüsten müssen.
Mich beschleicht daher das Gefühl das Nvidia hier einfach nicht mehr gemacht hat als nötig. Mit minimalen Aufwand, maximalen Profit ziehen.
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Hast Du gelesen, wieviele Leute die 50er Generation gehyped haben? Fazit: Ein Rohrkrepierer.HAse_ONE schrieb:Leute ... Hyped doch nicht im Vorfeld schon wieder die AMD Karten so hoch.
Ich hype nicht, ich schrieb auch in zwei Monaten wissen wir mehr, ergo kann man die zwei Monate auch noch warten, weils egal ist. Selbst wenn die Karte nur die 7800 XT knapp übertrumpft, aber im RT eben doppelt bis dreimal so schnell ist, ist das eine bessere Lösung für weit weniger Kohle für die Mehrheit der User, wenn sie eben keine 70/80/90iger der 40er Gen in Ihrem Besitz haben.
Ergänzung ()
Ich glaube Dir, daß es besser aussieht, aber solange entsprechende Monitore nicht in erschwinglichen Lagen sind, tangiert mich das nicht mal peripherthepusher90 schrieb:@Eli0t RTX HDR ist KI HDR von nVidia. Das ermöglicht HDR in jeglichen Spielen die kein natives HDR anbieten. Das selbe gilt für jedwedes Video in Browsern oder Media Playern. Und es sieht sogar besser aus als manch native Implementierung, bei denen die Entwickler einfach keinen Plan von HDR Kalibrierung haben. Deus Ex 1 mit RTX HDR sieht großartig ausOder auch Half Life 1 und 2.
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Die Leistung mit MFG ist sicherlich nicht schlecht, aber ich möchte einen Vergleich zwischen 5er und 4er Serie, für den NV MFG auch für 4er aktiviert. Habe mittlerweile die Vermutung, das die AI-Cores dafür gar nicht so notwendig sind, wie NV das behauptet.
Magl
Langzeitbelichter
- Registriert
- Feb. 2010
- Beiträge
- 5.073
Du solltest Dich mal vor einen 42 Zoll LG C3 oder C4 setzen und zocken...Eli0t schrieb:So wie ich keine 1500€ für ne Graka ausgebe, gebe ich auch keine 1500€ für nen Monitor aus...
Das denke ich auch... Die dachten sich, wird eh gekauft, und wir sind eh die schnellsten, warum also noch schneller werden...LDNV schrieb:Mich beschleicht daher das Gefühl das Nvidia hier einfach nicht mehr gemacht hat als nötig. Mit minimalen Aufwand, maximalen Profit ziehen.![]()
Ich wette falls es AMD irgendwann mal schafft doch mal schneller zu werden, kommt nvidia und nimmt aus der Schublade plötzlich was noch schnelleres raus.... Die kontrollieren einfach den Markt und machen was sie wollen.
Wieviele waren das denn genau?LDNV schrieb:Ich würde nicht mal sagen das der geringe Generationssprung nur an der Node liegt. Wenn man sich anschaut wie viele Grafik Gens schon jeweils in der selben Node erschienenen sind und trotzdem sparsamer und schneller waren
Ich find ehrlich gesagt in den letzten 10 Jahren keine GPU Generation die auf der selben Node wie der Vorgänger lief.
Blackwell 4nm
Ada Lovelace 4nm
Ampere 8nm
Turing 12nm
Pascal 16nm, später 14nm
Maxwell 28nm
usw.
Ich glaub das letzte mal war es Kepler vs Maxwell wo man auf der selben Node war und mehr Leistung rausgekommen ist bei niedrigerem Verbrauch.
Hmm die 5080 ist 3% teuerer als die 4080 Supersusi und bringt ca. 9% mehr.KlaasKersting schrieb:Sehe ich überhaupt nicht so.
Die 5080 ist 20% günstiger als die 4080 und liefert ca. 15% mehr.
Die RT Leistung ist 1:1 ident (Core für Core) und selbst die 4080 mit oder ohne Super schwächelt dort schon... Vertretbar ist demnach ein dehnbarer Begriff. Ich würde behaupten, überteuerter Müll der quasi nur ein Ersatz für die 4080 Supersusi ist. Das MFG4 ist vielleicht nice im Flugsimulator aber ansonsten auch ziemlich wertlos.
Ergänzung ()
Ich hab 42" IPS... das reicht mir und der Monitor wurde mir nachgeschmissenMagl schrieb:Du solltest Dich mal vor einen 42 Zoll LG C3 oder C4 setzen und zocken...
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
- Registriert
- Okt. 2023
- Beiträge
- 2.624
Keineswegs, ich nehme beides mit in die Rechnung. Andere versteifen sich ausschließlich auf die Latenz, welche aber mit FG und Reflex immer noch deutlich niedriger ist als Nativ. Daher gibt es auch keinen so extremen Disconnect.ThirdLife schrieb:Du reitest auf FPS rum und ignorierst, dass 30-40 Basis-FPS halt kein geiles MFG-Erlebnis zaubern werden.
Zwischen 30 und 40 FPS liegt die Latenz inkl. Reflex und FG etwas dort wo sie bei 50 FPS läge, also locker in Singleplayer ausreichend. Früher spielte man mit Vsync und doppelt so hohen Latenzen. Latenz ist nicht alles, das ist ja nur eine Schutzbehauptung, weil deine GPU kein MFG hat.
Dann brauchst du es auch nicht aktivieren. Prozentual und relativ ist laut den Messwerten der Zugewinn von Latenz und FPS halt zwischen 30-60 FPS mit Abstand am größten. Und gerade bei Cyberpunk PT hat mir MFG am meisten gebracht. Da fühlte sich FG in der Verbindung Auge zu Maus schlechter an, da nur ~ 70 FPS statt 140.ThirdLife schrieb:Es bleibt alles beim Alten, FG ist für die User, die es eh nicht wirklich bräuchten...
Doch doch, da gabs Karten da waren Sockel für Chips drauf, um von 1MB auf 2MB zu erweiternDiePalme schrieb:Wann ging das denn? Und bei welchen Karten? Ich hab mit einer Zeng ET Labs 4000 angefangen und wüsste nicht eine Karte bei der man den VRam hätte aufrüsten können.
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Habe auch lange mit mir gehadert ob ich mir einen HDR OLED für 800 Euro anschaffe.Eli0t schrieb:Ich glaube Dir, daß es besser aussieht, aber solange entsprechende Monitore nicht in erschwinglichen Lagen sind, tangiert mich das nicht mal peripherSo wie ich keine 1500€ für ne Graka ausgebe, gebe ich auch keine 1500€ für nen Monitor aus...
Im Nachhinein empfinde ich das Geld als besser investiert als ich eine neue GPU. Wirklich richtig nice.
Nicht langsamer, aber gleich auf. Das macht nVidia, weil sie herzensgut sind, damit AMD aufholen kanncrygamer schrieb:Versteht jemand warum die Karte einen stärkeren Raster- als RT-Zuwachs hat? Hat mich maximal enttäuscht. Warum neue RT-Kerne bewerben, wenn die, relativ gesehen, langsamer sind als beim Vorgänger?
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Ergänzung ()
Nee, die CPUs sind zu lahmKlaasKersting schrieb:Anscheinend hat die 5090 massive Probleme bei der Skalierung.
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
LDNV
Lt. Junior Grade
- Registriert
- Jan. 2016
- Beiträge
- 368
400- bis zum teil sogar 700er Serie z.B.Atnam schrieb:Wieviele waren das denn genau?
Ich find ehrlich gesagt in den letzten 10 Jahren keine GPU Generation die auf der selben Node wie der Vorgänger lief.
Blackwell 4nm
Ada Lovelace 4nm
Ampere 8nm
Turing 12nm
Pascal 16nm, später 14nm
Maxwell 28nm
usw.
Ich glaub das letzte mal war es Kepler vs Maxwell wo man auf der selben Node war und mehr Leistung rausgekommen ist bei niedrigerem Verbrauch.
Von 600-700 waren ein paar 28nm Ableger dabei.
Dann schaue man sich an was Fermi am Anfang für ein Desaster war und viel Verbesserungen innerhalb der selben Node stattgefunden haben bis zum Ende hin, das ist schon gewaltig.
Erst mit Maxwell hat man den vollen Sprung zu 28 vollzogen und hatte den "Maxwell" Moment, der quasi ähnlich zum "Ada" Moment war.
Der Punkt ist: Ich glaube es möchte niemand bestreiten das Blackwell eher wie ein Ada Refresh rüber kommt. Hätte man die Jahre in eine wirklich neuen Architektur investiert wäre da sicher auch anderes möglich gewesen. Für Node Verbesserungen sind sie natürlich kaum verantwortlich, das liegt in Hand von TSMC aber dennoch wäre mehr drin gewesen, davon bin ich überzeugt.
lottepappe
Lt. Commander
- Registriert
- Apr. 2011
- Beiträge
- 1.063
macht doch eh fast nie Sinn , auf eine kommende Generation zu wechseln. Ich persönlich bin von der 880er zu der 1080er und dann zu 3080er gewechselt. Gut, jetzt habe ich vom Bekannten die neue 4090er erworben, welches da ja auch Sinn gemacht hat. Aber der nächste Wechsel sicher erst mit der 6000er Reihe..body-mg schrieb:Für mich ist das eindeutig. Ich bleibe bei meiner 4080. Alles andere ist sinnfrei.
Die Preise gehen bei nVidia doch nie runter, außer sie müssen 3090 Ti die auf Halde liegen schnell noch loswerden.... Man hätte die 4080 günstiger machen können, aber wurde nicht gemacht. Es kam die 4080 Supersusi mit $200 weniger UVP. Was dazu führte, daß die 4080 teurer war als die 4080 SuperEcOnOmiC schrieb:Wir müssen jetzt ruhig bleiben abwarten und nicht überteuert die Jacke stopfen.
Die Preise werden schon runter gehen wann wenig 5000 kaufen oder auf die 6000er mit neuer Fertigung warten....
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Fighter1993
Admiral Pro
- Registriert
- Juli 2009
- Beiträge
- 7.446
Und womit Willste den 4K bis dahin befeuern?Darklordx schrieb:Ich denke, ich kauf mir einen 4K OLED Monitor und warte auf die 6080 oder was auch immer von AMD kommt.
Dann kann ich die 240Hz vielleicht in echt sehen... Ohne Fakeframes...
Ähnliche Themen
- Antworten
- 1.633
- Aufrufe
- 101.554
- Antworten
- 2.311
- Aufrufe
- 183.901
- Antworten
- 6
- Aufrufe
- 4.696