Test Nvidia GeForce RTX 5080 im Test: DLSS 4 MFG und ein kleiner FPS-Boost für die RTX 4080

HAse_ONE schrieb:
Wenn AMD schon sagt, dass man diese Gen kein High End bringen wird, dann wird das auch so sein und man wird nicht plötzlich mit der 5080 konkurrieren.
eine 5080 ist kein High End mehr den Platz hat jetzt die 4090, eine 5080 ist nur noch Mittelklasse mit Oberklasse Preis, die hat nicht mehr Hardware wie eine 3090ti aus 2018 und sogar noch weniger Bandbreite und Speicher.
Bei AMD muss man halt sehen was da kommt N48 wurde in 2024 mit ~280mm2 gemunkelt ~20% mehr Leistung ist man in etwa bei der 4070S. zugegeben Optimistisch aber nicht unmöglich.
nun soll er aber ~390mm2 wenn das stimmt muss die Leistung viel mehr ansteigen, sonnst ist es ein weiterer Flop bei AMD denn wird viel zu teuer in der Herstellung wenn man damit nicht auch die 378mm2 von Nvidia angreifen kann eine 5070ti muss dann erreicht werden um Wirtschaftlich zu sein
 
xexex schrieb:
Genau! Auf jede Karte legt AMD einfach was drauf, Hauptsache billig.
Wie kommst Du zur Annahme, daß AMD irgendwas drauflegt?
Die Fertigung der 9070 Karten ist billiger, weil es keine Chiplets gibt, ergo das teure Packaging fällt schon mal weg. GDDR6 Speicher ist günstiger geworden. Rein von der Fertigung sind diese Preise locker machbar. Ob man die Entwicklungskosten reinbekommen will oder nicht, steht auf einem anderen Blatt. Pi mal Daumen kann man so ne Karte um $350 locker bauen. Denkst Du eine 5080 kostet nvidia mehr? nvidia will halt 66.6666% Marge haben...
Ergänzung ()

Chismon schrieb:
Dann informier Dich bitte 'mal (bevor Du hier substanzlosen Quark schreibst), der von nVidia angesetzte Preisrahmen - der für Preisdruck/geringen Margen bei Boardpartnern gesorgt hat - trug dazu bei, dass EVGA als nVidia Boardpartrner aufhören musste, wie das den damaligen Statements zu entnehmen ist.
An Deiner Stelle hätte ich das GamersNexus Video verlinkt... Linus hat ja die Infos geklaut.
Ergänzung ()

lubi7 schrieb:
Kein Cyberpunk 2077 im Benchmark ?!?...Wieso?

Sonst THX für den Test :)
Weil Cyberpunk mit einer 5080 des öfteren abstürzt...
 
Zuletzt bearbeitet:
Tomahawk schrieb:
Man hat sich mehr erhofft als nur einige wenige Prozentpunkte (12%) mehr Geschwindigkeit. Leider auch Stillstand bei der Effizienz - da hat man sich nach über 2 Jahren mehr erhofft.
Hat man sich bestimmt, aber spätestens seit vor einem halben Jahr die ersten technischen Daten rumgegeistert sind, die sich dann im September bestätigt haben, war klar, dass bei +5% mehr Hardware-Einheiten nicht viel zu holen ist

Die Architektur und der Prozess sind ausgerutscht, man kann nur hoffen, dass das nicht generell für GPUs gilt.
Wir werden es in 2 Jahren sehen, wenn UDNA, Celestial und der Blackwell Nachfolger in 3nm da steht
 
mibbio schrieb:
Immerhin soll die ja RTX 4090 Performance liefern, wie Nvidia angekündigt hat
Hehe natürlich macht sie das ich geb die settings vor 4090 4k native ohne dlss und co incl den schatten zeugs .... Die 5070 darf dlss4 inkl 3 extra Bilder anzeigen ....und go
 
Eli0t schrieb:
hätte ich das GamersNexus Video verlinkt... Linus hat ja die Infos geklaut.
Ja, Technquickie (von Linus/LMG) hat die EVGA vs. nVidia Info übernommen, nur ist das Video von Gamers Nexus viel länger (fast 6x so umfangreich) und bereitet nicht so kurz und bündig die Infos auf wie das von Techquickie (welches bei der YT Suche auch der erste Treffer war).
 
Nvidia betreibt reine Produktpflege, ist in die Intelstraße abgebogen. An der Spitze ist es bequem, was sollen sie sich noch revolutionär selbst übertrumpfen, wenn die Konkurrenz aufgegeben hat?
Es ist zurzeit wohl technologisch einfacher, an den Software-Verbesserungen zu schrauben und diese an die neueste Hardware zu binden, um einen Kaufreiz zu schaffen. Ich finde DLSS4 MFG durchaus beeindruckend, und auch wenn es marketingtechnisch ziemlich verrissen wird, wird es in der Realität Szenarien geben, in denen eine 5070 eine 4090 schlägt - durch Software-Vorteil.

Am Ende wird es Nvidia mehr oder weniger egal sein, das große Geld kommt nicht mehr von den weinerlichen Gamern mit ihren Gaming-GPUs, sondern aus der KI-Sparte. Diese Generation wird auch nicht das Ende sein, wir werden noch eine RTX 6000 und 7000 bekommen und jeder wird mal seine Hardware austauschen.

Ich wünsche mir nur für die nächste Generation, dass die Leistung etwas angehoben und gleichzeitig die Effizienz gesteigert wird, so wie die 4000er Serie im Vergleich zur 3000er.
 
Chismon schrieb:
Ja, Technquickie (von Linus/LMG) hat die EVGA vs. nVidia Info übernommen, nur ist das Video von Gamers Nexus viel länger (fast 6x so umfangreich) und bereitet nicht so kurz und bündig die Infos auf wie das von Techquickie (welches bei der YT Suche auch der erste Treffer war).
Jein. LMG hat den Inhalt geklaut und hat die höhere Reichweite, natürlich ist das bei der Suche #1. YT schert sich um solche Dinge nicht. Daß Linus halt menschlicher Abfall ist, sollte man auch berücksichtigen und nicht so einer Kommerzmaschine noch zusätzlich füttern. Imho. Nach all den Mißgriffen die sich LMG geleistet hat, sollte man LMG generell meiden (z.B. das "lustige" Entschuldigungsvideo und die Tatsache, daß falsche Infos in den Videos immer noch verbreitet werden und nicht gefixt wurden, die Honey Thematik usw).
 
Eli0t schrieb:
Weil Cyberpunk mit einer 5080 des öfteren abstürzt...
Raytracing + Pathtracing Benchmarks hat Cyberpunk.
 
Laphonso schrieb:
die 9070er treten gegen die hauseigenen 7900XT/X an.
Ja, aber: Das Preissegment ist ein ganz anderes. Ist doch die 9070 XT der Nachfolger der 7800 XT. Also doch ganz andere Voraussetzungen.
Ergänzung ()

Atnam schrieb:
Raytracing + Pathtracing Benchmarks hat Cyberpunk.
Jo hab's gerade gesehen... andere Reviewer konnten Cyberpunk nicht zum Laufen bewegen :)
 
Alphanerd schrieb:
wenn ich mehr Leistung brauche.
Ja aber das ist ja alles individuell. Ich rüste auch auf trotz meines Systems in der Sig, und mit der Kombination aus neuer CPU und auch GPU, also 9800x3D und 5090, werde ich gegenüber dem 13900K und der 4090 in vielen Spielszenarien vor allem in den minfps und frametimes 40%, 50% und mehr Perfomance rausholen und endlich UWQHD/120 maxed anpeilen.

Der Leistungssprung wird für mich akut, so dass ich sogar auf 4K uw Monitore lauern kann, weil die 4090 da einfach für MICH immer noch zu limitiert war.

Normalwerweise kann man mit der 4090 aber hier einfach alles zuklappen und 2 Jahre weiterballern.

Hätte ich eine 4080 und würde "anders" meine Games spielen bzgl. Ansprung und Toleranz bei fps und Settings, würde mich die 5080 komplett kalt lassen. Da ist die 5080 enttäuschend und unattraktiv.

Die DF Screenshots von gestern zeigen aber, dass die 5080er interessant sind für die mit GPUs aus den Generationen Turing und Ampere. Dann bringen sie genau das mit, diese Leistung, von der Du sprichst :)
 
  • Gefällt mir
Reaktionen: Alphanerd
Ich fühle mich sauwohl mit meiner RTX 4090. Was für ein genialer Invest.
Sicher gehe ich nicht soweit, die 4090 als Effizienzwunder zu bezeichnen, aber das, was mit den 5xxx abgeht ist schon ein starkes Stück. Keine nennenswerten Fortschritte in der Rohleistung, massiver Rückschritt in der Effizienz.

Lediglich die KI-Features wurden weiterentwickelt, aber bis ich die brauche, gehen locker noch zwei Jahre mit meiner RTX 4090 ins Land.

Wie ich Nvidia kenne, sehen wir in einem Jahr eine optimierte Variante mit 30-40% mehr Rohleistung zu den 5xxx Karten. Dann könnte ich nach ca. 5 Jahren auch wieder an ein Update denken.
 
Auch am Beispiel der 5080 zeigt sich das gleiche Spiel wie bei der 5090er. Auch hier haben sich die meisten deutlich mehr Leistung erhofft. Ich frage mich nur: Worauf wurde die Hoffnung gestützt? Die Zahlen und Daten (Fakten) die bereits vor der Veröffentlichung bekannt waren, haben doch auf solch ein Ergebnis hingedeutet.

Klar, Nvidia ist seit KI Hype voll im Focus und natürlich kaufen die Aktie jetzt auch deutlich mehr Menschen, die von der Materie null Ahnung haben - einfach "weils jeder macht und kauft". Aber auch NV kocht nur mit Wasser - zugegeben, haben einen riesen Batzen Kohle dahinter, aber dennoch.

Das führt dann unweigerlich zu Enttäuschung wenn das Ergebnis keine 100% Vorsprung zur letzten Gen hat. Aber nochmal: ohne einen signifikanten Sprung in der Architektur, mit dem gleichen Fertigungsprozess und "nur" ein Mehr an Shadern etc. zu erreichen, indem man die GPU noch größer macht + dem 512bit Bus. Das alles hat mich zumindest überhaupt nicht gewundert, dass der Leistungssprung relativ gering ausfällt.

Wenn NV in 2 Jahren mit dem 2nm Prozess daherkommt wird der Bus natürlich wieder auf höchstens 384bit sein (beim topp Modell) und dann gibt es wieder einen signifikanten Leistungssprung, einfach weil man viel mehr Transistoren auf den gleichen Platz bekommt z.b 1 Transistor bei 4nm, bedeutet 4 Transistoren auf 2nm, bei gleicher Größe der Die Fläche - vorausgesetzt "beim Rest wird nichts verkackt".
 
und hat schon wer ne 5080 oder 5090 gekauft kann ja nicht sein das alle Händler so die Finger still halten unter Leinenzwang seitens Nvidia :lol:
 
Eli0t schrieb:
Daß Linus halt menschlicher Abfall ist, sollte man auch berücksichtigen
Ich mochte Linus auch noch nie sonderlich (da mir seine Art irgendwie schon auf die Nerven ging) und würde auch nie auf die idee kommen bspw. das hässliche LTT Merchandise zu bestellen, aber bei der radikalen Titulierung "menschlicher Abfall" ziehe ich gewiss nicht mit, zumal ich mir das von außen nicht anmaße zu beurteilen, so eine Ausdrucksweise nicht meiner Art entspricht (das würde ich für einen Kriegsverbrecher wie Putin oder vergleichbarem ja noch verstehen, aber bei einem Influencer?) und Steven ist übrigens auch nicht unumstritten (das sollte man vielleicht auch erwähnen).

Der aktuell in Social Media hochgespielte Zoff zwischen LTT und Gamers Nexus hat damals (als die EVGA vs. nVidia Videos erstellt wurden) m.W. auch noch keine Rolle gespielt und nur weil ich nicht mit allem einverstanden bin, was da irgendwie läuft, heisst das m.M.n. nicht, dass die Videos generell schlecht gemacht oder falsch wären und nicht verwendet werden können als Quellenmaterial.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: akuji13
Chismon schrieb:
Ich mochte Linus auch noch nie sonderlich (da mir seine Art irgendwie schon auf die Nerven ging) und würde auch nie auf die idee kommen bspw. das hässliche LTT Merchandise zu bestellen, aber bei der Titulierung "menschlicher Abfall" ziehe ich gewiss nicht mit.
Dann zieh dir das Video von Louis Rossmann rein.... Der Grad des menschlichen Abfalls ist ja nicht ausschlaggebend. Ein "bisschen" Abfall gibts aus meiner Sichtweise nicht, es ist entweder 0 oder 1.
 
Eli0t schrieb:
Jo, aber dann wäre ich gezwungen so ne 1500€ Karte zu holen... nene :)
Das Gegenteil ist der Fall. Mit einem solchen Monitor sehen Spiele trotz der "alten" GPU und heruntergeschraubten Settings deutlich besser aus und die Immersion steigt deutlich.
 
Ich bin mir ziemlich sicher, dass man der 4090 und 4080 auch Multi-Frame-Generation via Treiber-update verpassen könnte, die Recheneinheiten dafür sind da.
Aber dann hätten 5090 und 5080 kaum noch eine Daseinsberechtigung.
 
Zurück
Oben