Test Nvidia GeForce RTX 5080 im Test: DLSS 4 MFG und ein kleiner FPS-Boost für die RTX 4080

kachiri schrieb:
Ich finde aber trotzdem, dass die 5080 eine "runde" Karte ist.
Eine "runde" Karte wäre es gewesen, wenn die RT-Leistung um 50% gestiegen wäre. Dem ist nicht so. Das ist die erste Generation wo RT quasi gleich geblieben ist... von Core zu Core. 16GB sind ein Witz bei dem Preis. Die Notebooks bekommen mit dem selben Chip eine "RTX 5090 Laptop" mit 24GB. Die 1169,- sind ja auch eine Mär. Die meisten Boardpartnerkarten werden nicht unter 1300€ zu haben sein.
Ergänzung ()

LauneBaer86 schrieb:
Im Diagram zum Stromverbrauch steht 5080 Super ;)
Sie wollten 4080 Ti Super schreiben :)
Ergänzung ()

kruppi99 schrieb:
Warum wird eigentlich mit der 4080 Super und nicht mit der 4080 verglichen? Und warum wurde die 4080 schon länger aus allen Benchmarks ausgelassen?
wegen dem UVP. Die 4080 war ein Rohrkrepierer und die Karten sind wie Steine in den Regalen gelegen.
 
  • Gefällt mir
Reaktionen: ThirdLife
Uff...ich bin tatsächlich am Überlegen mir die 5080 zuzulegen. Ist zwar an sich etwas enttäuschend, aber gemessen an meiner persönlichen Situation wären das 70-80% Mehrperformance in 3440x1440 im Vergleich zu meiner 3080 12 GB. Ist aber echt harter Tobak, dass ich dafür 1169€ löhnen müsste statt wie vorher 829€. Und dabei ist es gemessen an den Specs eigentlich eher das was heute eine 5070 Ti sein müsste. Aber ich merke schon, dass die 12 GB langsam knapp werden. Selbst in älteren Spielen, die ich gerne mit DLDSR spielen möchte laufen die 12 GB nach 15 Minuten gerne mal voll und ein Stotterfest beginnt. Das bedeutet dann aber auch ein neues Netzteil muss her. :( Also gut und gerne nochmal 100-200€ oben drauf. Will nicht mit dem Adapter Gedöns hantieren müssen.
 
  • Gefällt mir
Reaktionen: Balrog und Serandi
Iongy08 schrieb:
Da muss ich jetzt wohl nochmal in mich gegen ob der Wechsel von 7900 XT auf 5080 eine gute Idee ist. Mit sogar 4 GB weniger Grafikspeicher.
Ne gute Idee wäre die 9070 XT, wenn dich RT interessiert für das halbe Geld.
Ansonsten: nein.
 
Mich würde es nicht mal mehr wundern, wenn die 6090 fast dieselbe Performance wie die 5090 haben würde aber dabei deutlich effizienter ist. Wäre dementsprechend schon eine ehrenwerte Steigerung!💪🏻👏🏻😆
 
thepusher90 schrieb:
Uff...ich bin tatsächlich am Überlegen mir die 5080 zuzulegen.
Und warum wartest Du nicht mal auf 9070 XT? Die kostet rund die Hälfte. Die Leistung wird ungefähr gleich sein, die RT Leistung ein bisschen schlechter. Die zwei Monate sind nun auch schon egal...
 
@thepusher90
Entweder 5080 für 1170€ neu oder eine 4080 Super für 700-850€ gebraucht👍🏻
 
thepusher90 schrieb:
Uff...ich bin tatsächlich am Überlegen mir die 5080 zuzulegen. Ist zwar an sich etwas enttäuschend, aber gemessen an meiner persönlichen Situation wären das 70-80% Mehrperformance in 3440x1440 im Vergleich zu meiner 3080 12 GB. Ist aber echt harter Tobak, dass ich dafür 1169€ löhnen müsste statt wie vorher 829€. Und dabei ist es gemessen an den Specs eigentlich eher das was heute eine 5070 Ti sein müsste. Aber ich merke schon, dass die 12 GB langsam knapp werden. Selbst in älteren Spielen, die ich gerne mit DLDSR spielen möchte laufen die 12 GB nach 15 Minuten gerne mal voll und ein Stotterfest beginnt. Das bedeutet dann aber auch ein neues Netzteil muss her. :( Also gut und gerne nochmal 100-200€ oben drauf. Will nicht mit dem Adapter Gedöns hantieren müssen.
Darf ich fragen , wieso ein neues Netzteil? Die liegen doch fast gleich bei der Leistungsaufnahme...
 
Eli0t schrieb:
Und warum wartest Du nicht mal auf 9070 XT? Die kostet rund die Hälfte. Die Leistung wird ungefähr gleich sein, die RT Leistung ein bisschen schlechter. Die zwei Monate sind nun auch schon egal...
Weil ich nicht mehr ohne RTX HDR leben kann. Jedes andere Feature an sich ist mir wurscht, aber RTX HDR will ich nicht mehr missen. Deshalb ist AMD bei mir komplett disqualifiziert aktuell.
 
  • Gefällt mir
Reaktionen: Mumbira
MykelNeiD schrieb:
Selbst als 3080 owner muss ich mich fragen, ob es eine gute Investition wäre jetzt das upgrade zu machen, oder zu warten. Ok das bedeutet vermutlich 2 weitere Jahre auf die nächste Generation zu warten.. Insgesamt ist der Release eher enttäuschend. Toller Refresh.. 🤢
Du kannst auf die 9070 XT warten... in zwei Monaten wissen wir mehr. Zumindest wird man dafür keine 1000€ zahlen müssen und schon gar nicht 1300€.
 
thepusher90 schrieb:
aber gemessen an meiner persönlichen Situation wären das 70-80% Mehrperformance in 3440x1440 im Vergleich zu meiner 3080 12 GB.

Ich bin in der gleichen Situation.

Ich finde die 5080 ist die perfekte Karte für 3440x1440 und alles Andere würde sich im Vergleich zu einer 3080 auch nicht lohnen.

Ich habe in einem anderen Rechner für 3440x1440 eine 4070 Super, die ist kein wirklicher Ersatz für eine 3080 und gefühlt wäre auch eine günstigere 5070 Ti wieder nur ein Kompromiss.

Also im Zweifel lieber etwas mehr Geld in die Hand nehmen, auch wenns schmerzt.
 
  • Gefällt mir
Reaktionen: Raging-Raven
Eli0t schrieb:
Du kannst auf die 9070 XT warten... in zwei Monaten wissen wir mehr. Zumindest wird man dafür keine 1000€ zahlen müssen und schon gar nicht 1300€.
seit wann konkurriert diese karte mit der rtx 5080.... :freak: Also bitte, was das für eine Lösungsvorschlag und Vergleich!
 
  • Gefällt mir
Reaktionen: Cohen
legenddiaz schrieb:
Darf ich fragen , wieso ein neues Netzteil? Die liegen doch fast gleich bei der Leistungsaufnahme...
Weil ATX 3.1 den 12 Pin Connector direct am Netzteil hat. Ich will das unsichere Gefrickel mit dem Adapter nicht haben. Auch wenn mittlerweile die Brandgefahr gebannt sein soll, will ich es dennoch nicht wagen damit.
 
thepusher90 schrieb:
Weil ich nicht mehr ohne RTX HDR leben kann. Jedes andere Feature an sich ist mir wurscht, aber RTX HDR will ich nicht mehr missen. Deshalb ist AMD bei mir komplett disqualifiziert aktuell.
HDR hat doch jede Karte?! Sogar DP 2.1. Und Raytracing wird massiv steigen bei AMD... verstehe ich nicht...
 
@Eli0t RTX HDR ist KI HDR von nVidia. Das ermöglicht HDR in jeglichen Spielen die kein natives HDR anbieten. Das selbe gilt für jedwedes Video in Browsern oder Media Playern. Und es sieht sogar besser aus als manch native Implementierung, bei denen die Entwickler einfach keinen Plan von HDR Kalibrierung haben. Deus Ex 1 mit RTX HDR sieht großartig aus :D Oder auch Half Life 1 und 2.
 
thepusher90 schrieb:
Weil ATX 3.1 den 12 Pin Connector direct am Netzteil hat. Ich will das unsichere Gefrickel mit dem Adapter nicht haben. Auch wenn mittlerweile die Brandgefahr gebannt sein soll, will ich es dennoch nicht wagen damit.
Das Marketing funktioniert also bestens🤣

Immer schön die Wirtschaft ankurbeln👏
 
  • Gefällt mir
Reaktionen: thepusher90, Veitograf, dohderbert und eine weitere Person
hm eigentlich wollte ich mir was neues holen, das hat sich aber nun erledigt, meine 4080 airo extrem bleibt wohl noch ne weile, die macht 2970 mhz dann muss sie das eben noch weiter machen :D schade eigentlich
 
Zuletzt bearbeitet:
Laphonso schrieb:
Dann wird für einige die 9070 tragisch, denn AMD wird irgendwie inszenieren, dass sie alte Jahr 2022 Performance über 2 Jahre später wieder verkaufen. Eine Handvoll fps und RT stuff mehr, aber "effizienter"! ;-)
Der gesamte Launch wird auf dem Fundament von FSR4 durchgeführt.
So wie es Nvidias Marketingfestival mit DLSS4 machte.

Die GPUs sind nur Vehikel und konkurrieren mit sich selbst. Die RTX5000 kommen kaum an year 2022 Ada vorbei, die 9070er treten gegen die hauseigenen 7900XT/X an.

Ich wiederhole es weiterhin: Das Stagnieren von Nvidia und AMD führt zu der battle um die Feautrestacks.
Das wird kein RDNA4 vs Blackwell im Jahr 2025 und 2026.

Es wird FSR4 vs DLSS4 Feature Wettkampf.

Einige haben es längst begriffen, (nicht nur) unsere Community braucht halt noch ein wenig länger ^^

Und das findest du toll, oder wie soll man das verstehen?

Ich bin ein Kind von Benchmarks, da zählen für mich irgendwelche KI-Frames nicht.. Ich will rohe Power sehen!

Aber vermutlich ist das langsam Geschichte, so wie ich selbst dann auch. :)
 
Ein paar Gedanken zur 5080:

Wenn Overclocking wirklich nochmal 10% bringt, dann verdoppelt sich damit ja praktisch der Leistungssprung im Vergleich zur 4080 von ~+10% auf ~+20%. Kommt die Karte dann der 4090 zu nahe, oder warum hat Nvidia nicht ab Werk noch etwas an der Taktschraube gedreht?

Um abzuschätzen, ob die Karten der 5000er Generation vielleicht doch ein akzeptabler Deal wären, wüsste ich gerne, ob die Halbleiterfertigung wirklich am physikalischen Limit kratzt, und auch in 2 Jahren keine großen Sprünge mehr zu erwarten sind - oder ob diese Generation einfach eine Niete ist, und die 6000er Reihe wieder 30-50% Mehrleistung und tolle must-have AI Features bietet, und mich dann den Kauf einer 5000er im nachinein bereuen lässt.

Wenn Reflex 2.0 wirklich eine Latenzreduktion um ca. eine Frametime bringt, macht das Frame Generation mMn gleich nochmal deutlich attraktiver. Denn dann dürften sich z.B. 80 FPS mit FG x1 (also 40 "echten" Frames) wirklich auch wie 80 FPS anfühlen.
 
Zurück
Oben