Test Nvidia GeForce RTX 5080 im Test: DLSS 4 MFG und ein kleiner FPS-Boost für die RTX 4080

LDNV schrieb:
Mich beschleicht daher das Gefühl das Nvidia hier einfach nicht mehr gemacht hat als nötig. Mit minimalen Aufwand, maximalen Profit ziehen. :)
Natürlich schauen Hersteller auf den Markt und prüfen was kann, was muss, was funktioniert.......aber mit der 5000 Generation und zusammenfassend aus dem Test nehmend:
So macht die Grafikkarte den kleinsten Leistungssprung zum Vorgänger, den es mit einer 80er-GeForce in über zwei Jahrzehnten GeForce je gegeben hat; selbst die GeForce GTX 580 hat gegenüber der GTX 480 trotz quasi identischer GPU einen größeren Schritt nach vorne gemacht.
Die Differenz vom schnellsten zum zweitschnellsten Modell wächst damit zugleich von 35 Prozent bei der 4000-Generation auf 49 Prozent an – das hat es so auch noch nicht gegeben.
Das ist dann leider nicht mehr nur das nötigste. Das ist Up-selling in reinster Form und pures Ausnutzen der Marktmacht um mit Nichts maximal zu schröpfen.


Hätte man anstatt der kompletten 5000er Karten einfach NUR eine 4090 TI rausgebracht, wäre der Markt absolut identisch aufgestellt und abgedeckt gewesen.
 
  • Gefällt mir
Reaktionen: LDNV und Apocalypse
Eli0t schrieb:
Ich hype nicht, ich schrieb auch in zwei Monaten wissen wir mehr, ergo kann man die zwei Monate auch noch warten, weils egal ist.
Eli0t schrieb:
Und warum wartest Du nicht mal auf 9070 XT? Die kostet rund die Hälfte. Die Leistung wird ungefähr gleich sein, die RT Leistung ein bisschen schlechter.
Sicher, das du da nicht ein wenig überhypest?
Die gleiche Leistung wie die 5080 für die Hälfte halte ich für komplett unrealistisch. Dass das P/L-Verhältnis rein auf die Rasterleistung bezogen ein wenig besser ausfallen wird dürfte hinkommen, wenn man auf AMDs bisherige Preisgestaltung schaut, aber derart extrem ist in meinen Augen einfach Quatsch. AMD hat schließlich auch nichts zu verschenken.

Wo ich dir aber zustimmen würde wäre abzuwarten. Kurz nach Release ist es eigentlich nie eine gute Idee direkt zu kaufen. Schlechte Verfügbarkeit, Scalperpreise, mangelnde Testabdeckung zu Customkarten, eventuelle Montagsmodelle, Treiberprobleme usw. Nach ein, zwei Monaten sind die gröbsten Schnitzer raus und meistens pendeln sich bis dahin auch die Preise etwas unterhalb des Startpreises ein.
 
  • Gefällt mir
Reaktionen: shadACII
Eli0t schrieb:
Ich hype nicht, ich schrieb auch in zwei Monaten wissen wir mehr, ergo kann man die zwei Monate auch noch warten, weils egal ist. Selbst wenn die Karte nur die 7800 XT knapp übertrumpft, aber im RT eben doppelt bis dreimal so schnell ist, ist das eine bessere Lösung für weit weniger Kohle für die Mehrheit der User, wenn sie eben keine 70/80/90iger der 40er Gen in Ihrem Besitz haben.
Naja, doch ein wenig hypen tust du schon. Hast jetzt mehrmals Leuten die 9070xt empfohlen, die eigentlich die 5080 wollten.
Wenn ich die Leistung einer 5080 möchte, dann ist eine schwächere Karte meistens nicht unbedingt die beste Alternative.
Beispielsweise bei mir. Ich hätte gerne ein Upgrade von meiner 6900XT, aber damit sich das für mich lohnt hatte ich eigentlich gesagt 4090 Leistung sollte es schon sein. 5090 ist mir aber zu Brechstange und teuer, deshalb überlege ich grad die 5080 zu nehmen, auch wenn diese nicht soo der Bringer ist. Aber von einer 6900XT auf eine 9070XT wird mir nicht viel bringen.
 
  • Gefällt mir
Reaktionen: Laphonso
SVΞN schrieb:
Meine Asus TUF Gaming Geforce RTX 3090 hält also mindestens noch eine Generation lang durch. :D
Die 3090 wird noch eine ganze Weile ihr Ding machen. Macht ja keinen Sinn auf weniger VRAM zurück zu gehen.
Mal sehen, ob es irgendwann die 5090 (als erste 32 GB Karte) günstig gibt.
 
5080 = 4080 Ti Super

Igor hat es richtig beschrieben.

PCGH attestiert der Gurke schlappe 7% Mehrleistung im eigentlich wichtigen Pathtracing-Benchmarkparcour.

Wer gedacht hat, das überarbeitete Design, oder die neuen Zusatzkerne für Raytracing würden in der einzig wirklich benötigten Disziplin etwas bewirken, der wird bitteböse überrascht und absolut enttäuscht.
Anscheinend bringt Rastern das meiste Plus bei dem direkten Kartenvergleich mit dem Vorgänger.
Zumindest ist der Leistungszuwachs beim Umstieg von einer 3080 aber wirklich ansehnlich, und auch vom Speicher her mit 16GB statt 10 auf jeden Fall begrüßenswert, auch wenn Raff bei PCGH bereits diese 16GB zu füllen und zu knacken weiß.
Also auch dort heißt es spätestens in 2 Jahren: nicht mit so wenig VRAM kaufen!
(außer man spielt bei einer neuen 1500 Euro Karte generell lieber nur auf Stufe Mittel? LOL)
 
DeMeP schrieb:
Habe auch lange mit mir gehadert ob ich mir einen HDR OLED für 800 Euro anschaffe.
Im Nachhinein empfinde ich das Geld als besser investiert als ich eine neue GPU. Wirklich richtig nice.
Jo, aber dann wäre ich gezwungen so ne 1500€ Karte zu holen... nene :)
 
Laphonso schrieb:
Und die 4090er werden auf ebay NOCH teurer.
ja die einzigen die sich über diese Gen wirklich freuen können sind die 4090 Besitzer, 2Jahre die schnellste Karte gehabt, welche nun zum neupreis wieder verkauft werden kann und für nen taui mehr 25% mehr
Simanova schrieb:
Nur wenn AMD Anreize dafür hat.
Marktanteil und Umsatz sollten genug Anreitz sein selbst wenn die Marge im vergleich zu RDNA3 wieder sinkt, was ich mir nicht vorstellen kann da es die bei den OEMs eh nicht gegeben hat und da liegt nun mal der Umsatz.
Bin mal gespannt ob Dell/Alienware auch AMD GPUs anbietet, da kannn man immer recht gut die einkaufspreise sehen. die 7900xtx lag Preislich bei denen immer zwischen 4080 und 4090 war somit nie wirklich interessant. Hoffe mal das AMD ein Single DIE günstiger oder zumindest nicht teurer kommt wie das MCM Design bei gleicher grösse
ChckNrrs schrieb:
Da muss man fairer Weise doch sagen, dass Nvidia mal was für die Community getan hat. Durch Freischaltung der Features auch auf älteren Generationen.
Blackwell hat mehr Hardware einheiten wie Ada, dennoch weniger Transistoren, sprich da ist keine zusätsliche Hardware für MFG eingebaut worden, Nvidia könnte das sicherlich ohne probleme auch für Ada freischalten, tun sie aber eben nicht weil sie lieber den neuen Schrott verkaufen wollen
 
Xes schrieb:
Sicher, das du da nicht ein wenig überhypest?
Sehr sicher. Es steht und fällt mit dem Preis. Wenn AMD 'mal 'gscheit ist, dann kostet die 9070 $499 und die 9070 XT $599. Wenn nicht, dann ist es vollkommen egal, wie schnell die Karte ist. Ergo, wenn die 9070 XT zumindest im Raster schneller als eine 5070 Ti ist, und im RT schneller als eine 5070 ist, dann wäre das ein überzeugendes Angebot, insbesondere wenn FSR4 so gut ist, wie HWU in ihrem Video angedeutet haben. Für Europa wäre die 9070 XT dann €699,-. Also hälfte Kohle für -20% vs 5080.
 
aklaa schrieb:
Wer mag kann sich dieses "Monster" leisten einfach mal 300-400Watt/h Verbrauch als Hi-End.
Der Verbrauch ist ja ähnlich zur 4080, teils 20 W mehr. Was die Karte ziehen darf wurde erhöht, aber das kommt ja nicht zum tragen, siehst du ja bei den einzelnen Spielen im Test.
Die 4090 kann man ohne FPS Verlust von 450 W auf 350 W setzen, die 4080 von 320 W auf 250 W, sogar oc greift dann noch, so wird es mit der 5080 auch sein, einfach das Power Limit auf etwa 270 Watt setzen und sie bringt trotzdem volle Leistung.
 
Ich habe wirklich darüber nachgedacht, meine 3080 aufzurüsten und habe mit einer 5080 geliebäugelt. Aber der Leistungssprung mit durchschnittlich 65% mehr Leistung in WQHD (Rasterizer, AVG FPS) ist mir zu gering. Zur 5090 wären es 123% Mehrleistung, das wäre schon eine Hausnummer, aber der Stromverbrauch und der Preis sind ein Witz.
Deshalb werde ich wohl noch eine Generation warten.
 
Ano_Dezimal schrieb:
Das erlebst du und ich aber nichtmehr. Das passiert in diesem Leben nichtmehr. Und das wissen die auch, sonst würde man solche Karten gar nicht erst machen.
Wollen wir wetten?
Alles ist zum scheitern verurteilt.
AMD hat’s bei Intel doch auch geschafft.
Ergänzung ()

Luftgucker schrieb:
Grafikkarten kauft man am besten beim Release, sonst bekommt man nur noch die Rückläufer. Also wenn 5090 dann morgen versuchen.
Traurig oder?
Aber ganz stimmt das auch nicht. Es werden ja neue Produziert und Rückläufer werden immer schneller verkauft wie die neuen.
Die „gebrauchten“ will ja keiner in seinem Lager haben.
 
  • Gefällt mir
Reaktionen: LDNV
HAse_ONE schrieb:
Naja, doch ein wenig hypen tust du schon. Hast jetzt mehrmals Leuten die 9070xt empfohlen, die eigentlich die 5080 wollten.
1. Warten bis Ende März, die 5080 laufen nicht davon (wenn Sie denn überhaupt lieferbar sind).
2. 6900XT ist in 4k insbesondere bei RT extrem benachteiligt, ergo lohnt sich das Upgrade auch für Dich, wenn RT auf dem Niveau einer 5070 Ti liegt und AMD einen Preis von 699€ festsetzen würde.
3. Es geht um den Preis. Die 1169€ sind aus Grimms Märchen, die FE Karten wirds nur in homöopathischen Dosen geben. Custom Modelle werden in der Regel 1300-1400€ kosten, mit Ausreißern bis 1800€ (watercoled zeugs).
 
MMn fehlen der 5080 mindestens 4 GB VRAM, um sich deutlicher von einer 4080 abzusetzen.
Gegenüber dem Vorgänger ist die 5080 schneller und effizienter, das ist aber nur ein Sidestep.
Der Karte fehlt leider das "Habenwill".
 
Laphonso schrieb:
Weil viele eben nicht jede Generation aufrüsten, sondern eher alle 2-3 :)
Ja aber diese Generation war ja keine Generation. 12% mehr Leistung.

Wie gesagt, diese Leistungsklasse gab es schon lange und auch günstiger.

Und ich wußte doch auf, wenn ich mehr Leistung brauche. Nicht weil da ne größere Zahl vorne steht
 
Atnam schrieb:
Blackwell 4nm
Ada Lovelace 4nm
Ampere 8nm
Turing 12nm
Pascal 16nm, später 14nm
Maxwell 28nm
usw.
Und gerade da, wo es interessant wird, hast du mit deiner Aufzählung aufgehört. Es gab nämlich 3 Generationen hintereinander mit 28nm.

  • GTX 980 (Maxwell): 28nm / 165W
  • GTX 780 (Kepler): 28nm / 230W
  • GTX 680 (Kepler): 28nm / 195W
Die GTX 800er lasse ich mal Außen vor, da das im Prinzip nur die Laptop-Varianten waren und keine eigenständige Generation.

Von der GTX 780 zur GTX 980 gab es eine Performancesteigerung von 23% und die TDP ist von 230W auf 165W gesunken. Allein die neue Architektur hat also schon ein etwa doppelt so hohe Performancesteigerung gebracht wie aktuell und das auch noch bei gleichzeitig ~30% geringerer TDP.

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-980-970-test.2591/seite-6

Der Vergleich von GTX 680 und GTX 780 ist etwas zweigeteilt. Beim Spielen ohne Anti-Aliasing ist die Performance zwar auch schon um 17%, aber die TDP ist halt ebenfalls um ~18% gestiegen, also bei der Effizienz Gleichstand. Anders sieht es dann schon aus, wenn man AA einschaltet. Dort landet die GTX 780 dann, je nach Auflösung, 20-33% vor der GTX 680 bei nur 18% höherer TDP - war also schneller und effizienter. Getoppt wird dass dann nur vom Vergleich in 5760x1080 und 8xAA, wo die GTX 780 dann ganze 73% schneller ist als die GTX 680. Und das alles, ohne dass sich Fertigung oder Architektur geändert haben.

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-780-test.2124/seite-3

Und davor gab es auch schon zweimal die gleiche Fertigungsgröße und sogar gleiche Architektur bzw. leichter Refresh der Architektur.

  • GTX 580 (Fermi): 40nm / 244W
  • GTX 480 (Fermi): 40nm / 250W

Da lag die Performancesteigerund zwar nur bei 16-18%, aber gleichzeitig ist die TDP auch minimal gesunken, also ebenfalls gesamt besser als der jetzige Schritt von der RTX 4080 zur RTX 5080.

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-580-test.1356/seite-20
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Redirion und LDNV
CadillacFan77 schrieb:
Verwunderlich ist, warum nVidia die 10% OC einfach "verschenkt". Hätten sie ja gleich mit mehr Takt releasen können, dann wäre der Unterschied zumindest etwas grösser.

Vermutlich halten sie das bewusst zurück um in ein paar Monaten dann die 5080 Super bringen zu können.
1. Masse der Chips. Ergo alle diese Chips laufen damit, denn man will ja nicht eine 5070 TI draus machen... Chiplottery kann auch sein, daß einige Karten insbesondere bei den Partnerkarten gar keine 10% schaffen. (Nvidia behält die besten Chips immer für sich.)
2. Der Refresh ist auch ein Argument. Je später die Fertigung desto höher die Chance auf bessere Chips. Der Prozess ist quasi eine Daueroptimierung. Man brauch ja auch noch Chips für die Notebooks und die Profikarten. Da wird nicht unbedingt auf die Taktung gebinnt, sondern auf die Effizienz. Kann mir vorstellen, daß die "Profi"-Karten auf 300W limitiert werden und die Laptop Karten werden vermutlich nur 150W verbraten dürfen.
 
Sas87 schrieb:
Och, ich denke schon.
Deepseek in Verbindung mit einem abnehmden Boom im Ki Geschäft sowieso einer schwachen neuen Generation von Nvidia werden den Börsenkurs von Nvidia auf Dauer schon wieder normalisieren, also nach unten.

Aber schauen wir mal.
Deepseek ja. Das Spielzeug hier nicht. Das hat nun wirklich schön länger keinen Einfluss mehr auf den Kurs.

Sprach ja ausdrücklich von Consumerkarten.
 
Eli0t schrieb:
Sehr sicher. Es steht und fällt mit dem Preis. Wenn AMD 'mal 'gscheit ist, dann kostet die 9070 $499 und die 9070 XT $599.
Genau! Auf jede Karte legt AMD einfach was drauf, Hauptsache billig. Dir ist schon klar, dass die ursprüngliche Preisgestaltung bei AMD über den Preisen der Nvidia Karten angesiedelt war? Selbst wenn der Launch nun verschoben wurde und die Preise an die von Nvidia angepasst werden, wird man sie eben anpassen.

Schon deine Behauptung, 4080er Leistung kommuniziert selbst AMD anders, aber glaube du ruhig weiter an den Weihnachtsmann.
1738228231124.png
 
Zurück
Oben