Bericht Nvidia GeForce „Blackwell“: Neue Details und Benchmarks zu RTX 5090, 5080 & 5070 (Ti)

Also die RTX 5080 Benchmarks sind für mich als RTX 4080S User (kein RT, kein FG) echt ein Witz. Der Vergleich in den Benchmarks ist ja auch noch zur normalen 4080. Was bleibt dann noch übrig im Vergleich zur 4080S? 5%?

Aber um es positiv zu sehen, meine RTX 4080S kann weitere 2 Jahre im Betrieb bleiben.
 
  • Gefällt mir
Reaktionen: computerfouler, MonoIith, martin_m und 2 andere
whyme schrieb:
Siehst du etwas anderes als wir?

ja wenn man was schlechtreden will, findet man sicher was. Es geht ja auch um die Features die mitgeliefert werden. DLSS4, Reflex2, Neural Shader, das sind halt schon sehr dicke Featuresets.
Klar, gibts noch ne handvoll Leute die kein DLSS nutzen weil das Bild ja angeblich mega unscharf ist, fast nicht anzusehen ohne Augentropfen und Ibuprofen-Zäpfchen und aus Prinzip spielt man dann lieber mit 34 FPS anstatt mit 180... sonst hat man ja nix zu meckern. Putzigerweise sind dies dann auch die Leute, die noch immer Windows 7 oder WIndows 8 nutzen. Weil Win10 ist doof und Win11 ist nur am abstürzen und lässt sich nicht installieren auf nem Core 2 Duo.

Kauftst du dir alle paar Jahre denn nen Auto, welches doppelt soviel PS hat wie das vorige? oder steigt die Leistung eventuell nur gering, dafür kommt aber nen dickes Featureset, was den Fahrspaß / den Komfort enorm anhebt?

Gut... gibt sicher noch einige hier, die ne alte Schrottlaube fahren... denn von der Servolenkung schrupft der Unterarm, Hybritmotor ist Teufelszeug und der KAT schluckt Sound... aber hey, Prinzipien, versteh ich absolut ;)

Ich finde einfach, man sollte nichts schlechter reden als unbedingt nötig. Wem die neuen Karten nicht gefallen, kauft doch ne AMD Karte? oh wait... die Performance ist irgendwie paar Jahre hintendran, Featureset? brauch man nich... aber hey, viel Ram gibt es! Okay, dann ne dicke fette Intel Karte... fck, Playstation 2 hat mehr Power 😁 ... man kann halt auch einfach auf seiner alten Grafikkarte hocken bleiben, auf die Neuerungen verzichten. Dann aber bitte nicht die Foren vollheulen, wenn 2025er AAA(A) Games nicht auf 4K Ultra laufen auf ner Midrange-Karte von 2023 oder halt neue Features nicht unterstützt werden.

Ich weiß nicht was die Leute erwarten, jedes Jahr +50% Performance, 30% weniger Verbrauch und einen um 25% geringeren Preis.
 
  • Gefällt mir
Reaktionen: BloodyLambo, serve1chilled, legenddiaz und 5 andere
@nuestra
Wieso kaufen dann die Leute momentan mehr 4070 als 4070S und andere Modelle noch mehr?
(Wieviele der 4070 sind dann eigentlich mit GDDR6nonX?)

Kann das sein, das bereits "geringe" Preisunterschiede die Budgetgrenze ausmachen?
Dann wäre die 5070 bereits für Viele zu teuer!
(vgl. mit der 7800xt sind das schon fast 200€ mehr)
 

Anhänge

  • MF-KW2.png
    MF-KW2.png
    87,6 KB · Aufrufe: 60
  • 7800xt@469€.JPG
    7800xt@469€.JPG
    15,6 KB · Aufrufe: 48
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse und nuestra
Paradokks schrieb:
Der Vergleich in den Benchmarks ist ja auch noch zur normalen 4080. Was bleibt dann noch übrig im Vergleich zur 4080S? 5%?
Der Performanceunterschied zwischen der 4080 und 4080 super sind 1-3% macht also kaum einen Unterschied. Sind also eher so 12-13% gegenüber der 4080 super statt 5
 
  • Gefällt mir
Reaktionen: serve1chilled
Laphonso schrieb:
In der Tat, weder haben sich 4090er verkauft noch werden das die 5090er.
Das sind alles unverkäufliche GPUs, die niemand will.
Big RNDA hat keinen Markt. Klar. Hatte ich nicht realisiert. 🙄
Ich denke, er meinte es gibt keinen Markt für AMD im High-end Bereich.

Weil sowieso kaum jemand AMD dort kauft. Das hat AMD mehr oder weniger so gesagt zwischen den Zeilen.

So ähnlich wie VW's Ausflug in die Luxusklasse mit dem Phaeton. Hat auch niemand gekauft.

Es kauft niemand AMD High-end, wenn es ähnliches High-end von nVidia gibt.

nVidia müsste MASSIV im Rückstand sein, dass jemand AMD im High-end kauft, das war noch nie und wird wohl auch nie der Fall sein. Die kleinen Unterschiede - falls es sie jemals geben sollte - kompensiert das Marketing von nVidia locker.
 
  • Gefällt mir
Reaktionen: bad_sign, N0Thing, daknoll und 2 andere
@Rockbreak

Also an einen zweistelligen Zugewinn glaube ich erst, wenn es in den Reviews wirklich zu sehen ist. Die Benchmarks von nvidia sind ja auch noch cherry picked, ggf. Games die stark von GDDR7 profitieren.

Aber selbst wenn es 12% sind zwischen RTX 5080 und RTX 4080 Super… das ist immer noch extrem mager.
 
Paradokks schrieb:
Aber um es positiv zu sehen, meine RTX 4080S kann weitere 2 Jahre im Betrieb bleiben.
Genau das 👍
 
wern001 schrieb:
Ich weiß gar nicht wieso die Leute sich über hohe FPS mit FakeFrames freuen?

Diese FakeFrames sind doch nichts anderes als Blendwerk!
Jein. Optisch in einem Video funktioniert es.
Es wird flüssig aussehen, 120 FPS mit MFG könnten sich aber wie 30 FPS anfühlen.
Reflex 2 soll dem entgegenwirken… Aber wer sagt dass man Reflex nicht ohne MFG nutzen kann.

Aber für irgendwas müssen die 240Hz Monitore ja gut sein.
60 FPS mit MFG könnten potentiell unspielbar sein.
 
  • Gefällt mir
Reaktionen: Apocalypse
@Paradokks Ja eh, obs jetzt 12% oder 5% sind macht auch nicht mehr viel Unterschied. Dann hast du halt ne Steigerung von 30fps bei der 4080 super auf 33,6fps bei 12% Zuwachs bzw. 31,5fps bei 5% Zuwachs. Das Ergebnis bleibt gleich, die Performance ist in beider Hinsicht grottenschlecht und das bei 40 Watt mehr Verbrauch.

Wenn man sich also nicht fest vornimmt Framegeneration x3 oder x4 (Und x2 macht ja keinen Sinn weil hat ja die 4000er auch schon und Reflex 2 und andere Verbesserungen sollen ja für die 4000er auch kommen) in jedem Spiel das man spielt zu aktivieren, macht ein Umstieg einer 4000er auf die 5000 eigentlich überhaupt keinen Sinn.
 
  • Gefällt mir
Reaktionen: Maxminator
CDLABSRadonP... schrieb:
Ich würde mich sogar so weit aus dem Fenster lehnen und sagen, dass Turing die einzige Generation der Geschichte der Geforces, vmtl. sogar aller 3D-Grafikkarten überhaupt war, bei der ein Feature zum Killerfeature wurde.
Dann müssen wir wohl weiter zurückreisen zur Voodoo 5, die als erstes FSA in Hardware durchgeführt hat, was im Grunde der Urvater von DLSS ist. Ich würde dir da gerne zustimmen, da aber FSR3 sogar auf Pascal und Maxwell läuft und DLSS2 nicht immer besser ist, würde ich das nicht als Killerfeature sehen. Zumal es nach wie vor fraglich ist, ob DLSS2 nicht auch auf Tensor Cores verzichten könnte und damit auch auf GTX Karten laufen würde, also das Feature eigentlich gar kein echtes Feature ist.

Ausserdem gab es in der Geschichte der GPUs soviele Meilensteine, da hat DLSS wenig Schnitte. Von 16 auf 32 Bit Farben, Bumpmapping, Ambient Occlusion etc. Es gibt's nicht ohne Grund 12 DirectX Versionen...
 
Che-Tah schrieb:
Jein. Optisch in einem Video funktioniert es.
Es wird flüssig aussehen, 120 FPS mit MFG könnten sich aber wie 30 FPS anfühlen.

Hab in einem anderen Thread geschrieben:

Jupi ich hab 250 FPS aber das Game fühlt sich an wie 30 fps
 
Zuletzt bearbeitet:
CadillacFan77 schrieb:
Ich denke, er meinte es gibt keinen Markt für AMD im High-end Bereich.
Das glaube ich nicht, es gibt genug branding und Marken Agnostiker, die auf das gesamte Set schauen.

CadillacFan77 schrieb:
Weil sowieso kaum jemand AMD dort kauft. Das hat AMD mehr oder weniger so gesagt zwischen den Zeilen.
Andere haben das eher so wahrgenommen, dass AMD das Handtuch geworfen hat als durchsickerte, was das originäre 600W Monster 4090 an Performance bringt.
AMD konkurriert jetzt ja nur noch mit der eigenen 7900XTX, die ist 2 Jahre alt....

CadillacFan77 schrieb:
Es kauft niemand AMD High-end, wenn es ähnliches High-end von nVidia gibt.
Woran könnte das liegen

CadillacFan77 schrieb:
Die kleinen Unterschiede - falls es sie jemals geben sollte - kompensiert das Marketing von nVidia locker.
Und da ist die Dissonanz.

Wenn Du die schnellste Nvidia GPU in einem AMD Vorzeige Titel antreten lässt, wird die 4090 oder die 5090 top abschneiden.
Wenn die schnellste AMD GPU in Cyberpunk Pathtracing mit Ray Rekonstruktion antreten lassen willst... Nunja.

Das sind keine "kleinen" Unterschiede mehr, das sind 1-2 Generationen an Rückstand an Features.

Ist schwierig, da etwas auf das "Marketing "zu schieben, wenn man technologisch hinterherhängt.

Daher sagte ich gestern schon, dass FSR4 erfolgskritisch wird. Denn offensichtlich gibt es ja genug Marketing "Opfer" bei Nvidia. so liest man das hier laufend ;-)

Wir werden die AMD Marketing "Opfer" dann hoffentlich auch finden, falls FSR4 den Technologie Rückstand gut maskiert oder in Teilen sogar kompensiert.

So lange es dem (upper) Midrange etwas bringt, dass man mit der 9070 eine GPU hat, die da aufräumen kann, lasst uns doch alle auf das Marketing hoffen?

m.E: muss AMD da noch viel mehr machen und Benchmarks inszenieren.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Es ist immer wieder verblüffend wie viele DLSS mit (M)FG gleichsetzen. :D
Dabei funktioniert DLSS unabhängig von (M)FG.

Will ich FG nutzen, brauche ich DLSS 3 und RTX 4000
Will ich MFG nutzen, brauche ich DLSS 4 und RTX 5000.

Trotzdem läuft DLSS 4 auch auf RTX 4000 und davor. DLSS 3.5 läuft ja auch auf einer RTX 3000, nur kann RTX 3000 kein FG nutzen.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Laphonso und Rockbreak
@SKu Eben, der einzige Unterschied bei DLSS4 für die 5000er Karten ist dass der FG Multiplikator statt x2 nun auch x3 und x4 beinhaltet, das wars, alle anderen Features hat und wird auch die 4000er bekommen (Wie Reflex 2 z.B.)
 
Und genauso ist es auch möglich, eine Mischung von FP- und INT-Operationen gleichzeitig durchzuführen, wobei nicht klar ist, ob es dann nur ein festes 64/64-Verhältnis gibt oder ob dies auch dynamisch konfiguriert werden kann.

Doch, das geht, wenn man sich die Änderung genau ansieht und guckt, wie es bei Turing, Ampere und Co gelaufen ist.

Dort bestand ein SM jeweils aus 4 solchen Blöcken, wie dieser auch in dem Schaubild gezeigt wurde. Bei Turing sah man in jedem Block 16 FP32 und 16 Int32 Shader. Jeder Block war / ist für einen Warp bzw. 32 Threads verantwortlich, das bedeutet: wenn diese Threads FP32 ausführen wollten, dann brauchten wir dafür zwei Durchläufe im der FP32 ALU. In Takt 1 starteten die Threads 0-15, in Takt 2 starteten die Threads 16-31, in Takt 3 und 4 konnte eine unabhängige Instruktion auf der FP32 Einheit laufen, in Takt 4 stehen die Ergebnisse der Threads 0 bis 15 aus dem ersten Befehl zur Verfügung (bei den einfachen Befehlen wie add, mul oder multiply and add ... komplexere Sachen haben eine längere Pipeline).

Als Ergebniss konnt der Scheduler eigenlich nur jeden 2. Takt etwas tun (weil man zwar in Takt 2 die anderen Threads angeschoben hat, aber an und für sich war das ja schon gescheduled, weil ja ein WARP immer in Gleichschritten läuft).

Hier kam dann die Int32 Einheit ins Spiel, denn die konnte gleichzeitig bespielt werden, wenn es von den FP Befehlen unabhängige Integer-Arbeit zu leisten gab. Also wenn man genau gleich viel Int wie FP Arithmetik hatte und davon jeweils zwei unabhängige "Stränge" an Berechnungen je Thread, dann war Turing voll ausgelastet.

Zu Ampere und Ada hin hat man dann die Int32 Einheit aufgebohrt, so dass diese nun auch FP32 machen konnte. Daher ist bei Ampere der maximale Durchsatz an fp32 gegenüber int32 verdoppelt. Man braucht aber nach wie vor 4 unabhängige Berechnungsketten für den maximalen Durchsatz.

Bei Blackwell nun hat man alle ALUs gleich gemacht. Es gibt nun halt zwei Gruppen a 16 Units, die alle das selbe können. Damit zieht die Integer-Leistung auch wieder mit der FP Leistung gleich, so groß ist die Änderung also nicht.

Was das obige in Fett angeht wird damit auch klar: Eine SM kann - wenn man sie gut programmiert - mit 128 Threads einer Workgroup (die wegen shared memory auf einem SM arbeiten muss) voll ausgelastet werden. Besser sind mehr Workgroups / Warps für eine bessere Auslastung z.B. um Wartezeiten bei Speicherzugriffen zu überbrücken. Wie dem auch sei, jeder warp kann mit zwei Scheduler-Takten also maximal 0 / 64, 32/32 oder 0/64 int32 / fp32 Befehle gleichzeitig jonglieren. Da aber die Warps unabhängig gescheduled werden (abseits von Workgroup __syncthreads() ) haben wir damit auch die Granularität auf die ganze SM bezogen, nähmlich 32... außer man schaltet einzelne Threads über die Ausführungsmaske ab - wie bei einer if-Verzweigung.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx, N0Thing, the_IT_Guy und 5 andere
SKu schrieb:
Es ist immer wieder verblüffend wie viele DLSS mit (M)FG gleichsetzen. :D
Fairerweise hat Nvidia das verkackt, ich finde das maximal verwirrend für "Nicht-Insider"

1736967061242.png

Nvidia braucht ja selbst schon eine Tabelle, damit man durchsteigt.

Edit Und mFG ist ja ein DLSS 4 Hauptfeature, also wird das auch oft gezogen.
 
  • Gefällt mir
Reaktionen: Apocalypse und al007
Zurück
Oben