Bericht Nvidia GeForce „Blackwell“: Neue Details und Benchmarks zu RTX 5090, 5080 & 5070 (Ti)

nuestra schrieb:
Du bekommst mit FG 100% mehr fps in den meisten Spielen ohne mehr verbrauch. So einen sprung gab es noch nie.
Geforce Series 7 vs Series 8

Sony hatte da echt das schlechteste Händchen der Geschichte für Timing. Die Ultra schlägt selbst die schnellste Dual-GPU Karte noch mit über 100% mehr FPS. Selbst ein 1000W Quad-SLI Monster kommt nicht mal ansatzweise an die 8800GTX Ultra

Und das beste?
Being a dual-slot card, the NVIDIA GeForce 8800 Ultra draws power from 2x 6-pin power connectors, with power draw rated at 171 W maximum.

War aber auch Legendär, echt schade das die Sony für die PS3 auf die komplett veralteten Modifizierten G70/G71 (7800gtx) gesetzt hatte. Echt blödes Timing. Das Ding war oben drauf noch absurd teuer im Vergleich.


Anyway, du warst sarkastisch, egal, ich liebe die 8800GTX ;-)
 
Wenn man sich anschaut, wie entschlossen und effektiv Nvidia ihre neuen gpus darin verbessert, dass sie für die Anforderungen der Zukunft mit mehr Real-Time raytracing und AI-Aufgaben besser gewappnet sind, dann kann man nur hoffen im Sinne des Wettbewerbs und der Preisgestaltung für den Kunden, dass AMD in dieser Hinsicht auch viele Ressourcen steckt um am Ball zu bleiben.

Auch wenn man im Zugzwang ist und hinterherläuft, man darf nicht den technologischen Anschluss zum tonangebenden Spitzenreiter verlieren. Die letzten Jahre war Nvidia konsequent der Technologie-Treiber (spätestens seit dem strategischen Kurswechsel von GTX auf RTX) und AMD und jetzt Intel sind die "Getriebenen". Getrieben, dran zu bleiben.

Der strategische Fokus auf raytracing hat AMD wohl ein wenig kalt erwischt, wenn man bedenkt, wieviele Jahre Nvidia an raytracing schon geforscht hat (min. 10J.) und der Jensen dann auf der RTX-Premiere den Hasen aus dem Hut gezaubert hat. Da war AMD bestimmt ein wenig baff und im HQ herrschte Alarmstufe Rot.

Nvidia legt starken Fokus auf Software, denn AI ist die Zukunft und wird der Spieleentwicklung und der Berechnung/Darstellung von Grafik mächtig unter die Arme greifen. Der Mensch wird weniger machen müssen und Spieleentwicklung sollte dann schneller und günstiger vonstatten gehen. Ob Ubisoft das noch miterleben wird? Sorry, diesen Seitenhieb könnte ich mir nicht verkneifen...(hoffe, die kommen wieder auf Kurs und bringen wieder gute Spiele raus)

Ich bin nicht so der Kenner in Sachen GPU-Technik, aber diese Features müsste AMD doch auf ihre Weise auch umsetzen, damit der Performance-Anschluss zu Nvidia erhalten bleibt oder könnte AMD das Tech technologisch auf eine andere Weise lösen? Also einen anderen Ansatz als Nvidia finden, damit ihre gpus für die AI- und RTRT-Zukunft solide aufgestellt sind?

Würde mich nicht wundern, wenn in den kommenden Jahren Nvidia unterstützte Spiele mit Sachen wie "Mega Geometry" und "Nanite Cluster Based Geometry" vollgepumpt werden, was die Nvidia Karten ja sehr gut beherrschen werden. Was passiert mit den GPUs der Konkurrenz, wenn die Spiele auf diese Features ausgelegt sind, die GPUs der Konkurrenz aber technologisch nicht darauf getrimmt sind?
Naja, das kann man ewig so weiter spinnen...

Vielleicht ist das kein guter Vergleich, aber was Nvidia damals mit tesselation an Schundluder betrieben hat, weil die Konkurrenz die Berechnung nicht so gut drauf hatte, war schon sehr wild und man hat gesehen, wie konsequent Nvidia seine Technologie in Vorzeigespiele einbauen wollte, um es der Konkurrenz so schwer wie möglich zu machen. Bestes Beispiel, dem Gewand von Batman (Arkham Asylum?) extrem viele Polygone geben, damit AMD daran erstickt, weil die mit tesselation nicht so gut klarkamen.

Hier mal nur als Beispiel, wie Nvidia gerade vom Feature-Set gut am Pushen ist: siehe Bilder
 

Anhänge

  • Screenshot_20250116-172601.png
    Screenshot_20250116-172601.png
    374,9 KB · Aufrufe: 35
  • Screenshot_20250116-172639.png
    Screenshot_20250116-172639.png
    363,1 KB · Aufrufe: 35
  • Screenshot_20250116-172827.png
    Screenshot_20250116-172827.png
    369,9 KB · Aufrufe: 28
  • Screenshot_20250116-172904.png
    Screenshot_20250116-172904.png
    376 KB · Aufrufe: 20
  • Screenshot_20250116-172950.png
    Screenshot_20250116-172950.png
    416,9 KB · Aufrufe: 28
  • Gefällt mir
Reaktionen: CadillacFan77 und shadACII
5hred schrieb:
Wenn man sich anschaut, wie entschlossen und effektiv Nvidia ihre neuen gpus darin verbessert, dass sie für die Anforderungen der Zukunft mit mehr Real-Time raytracing und AI-Aufgaben besser gewappnet sind, dann kann man nur hoffen im Sinne des Wettbewerbs und der Preisgestaltung für den Kunden, dass AMD in dieser Hinsicht auch viele Ressourcen steckt um am Ball zu bleiben.
Bei solchen "features" besteht halt auch immer die Gefahr, dass sie ausgenutzt werden können um die Konkurrenz oder auch ältere Karten gezielt auszubremsen, wie damals z.B. bei Tessellation.
Es wurden in Nvidia gesponsorten Titeln viel zu hohe Tessellation Faktoren verwendet ohne dass sie einen optischen Vorteil gebracht hätte. Nur um andere Karten die weniger Tessellation Leistung hatten künstlich auszubremsen.
Ich einer der Crysis Teile und Hairworks in Witcher 3 wären da so ein Beispiel für.
 
  • Gefällt mir
Reaktionen: GutenTag und 5hred
Zu den Latenzen alles am Pc hat ne Latenz zusätzlich zur körpereigenen Reaktionszeit.
Dabei ist die gpu je nach fps mit grob 10-15ms + display 5-15ms Maus 50ms das alleine macht schon 80ms aus ohne das man reagieren kann kommt von der gpu zusätzlich noch ne Latenz wegen fg was in der Regel ein frame ist kommt es stark darauf an wie viele grundlegende fps man hat.
Läuft das spiel in nativ bei 80fps kommt da 12ms dazu sind es aber 40fps verdoppelt sich die zeit das wird sehr schwammig Statt den üblichen altersbedingten klick Zeitabstand von 220-300ms wird das dann 250-350ms
Das klingt nach wenig ist aber spürbar je nachdem was man als display hat etwa oled entfällt die display zeit was gut 15ms bringt manchmal auch deutlich mehr ist vom panel abhängig was man hat.
Dann wird meine Reaktionszeit etwa auf 185-240ms sinken alleine dadurch, kommt Bewegung dazu bin ich bei grob 400ms bis 500ms was für mich als oller sack normal ist.
Daher halte ich framegen nicht besonders für erstrebenswert unterhalb von 100fps und dann stellt sich die frage wieso.
Um damit die sync zu erreichen brauche ich ein cap etwa 144 oder 240 bedeutet aber auch das dieses framegen immer über die min fps braucht das würde ich nur machen wenn ich sehr empfindlich auf tearing wäre was ich nicht bin.
Da gefällt mir amd Ansatz mit afmf deutlich besser dass sagt nicht perf. bei framegen sondern sync erreichen


Der test der rtx50 Serie wird sehr aufwendig alleine die unterschiede bei der software machen es essentiell das man nur 2 gpu vergleichen kann im falle der high end also rtx5090 vs rtx4090 einfach benchmarks laufen lassen ohne auf die Technik zu achten wird sehr fehlleitend werden.
Was nvidia Absicht ist und hier zeigt sich das die presse das cpu limit völlig außen vor lässt das kann man nicht machen. Dazu kommt das in blackwell vom design her die Ausgabe immer kleinere Auflösungen hochskaliert.
Das suggeriert höhere fps als diese es sind rein technisch geht maximal bei der 5090 +21% wenn etwas in legacy läuft und mit 33% in dx12 und das mit 170sm vs 128sm
Sind beide gleiche Bedingungen wird das sehr schmal das sind es nur noch 12% und 20%
Das wird sehr interessant bei der rtx5080 da diese nur 84sm hat ohne den in hardware verbauten dlss wird die sku sogar langsamer sein als die alte.
legacy spiele (dx11 und älter, ogl) -35% vs +-0%
dx12 +30% vs +52%
vulkan +19% vs +33%
Diese Änderung am Sm zu alles hybrid alu mit dem render engine Änderung das definitiv immer ein upscaler läuft ist maximal täuschend.
Bliebe die frage kann man das abstellen. Wenn nicht muss man dlss q vs nativ testen was nicht ganz rund ist da unterschiedliche Grundauflösung ist
dlssq 1,5 (66% an pixeln) vs blackwell hardware 1,125 (88% an pixeln)
ich merke das der Faktor fasst dem 1440p vs 1080p ähnelt bliebe das Problem das mit 2160p vs 1440p (2,2) besteht kurz es ist nicht vergleichbar.

man kann echt nur zu amd greifen da wird einen nicht das Bild konsequent unscharf gemacht
 
  • Gefällt mir
Reaktionen: metoer und nuestra
Ryzen3D schrieb:
Der Unterschied zwischen Frame-Generation und ECHTEN Frames liegt vor allem in der Latenz.
60 FPS = 17 ms Latenz
120 FPS = 8 ms Latenz
240 FPS = 4 ms Latenz
360 FPS = 3 ms Latenz
480 FPS = 2 ms Latenz
1000 FPS = 1 ms Latenz
ICH SEHE keinen Unterschied bei Doom Eternal zwischen 120 und 240 FPS. Ich spiele aber (auf der höchsten Schwierigkeitsstufe Nightmare) aber EINDEUTIG besser bei 240 FPS (hatte leider keinen Monitor mit mehr als 240 Hz).
Schaut man Videos von Frame-Generation oder steuert man nur mt der Tastatur ist das Bild ganz gut. Sobald ich bei Cyberpunk aber die Maus bewege ist die latenz spürbar schlecht und nur so gut wie die ECHTEN FPS.
Dem mainstream ist das egal und das ist jens neue Zielgruppe :)
 
Ryzen3D schrieb:
ICH SEHE keinen Unterschied bei Doom Eternal zwischen 120 und 240 FPS. Ich spiele aber (auf der höchsten Schwierigkeitsstufe Nightmare) aber EINDEUTIG besser bei 240 FPS (hatte leider keinen Monitor mit mehr als 240 Hz).
Schaut man Videos von Frame-Generation oder steuert man nur mt der Tastatur ist das Bild ganz gut. Sobald ich bei Cyberpunk aber die Maus bewege ist die latenz spürbar schlecht und nur so gut wie die ECHTEN FPS.
Genau das ist auch meine erwartung an (M)FG. Flüssiger bei ca. der Latenz der nativen FPS. Gut bei einem schnellen Shooter wie Doom würd ichs vermutlich auch nicht aktivieren, aber bei ARPGs. Hab damals Witcher 3 auf ~30 FPS gespielt, weil die GTX 760 nicht mehr hergab bei guter Grafik. Ähnliches jetzt bei Hogwarts Legacy und der 2080ti. Das per Mod hinzugeschaltete FSR FG ist eine bessere Spielerfahrung als ohne. Klar native Frames wären noch besser, aber ich fühle jetzt keinen "Disconnect" beim Spielen nur weil Latenz und FPS nicht zusammenpassen. Bin offensichtlich nicht super Latency sensitiv.
 
Das bisherige FG kann ich für mich vergessen. Sobald ich das aktiviere, merke ich - egal ob mit Maus oder Controller - die höhere Latenz.
Hab mir die ganzen Folien noch nicht angeschaut - soll das mit MFG besser werden? Ich glaube nicht oder zumindest mit nativ noch nicht vergleichbar.
Insofern wird MFG für mich wohl unbrauchbar bleiben.
Upscaling finde ich eine gute Sache, spiele alles @UHD mit DLSS Perfomance ohne das ich meckern kann. Aber (M)FG ist leider für mich nicht zu gebrauchen.
 
vll schrieb:
Wenn man hier die Leistung mit der gestiegenen TDP vergleicht, sind diese Effizienzwerte ja absolut katastrophal:
Und jetzt das Ganze nochmal vs. Super anschauen.

Im Prinzip wird wohl nur die 5070Ti ne kleine Verbesserung ggü. der 4000er Super Series sein
bezgl. Effizienz. (in der Rasterperf., ... RT ist noch unklar, wieweit die geä. IPC durchschlägt, 2x sicher nicht)

Also 60€ Aufpreis für mooore Watt.(wenn man Marktpreise z.Vgl. nimmt)
Trotzdem positiv, wenn man jetzt ein mue mehr Takt nutzen darf.
 

Anhänge

  • 4070TiS@819€.jpg
    4070TiS@819€.jpg
    115,9 KB · Aufrufe: 35
Zuletzt bearbeitet:
Robman86 schrieb:
Hab mir die ganzen Folien noch nicht angeschaut - soll das mit MFG besser werden? Ich glaube nicht oder zumindest mit nativ noch nicht vergleichbar.
Angeblich wird die Latenz mit Reflex 2 wie Native ohne Reflex. Angeblich. Muss man dann halt selbst testen.
 
Wolfgang schrieb:
Die Leistungsabschätzung auf Basis der von Nvidia präsentierten Benchmarks wurde um die drei Super-Varianten der GeForce-RTX-4000-Serie ergänzt.
Auweia ... 4070 = 100%, 4070 Super = 116%, 5070 (geschätzt) = 120%

Der Leak von MLID von vor ein paar Monaten, in dem behauptet wurde, die 5070er wäre in etwa so schnell wie die 4070 Ti war also wohl recht nah an der Wahrheit dran.

Bestätigt dann nur meine Befürchtungen / Überschlagsrechnungen im Kopf, dass der Schritt 4070 Super -> 5070 ziemlich sinnlos wäre. Dann hoffe ich mal, dass die 5070 Ti bei uns zu einem relativ zivilen Preis zu haben sein wird. Oder dass AMD mal ihre neuen Karten bringen ... :)

S.
 
Neuraltrieben sind die Karten geil !!! niiiiiiicht...ich finde es sehr schwach das sich die 5070TI nicht wirklich von der 4070TI Super absetzen werden kann...
 
  • Gefällt mir
Reaktionen: martin_m
Der Schritt von einer Super Karte auf die next Gen Karte der selben Leistungsklasse war meist oder sogar immer sinnlos. Im Westen nichts Neues oder fällt jemanden auch nur ein Generation ein wo die super Karten wirklich so schlecht gewesen wären?
 
Wäre leider storniert worden und die 8999€ sogar erstmal abgezogen 😂
 

Anhänge

  • IMG_0110.png
    IMG_0110.png
    436,4 KB · Aufrufe: 49
Apocalypse schrieb:
Angeblich wird die Latenz mit Reflex 2 wie Native ohne Reflex.
Bisher ist die Latenz bei normalem FG und Reflex 1 ja schon im Bereich von Nativ ohne Reflex, mal ein paar ms höher, mal ein paar ms niedriger.

Wenn Reflex 2 jetzt die Latenz von Reflex 1 kommen nochmal nahezu halbieren kann, gleichzeitig MFG die Latenz von FG kommend nur unwesentlich erhöht, sollte sie eigentlich immer niedriger sein als Nativ
Ergänzung ()

Apocalypse schrieb:
oder fällt jemanden auch nur ein Generation ein wo die super Karten wirklich so schlecht gewesen wären?
Die Super Karten gibts ja erst seit den 2000ern, gab es bei den 3000ern überhaupt welche?

Bei den 2000ern wars ähnlich wie bei den 4000ern, 2060S und 2070S haben ~15% draufgelegt, die 2080S nur 5%

Aber trotzdem war eine 3070 deutlich vor einer 2070S, sogar noch 20% vor der 2080S.

Damit waren die 2000er Super Karten gute Mid-Gen Upgrades, während die 4000er Super Karten den neuen 5000ern Konkurrenz machen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
paganini schrieb:
Wäre leider storniert worden und die 8999€ sogar erstmal abgezogen 😂
Nur 8999 Euro? Da nehme ich natürlich gleich zwei davon... :D

Taxxor schrieb:
Die Super Karten gibts ja erst seit den 2000ern, gab es bei den 3000ern überhaupt welche?

Bei den 2000ern wars ähnlich wie bei den 4000ern, 2060S und 2070S haben ~15% draufgelegt, die 2080S nur 5%

Aber trotzdem war eine 3070 deutlich vor einer 2070S, sogar noch 20% vor der 2080S.

IIRC stimmt das... die "Super"-Kategorie gab's erstmals bei den 20xx-er Karten. Und für die 30xxer gab's kein Super-Update.

Ich hatte zu Mining-Zeiten (2022) eine nie benutzte aber leider auch völlig überforderte GTX 1060 3GB in mein neues System eingebaut und dann das Glück, dass mir ein Online-Kumpel wenig später seine gebrauchte 2070 Super für 200 Euro überließ.

Von der 2070 Super bin ich auf 3070 gewechselt (wegen VR) und der gefühlte und beobachtete Leistungssprung war schon ziemlich deutlich. Laut Techpowerups GPU-Datenbank:

2070 Super = 100% -> 3070 = 135%


1737114383930.png

Was so in etwa auch das wäre, was ich mir von der 5070 im Vergleich zur 4070 Super erhoffen würde ... aber scheinbar muss man dafür heutzutage zur nächsthöheren und -teureren Leistungsstufe greifen. :(

Wahrscheinlich sollte man aber auch bedenken, dass 20xx auf 30xx generell ziemlich heftige Leistungszuwächse brachte. Sieht man da oben im Shot auch, da die 3070 in diesem Ranking selbst die 2080 Ti übertrifft, und das war, denke ich, die 20xxer Top-Karte.

S.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
The return of the King steht laut Gerüchten bereits Ende 2026 in Form des UDNA Flaggschiffes an.

Laut Überlieferung wird er kommen um uns von den grünen, geldgierigen Orks (Nvidias major Shareholders, damit bist nicht du Kleinaktionär gemeint) und Kobolden (Nvidias Marketing-Abteilung) zu befreien und den bösen Schreckensherrscher (???) dessen Namen ich hier nicht aussprechen will, wieder in das finstere und unwirkliche Land zurückzuschicken wo er hergekommen ist.
1737110094012.png
 
@ArrakisSand
Glaube ich leider nicht dass so eine Highend Karte kommt. Würde es mir aber wünschen, denn NVIDIA alleine den 1. Platz überlassen bringt nichts für einen Wettbewerb
 
1sascha schrieb:
Wahrscheinlich sollte man aber auch bedenken, dass 20xx auf 30xx generell ziemlich heftige Leistungszuwächse brachte. Sieht man da oben im Shot auch, da die 3070 in diesem Ranking selbst die 2080 Ti übertrifft, und das war, denke ich, die 20xxer Top-Karte.
Ja, sowohl die 30er, als auch die 40er hatten enorme Leistungszuwächse, vorallem wegen 2 ordentlichen Node Shrinks. Allerdings hatte die 40er Serie auch einen ordentlichen Preisschub.

Von 40er zu 50er fühlt sich eher an wie von 10er zu 20er, in beiden Fällen wird eine optimierte Version des ursprünglichen Nodes genutzt. Ne Menge Features die wir vielleicht irgendwann gebrauchen können. Allerdings war der Shader Zuwachs höher und auch die Shader selbst hatten eine größere Änderung bei Turing als jetzt (Mehr FP32 Shader und die gleiche Anzahl an INT32 Shadern). Daher ist der Performance Sprung bei der 50er Serie eher klein. Nvidia wird ein paar der Bottlenecks der 40er Serie reduziert haben (GDDR7 beim Speicher, mehr Cache beim GB202 etc.) und ein paar kleinere Optimierungen gemacht haben (GB203 hat 300 millionen Transistoren weniger und trotzdem 4 SMs mehr als AD103).
 
Zurück
Oben