Bericht Nvidia GeForce „Blackwell“: Neue Details und Benchmarks zu RTX 5090, 5080 & 5070 (Ti)

John_Wick89 schrieb:
und ich will eine high end karte keine mid Range
eine High-End Karte für die nächsten paar Wochen ? macht net wirklich Sinn was du da vor hast und was den Release angeht, mussde halt entsprechend schnell sein oder du kommst einfach noch paar Monate mit deiner 7900XT klar und holst dir ne 5080 zu nem besseren Kurs, wobei der Leistungsunterschied da wohl au net wirklich großartig ausfallen wird, wie jetzt bei der 4070TiS zur 4080S

der Leistungssprung von einer 7900XT zur 4080Super ist da auch recht überschaubar und dann noch 4GB weniger VRam, auch wenn bessere RT Leistung, kein wirklich praller Deal und würde da schon min. auf eine 5070Ti dann gehen
 
Zuletzt bearbeitet:
ok, hmmm dann warte ich ebend. aber ich denke die karten sind schnell ausverkauft..... und teurer als angegeben jetze
 
Kommend von einer RX 6900XT schein die 5070 Ti gerade der sweetspot zwischen Preis und Leistungszuwachs zu sein. Ich gebe der kommenden RX 9070 XT gerne eine Chance, es ist aber zu erwarten, dass diese von der Leistung um 30% schlechter sein wird.
Freue mich schon auf die genauen Tests bon CB.
 
John_Wick89 schrieb:
ok, hmmm dann warte ich ebend. aber ich denke die karten sind schnell ausverkauft..... und teurer als angegeben jetze
das sehe ich nicht wirklich klar, wenn du sofort ne neue karte brauchst musste schnell sein, ansonsten chill, was wenn das wieder nur ein paperlaunch ist, in den ersten paar wochen wollen primär die influencer die mit geld um sich werfen eine karte zum hypen😂dann ist der preis kurz hoch und dann gehts abwärts xD

  • ich sehe momentan gesättigten markt, die home office dudes machen auch nicht den eindruck als ob sie unbedingt aufrüsten müssten 😂
  • intel hat gut paar user weggefischt und legt eh noch nach...
  • amd startet am 21. januar die ersten kartenverkäufe, viel billiger ;) oh nein amd kann auch multiframegeneration 😂
  • dann folgt langsam nvidia mit den ersten versionen ohne dick vram
  • kann gut sein das nvidias 5070 noch im preis fällt, amd surprise surprise
  • warte lieber auf die zweiten nvidia versionen...
  • letztes jahr droppten die preise ein paar wochen nachdem launch ~10-15% das ist nicht so wenig
  • wer will schon im sommer ne überteuerte karte, wenn die meißten games die man zockt die neuen nvidia feature noch gar nicht installiert haben 😂
  • ich sehe auch nicht das die rtx5090 groß im preis steigt, im gegenteil in paar monaten gibts die locker für 400 tacken weniger...
  • ich sehe nicht das die 4090 user jetzt fett aufrüsten
  • ich sehe auch nicht das des geld momentan beim "volk" megalocker sitzt
  • finde es belustigend, wie sie immer noch glauben nach 9070XT erscheint nichts weiter 😂
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: martin_m, Maxminator und John_Wick89
Das ist auf den ersten Blick alles sehr enttäuschend. Dabei habe ich mein Maul so weit für euch aufgerissen, Nvidia!
 
  • Gefällt mir
Reaktionen: iron_monkey und Maxminator
Diese Multi Frame Generation muss dann aber sehr, sehr gut funktionieren.

Man kriegt als als 3090 Besitzer folgendes?:

100 x 1,70 (Ampere --> Ada) x 1,30 (Ada --> Backwell) = 220%

Im ernst? Man hat dann quasi ein SLI? mein Gehirn hat irgendwie immer mit min. 250-300% gerechnet :) Blödes Gehirn - muss auf AI umsteigen.
 
Maxminator schrieb:
Im ernst? Man hat dann quasi ein SLI? mein Gehirn hat irgendwie immer mit min. 250-300% gerechnet :) Blödes Gehirn - muss auf AI umsteigen.
Da hast du aber sehr hoch gerechnet.
780ti -> 1080ti 214%
980ti -> 2080ti 219%
1080ti -> 3090 203%
2080ti -> 4090 254%

(Zahlen von Techpowerup)
 
  • Gefällt mir
Reaktionen: Maxminator
Schaschala schrieb:
Weis nicht ob es jemand bereits erwähnt hat, wenn man bedenkt das bis auf MFG alles auch für die älteren Karten kommen soll (also DLSS4 usw.) werden die Karten für Leute mit ner 4000er Reihe komplett unnötig, außer man wills unbedingt haben, mal schauen wie weit dann der Vorsprung noch ist von 5000er zu 4000er Reihe.

Die einzigen Karten die interessant sind momentan die 5090 für mich zu teuer, also rein aus der Vernunft Sicht (Frau) und die 5070 Ti.

Oder das ganze KI Geschwurbel ist doch Magic und wir befinden uns tatsächlich in einer neuen Ära der zukünftigen Grafikarten...-KI / AI vor Raster- da technisch nicht mehr aus den Chips zu holen ist.
Wenn ich mit einer 5000 Karte in zukünftigen Spielen mit mfg doppelt soviel fps in neuen Spiele habe sind die 4000 Karten für mich unnötig. Und das ohne das die Karte mehr Strom verbraucht oder lauter wird
 
die wichtigste klarheit vergessen, die preise sind aktuell künstlich nach oben geschraubt, die produktion der rtx40 zu früh eingestellt, die nachfrage ist nicht so hoch wie die marketinghorden gerne einreden , ein stau der sich auflösen wird, die preise werden zeitnah fallen

btw ich kaufe nvidia und amd
 
  • Gefällt mir
Reaktionen: Flexatainment, eXe777, Rockbreak und 4 andere
scootiewolff22 schrieb:
"Darüber hinaus soll Raytracing auf Blackwell 25 Prozent weniger Grafikkartenspeicher benötigen als Ada Lovelace." Aber 16 GB VRam reichen doch nicht mimimimimi

Ehrlich gesagt, erinnert mich das an Automobilhersteller und ihre tollen XX L/100 km Angaben. Vielleicht solltest DU weniger "mimimimimi" Kommentare abgeben!
 
  • Gefällt mir
Reaktionen: John_Wick89
 
  • Gefällt mir
Reaktionen: GutenTag
worum geht es in dem Video? Und warum kann er das schon anspielen? Steht er nicht unter NDA?
 
Mit jedem neuen Infohappen werden die 5000er für mich uninteressanter. Es bestätigt sich nur, dass ggü. Ada fast nichts getan hat und nur etwas nach ober skaliert wird. Ich werde nich aufrüsten, sehe darin keinen Sinn vor allem bei 600W und dann nur 30 % Mehrleistung.
 
  • Gefällt mir
Reaktionen: the_IT_Guy und martin_m
Ich ändere gerade meine Meinung vom Backwell nach dem lesen des Techpowerup Artikels!
Ich denke, die Mehrheit unterschätzt gerade die neue Fähigkeiten der neuen Systeme von Backwell.
Und noch was: es könnte sein, dass ein Paar Sachen zwar auch von ADA unterstützt werden aber erst bei Backwell brauchbar laufen werden!
 
  • Gefällt mir
Reaktionen: Tobi_R_aus_S
Ich finde diesen Fokus auf Fake-Frames doch langsam sehr problematisch. Es wird immer wieder behauptet, das Bild wäre dem nativ gerenderten Bildern ebenbürtig, aber die Artefakte nerven selbst beim aktuellen DLSS.
Bei schneller Action fällt einem das nicht so auf, aber bei einem immersiven Lauf durch Night City oder Bright Falls fallen mir immer wieder Bildfehler auf. Ghosting, schlechte Reflexion, Zäune und Haare, feine Objekte haben oft Probleme. Ich wäre froh, wenn man wieder richtige Hardwareeinheiten für sein Geld bekommt, vor allem nach den Preisanstiegen der letzten Generationen. Stattdessen haut man mir bald 4 Fakes zwischen und versucht das mit Reflex 2 irgendwie spielbar zu halten.
 
  • Gefällt mir
Reaktionen: eXe777, Zockmock, iron_monkey und eine weitere Person
Wenn man hier die Leistung mit der gestiegenen TDP vergleicht, sind diese Effizienzwerte ja absolut katastrophal:

LeistungTDP %Effizienz %
5090 / 4090
33​
27,78​
4,09​
5080 / 4080
15​
12,5​
2,22​
5070 TI / 4070 TI
20​
5,26​
14​
5070 / 4070
20​
25​
-4​


Bei der 5070 sogar gesunken?!
 
  • Gefällt mir
Reaktionen: GerryB und alkaAdeluxx
Vitche schrieb:
Die Änderungen an den SMs/ALUs sind interessant, weil sie im Kontext Gaming-Workload überhaupt nicht ins Bild passen. Jetzt haben wir also pro Shader-Partition 32 Shader, die neben FP32 auch INT32 können. Ampere und Ada hatten je 16 "reinrassige" FP32-ALUs und 16 FP32-ALUs, die außerdem INT32 beherrschen.

Der Gedankengang dahinter war, kommend von Turing, die Auslastung zu verbessern. Mit Turing war es nämlich noch so, dass es pro Partition neben den 16 FP32-ALUs noch 16 "reinrassige" INT32-ALUs gab, die also nur mit ganzen Zahlen umgehen konnten. Bei der Computergrafik sind allerdings überwiegend Fließkommaberechnungen gefragt. Nvidia hat damals auch Statistiken genannt, je nach Spielen lag das Verhältnis der FP-zu-INT-Rechenlast bei 4:1 bis 2:1. Dementsprechend hatte Turing zwar pro Shader/FP32-ALU bzw. gemessen an den TFLOPS eine hohe Gaming-Leistung, weil sich die Shader nicht mit Ganzzahlen rumschlagen mussten; die Hälfte der Single-Precision-ALUs lag aber rund 2/3 der Zeit brach.

Mit Ampere (und Ada) wurde das Problem aus der Welt geschafft, weil diese INT-ALUs jetzt einfach auch Fließkommaberechnungen anstellen, wenn es gerade keine INT-Rechenlast gibt. (Nebeneffekt war dann aber natürlich, dass allein dadurch bedingt das TFLOPS-zu-FPS-Scaling schlechter wurde, weil sich die damit pro SM verdoppelten "eigentlichen Shader" wieder selbst um die INT-Berechnungen kümmern müssen.)

Anyway, ich sehe nicht, wie es jetzt plötzlich für Gaming-Szenarien hilfreich sein soll, mehr INT-Rechenleistung bei pro SM nicht höherer FP-Rechenleistung zu haben. Ich glaube nicht, dass sich Spiele seither hin zu im Verhältnis höherer INT-Rechenlast entwickelt haben. Und damit ist das bezogen auf die Chipgröße eher ein Klotz am Bein. Hier dürften ausschließlich AI-Hintergedanken eine Rolle gespielt haben.
(...)
Im Podcast hast du diese Position ja auch noch einmal erwähnt. Ein Erklärungsansatz ist natürlich, dass es einfach im GB202 drinnen ist, weil der auch als AI-Workstation-Karte zum Einsatz kommen soll. Das erklärt aber noch nicht, wieso er auch in allen kleineren Chips drinnen zu sein scheint.
Dafür gäbe es nämlich auch einen Gaming-Ansatz: Nvidia weiß einfach nicht, wie viel von den AI-Berechnungen sie tatsächlich in Zukunft über Tensor und wie viel über die Shader erledigen wollen. Deshalb (aus ihrer Sicht) lieber einmal overpowered und prinzipiell jederzeit per Softwarerevision umkrempelbar, als nicht vorhanden.
 
Ich frage mich warum uns der jens die Karten nicht teurer verkauft. Mit mfg doppelt so schnell für lau ist ja nicht typisch für jens verkaufstaktik
 
Zurück
Oben