Bericht Nvidia GeForce „Blackwell“: Neue Details und Benchmarks zu RTX 5090, 5080 & 5070 (Ti)

superrocko schrieb:
Also 5080 mehr Performance, zu nahezu gleichem (Straßen-)Preis.
???
die 4080S gabs schon für 999€

Wow!
Manche haben wirklich zuviel Knack, wenn 170€ mehr nicht zählen.
Die paar Prozent mehr Fps sind ja wohl das Mindeste was man mit mehr Watt und besserem Process N4P
erwarten durfte, ... dann doch wohl bitte auch für 999€.
 
  • Gefällt mir
Reaktionen: serve1chilled und alkaAdeluxx
Dahaka92 schrieb:
seit ein paar Jahren keine Upgrade Möglichkeiten mit Sinn für mich, kommt da mal wieder was?
Mit der schnellsten 9070 bekommst Du mit Sicherheit 7900XT Performance und laut leaks wohl sogar in gewissen Szenarien sogar 7900XTX fps.

Und unter dem Aspekt, dass FSR4 vor allem die 9070 in Szene setzen soll, wäre das schon ein gutes Upgrade zu Deiner 6900XT.
Ich unterstelle, dass Du bei einer Radeon bleibst.

Die ganz große fps Keule gibt es nur bei Nvidia next Gen, die kostet leider absurde 2000+ Euro und interessiert hier nur die disposable income Enthusiasten.

Das R9070 vs 5070 und 5070Ti Spielfeld werden wir uns separat ansehen.
 
  • Gefällt mir
Reaktionen: Sun-Berg
Mhm… jo. Nett. Wann kommt nochmal die 6090?
 
  • Gefällt mir
Reaktionen: Celinna
Tja..
Was macht man jetzt am besten. Habe ein neues System gebaut mit 9800x3D aber noch ohne GPU. Für mich stand die 5080 fest. Aber wenn ich den Preis der Custom Modelle sehe und die Leistung. Weis ich nicht mehr so recht. Eine FE wäre noch okay aber wohl nicht zu bekommen. Was nimmt man jetzt. Wollte gerne auf meinen pc wieder zocken.
 
rasenschach schrieb:
Kauf Dir die FE Karte

Bin ja mal gespannt, wie einfach das möglich sein wird. Mein Bauchgefühl sagt, mit Glück zum Release vielleicht, aber ich denke nicht, dass da viele nachkommen werden. War in den letzten Generationen auch so. Und da zu Release auch die ganzen Scalper unterwegs sind, muss man da schon einiges Glück haben oder wieder absurde Aufpreise für eine FE zahlen.

Und die FE Karte wird in der Produktion extrem teuer sein. Ich glaube nicht, dass NVIDIA plant davon viele zu verkaufen. Die FE Karten sind mehr ein Flex von Nvidia um zu zeigen was geht und um in den Releasetests was gutes vorzuzeigen. Ob man plant davon viele zu verkaufen, ich glaubs fast nicht. Ich hätte aber auch sehr gerne eine 5080 Fe
 
  • Gefällt mir
Reaktionen: evilhunter
Bin gespannt ob ich noch unter 3000€ bleibe, mit der Aorus 5090 Waterforce WB :/
 
MasterBen85 schrieb:
Habe ein neues System gebaut mit 9800x3D aber noch ohne GPU. Für mich stand die 5080 fest. Aber wenn ich den Preis der Custom Modelle sehe und die Leistung. Was nimmt man jetzt.
Welche Karte hattest Du denn vorher? Die 5080 ist ja keine schlechte Karte, nur weil sie wenig Mehrleistung ggü. der 4080 bietet. Sie ist z. B. etwa 75% schneller als eine 3080 (bereits ohne (M)FG). Zu den Preisen der Custom-Modelle - es gab bisher immer auch Karten die die gleiche UVP hatten wie die Founders Edition. Das bisschen Werks-OC ist der Rede heutzutage häufig nicht mehr wert. Die 5070 Ti wäre auch eine Option, da gleicher VRAM, nicht so viel langsamer, aber deutlich günstiger. Auch die kommende RX 9070 XT wäre natürlich eine Option, die wird zwar ggf. 20% langsamer als die 5080, aber auch deutlich weniger kosten.
 
Zuletzt bearbeitet:
MasterBen85 schrieb:
Was nimmt man jetzt.
Warum nicht ne 4080 super? Gibts neu für knapp 1000€ noch zu holen bevor sie alle ausverkauft sind und hat genug Leistung. Bessere investition als >1250€ für ne 5080 mit 12% mehr Performance
 
Je mehr ich von den Karten sehe um so beeindruckter bin ich im Gegenteil zum Rest vom "Internet". Die Fortschritte bei der Software und dem Kühler(FE) sind Irre.

Ich spiele zu 99% nur Multiplayer-Titel ohne RT und bei 1440p (CS, PoE, DotA etc.), also werde ich kaum davon profitieren, aber wofür braucht man als Singleplayer Spieler mehr Rohleistung? Da ist doch besseres DLSS und MFG viel geiler.

Edit: Allein schon die Tatsache dass man plötzlich AAA RT Bretter wie CP2077 (Witcher 4!), Metro, Indiana etc. auf 4k/240Hz oder WQHD/480Hz OLEDs voll ausfahren kann ist doch der Wahnsinn!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: serve1chilled, BlaueElbe, Tyvusss und 2 andere
Fighter1993 schrieb:
Also reine Leistung wird wohl wirklich evt 5-10% mehr, das lohnt vorne und hinten nicht,
Stimme dir voll zu. Viel interessanter als das worüber jemand redet, ist das worüber jemand nicht redet... Denn das ist meist das was jemand nicht will, dass man es sieht, merkt etc...

NVidia reder nie über Rasterising Leistung... Da wirds sich vermutlich nicht viel getan haben.
 
So konnte ein Streaming-Multiprocessor (SM) bei Turing pro Takt 64 Floating-Point und 64-Integer-Berechnungen durchführen, bei Ampere und Ada Lovelace sind es dann 128 FP- oder 64 FP und 64 INT-Berechnungen. Bei Blackwell macht Nvidia dann eine Mischung aus Turing und Ampere, ein SM kann 128 Floating-Point- oder 128 Integer-Berechnungen durchführen, die Integer-Seite wurde entsprechend verbessert. Und genauso ist es auch möglich, eine Mischung von FP- und INT-Operationen gleichzeitig durchzuführen, wobei nicht klar ist, ob es dann nur ein festes 64/64-Verhältnis gibt oder ob dies auch dynamisch konfiguriert werden kann.
@Wolfgang eine kurze Klarifikation hierzu:

Bei Turing hat ein SM 8 SIMD-Einheiten mit einer Breite physikalischen Breite von 16, d.h. eine SIMD-Einheit führt pro Takt die gleiche Operation auf 16 Vektorkomponenten aus. Die Hälfte aller SIMD-Einheiten kann nur Integer-Operationen, die andere Hälfte nur FP-Operationen durchführen. Da NVIDIA-GPUs immer eine logische SIMD-Breite von 32 besitzen (eine SIMD-Instruktion bezieht sich immer auf 32 Vektorkomponenten), benötigt jede dieser SIMD-Einheiten zwei Takte, um eine SIMD-Instruktion abzuarbeiten. Dadurch muss ein SM pro Takt 2 Integer-Instruktionen und 2 Floating-Point-Instruktionen herausgeben, damit seine SIMD-Einheiten ausgelastet sind.

Auf Ada hat ein SM wiederum 8 SIMD-Einheiten mit einer physikalischen Breite von 16, wobei 4 dieser SIMD-Einheiten FP- und Integer-Operationen durchführen, während die anderen 4 SIMD-Einheiten nur FP-Operationen durchführen. Folglich, damit ein Ada-SM seine SIMD-Einheiten auslastet, so muss dieser pro Takt 4 SIMD-Instruktionen herausgeben, unter welchen bis zu 2 Integer-Instruktionen sein können, während die restlichen dieser 4 Instruktionen FP-Instruktionen sein müssen.

Auf Blackwell hat ein SM wiederum 8(*) SIMD-Einheiten mit einer physikalischen Breite von 16, wobei all diese SIMD-Einheiten sowohl FP- und Integer-Operationen durchführen. Folglich, damit ein Blackwell-SM seine SIMD-Einheiten auslastet, so muss dieser pro Takt 4 SIMD-Instruktionen herausgeben, wobei es bei diesen 4 Instruktionen eine beliebige Mischung von Integer- und FP-Instruktionen sein kann.

Blackwell ist in diesem Sinne auch keine Neuerung, sondern ein "Wiederaufleben" von alten Architekturdesigns, denn bereits Maxwell funktionierte in dieser Hinsicht genauso (8 kombinierte FP/INT SIMD-Einheiten mit einer physikalischen Breite von 16).

*: Hier ist die Dokumentation etwas unklar; es könnten auch nur 4 SIMD-Einheiten mit einer physikalischen Breite von 32 sein, wobei ich dies fast ausschließen würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: inge70, shadACII und Teropet
Rockbreak schrieb:
Warum nicht ne 4080 super? Gibts neu für knapp 1000€ noch zu holen bevor sie alle ausverkauft sind und hat genug Leistung. Bessere investition als >1250€ für ne 5080 mit 12% mehr Performance
Da ich eine sehr leise wollte ist die PNY 4080 S so fast die einzige. Die kostet 1150€ ca. die 5080 FE wenn man sie kriegt ist ja preislich noch okay. Aber dann 1450-1600€ für paar % mehr ist schon irre.

Spiele 1440P auf QD Oled. Nur Story Games zwischen 60-120fps reichen mir dicke. Wollte dann Wukong anfangen. Das neue Doom ect.
 
rasenschach schrieb:
Kauf Dir die FE Karte - das ist die eigentliche Revolution dieser Generation (neben MFG) denn die Karte ist selbst bei Volllast quasi unhoerbar.
Ich würde den Tag nicht vor dem Abend loben, denn genauso wie bei den Benchmarks, die nun in zehn verschiedenen Threads ständig kritisiert und zerlegt werden, existiert zu den FEs bislang nur viel Marketing. Dieses Marketing gab es schon bei der 3000er Generation und mehr als brauchbar waren die Karten am Ende dann doch nicht.

Zumal die ersten Karten noch mit einem schlechten Design glänzten und ins Temperaturlimit gelaufen sind. Was im Labor vielleicht auf dem ersten Blick gut ausschauen kann, kann sich bei unzähligen "seltsamen" Konfigurationen beim Käufer ganz anders entwickeln.
 
Zuletzt bearbeitet:
Ist euch in dem Slide zu den neural shaders aufgefallen, dass Nvidia hier die Zukunft der nächsten zwei Dekaden bei der grafischen Weiterentwicklung sieht? Steht da so geschrieben...Das wäre eine Erwähnung wert, welchen Stellenwert Nvidia den neural shaders anhaftet.

Neural shaders: nur auf den 5000er Karten oder auf allen gpus, die Shader haben, also theoretisch auch auf AMD Karten möglich? Soll ja nur ein AI-Programm sein, welches auf einem Tensor-Core ausgeführt wird. Bei AMD dann eben auf dem Shader-Core...oder gehts nicht so einfach?
Nvidia lagert die neural shaders auf die Tensor Cores aus um sich die anderen Cores für sonstige Berechnung freizuhalten. Wird da AMD Performance technisch ohne dedizierte Cores (Tensor bei Nvidia) ins Hintertreffen geraten oder pumpt AMD einfach die Shader core Anzahl nach oben um das zu kompensieren?

Was das Feature Feuerwerk mit den neural shaders angeht: hoffentlich kein Werkzeug, um AMD zu "canceln", sollten mittelfristig Spieleentwickler vermehrt bis intensiv auf diese AI features setzten. Hoffe, diese Features begünstigen kein vendor Lock in beim GPU Käufer, sonst darf NV ohne ernsthafte Konkurrenz weiterhin die Preise nach lust und Laune nach oben gestalten...

Ich sehe es jetzt schon: Witcher 4 mit CD-Projekt als best Buddies von Nvidia (siehe Kontroverse mit hairworks bei geralt und Tierfell) performt mit allen gfx settings auf "total wahnsinnig" deutlich besser als das AMD Pendant weil AMD es bis dahin nicht fertigbekommt, eine eigene Umsetzung für dieses AI Feature hinzubasteln...
Das gleiche Spiel von vorne dann: Nvidia pusht hart mit irgendwelchen (nützlichen) Features und AMD muss zusehen, dass sie nicht den technologischen Anschluss verlieren...

Mit 90% Marktanteil durch Nvidia hätten Entwickler kein Problem, Entwicklungszeit in Nvidia exklusive Features zu stecken. Unterstützung von Nvidia bei der Implementierung werden die bestimmt bekommen: Geld und man Power ist vorhanden.

Generell befürworte ich technologischen Fortschritt, aber bitte nicht so, dass man eine marktbeherrschende Stellung noch weiter ausbaut, und die Konkurrenz nur noch dazu da ist, damit es technisch kein Monopol ist. Naja, Nvidia freuts, dass Intel in den dGpu Markt eingestiegen ist: ein Grund weniger, als Monopol angesehen zu werden...whatever, hätte keinen Bock als AMD User, wenn da in guten spielen Nvidia exklusive Feature auftauchen, die technisch auf für AMD Karten vorhanden sein könnten (Tensor vs. Shader Cores), nur weil Entwickler sich gedacht haben: den Entwicklungsaufwand für AMD Karten mit 10-20?% Marktanteil schenken wir uns...

Wie seht ihr das? Sehen wir hier ein Revival von exklusiven Nvidia Features in spielen ala hairworks/whatever? Ich weiss, AMDs Antwort mit tressFX war da auch nicht nett (exklusiver Konter in einem tomb Raider Spiel als retourkutsche für hairworks)...

Aber eher denke ich, dass hier weniger Fokus auf ein bestimmtes Feature gelegt wird (hairworks) sondern, dass auf mittlere Sicht in den nächsten 10-20 Jahren die klassische Arbeit von Entwicklern vermehrt auf AI ausgelagert wird.
Spart Entwicklungszeit und -kosten..
 
  • Gefällt mir
Reaktionen: daknoll
Soll die DLSS 4 Option von jeder Game-Entwickler manuell integriert werden?
Oder kommt sie automatisch an alle Spiele vor, die DLSS 3 Frame Generation unterstützen?
 
Zuletzt bearbeitet:
Da merkt man, dass wirkliche neu und schnellere Hardware auch bei der neuen Generation eher eine untergeordnete Rolle spielt.
FPS/Qualitätszuwächse im Gamingbereich kommen nur noch, wenn man das tolle Softwarefeature xyz nutzt.

Dumm nur, dass es kaum Spiele gibt, die das nutzen. Man kauft also HW, deren volles Potenzial mit Glück in eins, zwei Jahren zum Tragen kommt, wenn die engines/Spieleprogrammiere die neuen features in games eingebaut haben. Aber das passiert natürlich nicht bei den eigenen Lieblingsgames ;)
Sieht man ja eindrucksvoll an DLSS und FSR. Gemessen am Markt unterstützen nur eine Handvoll games diese Techniken und davon sind nur der Daumen und Zeigefinger vernünftig umgesetzt (um beim Bild zu bleiben ;) )
 
Ehrlich gesagt bin ich sehr gespannt, wie und ob sich die krassen Erhöhungen von DLSS4 & MFG dann wirklich so darstellen. Auch wenn immer von sog. Fake-FPS geredet wird, also ich bin gespannt. Selbst wenn der Effekt nicht so groß sein sollte, wäre er immer noch massiv. Und wenn die Latenz und Umsetzung stimmt, könnte das durchaus großes Potenzial haben. Auch um Energiebedarf zu senken, wenn mit 60-144 HZ Limit gearbeitet wird.
Nicht alles braucht drölftausend FPS, aber allein die potenziellen Steigerungsmöglichkeiten finde ich immerhin "interessant". Es sah ja schon bei der krassen 4090 so aus, als wenn da ohnehin nicht mehr super viel zu holen ist und die Skalierung nicht mehr so hinhaut. Da finde ich die Idee mit mehr Power in RT & andere Möglichkeiten der FPS-Steigerung eigentlich schon gut.
Klar die Marketing-Folien sind wie üblich sehr krass. Das ist aber fast immer so. Mal sehen. Ich kaufe mir vermutlich eh keine neu Karte. Die 6700XT gammelt eh schon wieder 2-3 Jahre im Rechner rum, ohne groß genutzt zu werden.
Technisch interessant finde ich den Ansatz aber dennoch. Und wenn es am Ende wirklich nix bringt: auch okay. Dann haben es alle anderen halt gesagt. Ich sage mich aber: mal abwarten. Vielleicht scheppert die Umsetzung ja doch, das wäre technisch gesehen schon interessant. Gab ja 1-2 Videos, wo man die Umsetzung mit MFG gesehen hat und es beeindruckend flüssig aussah. Ich würde das nicht komplett abschreiben. Jedenfalls für viele Anwendungen. Derjenige, der irgendeinen uralten CS-Teil "kompetitiv" in 1000 fps spielen will, kann das ja gefühlt auch mit aktueller Rasterleistung.
In neuen Engines oder neuen Engineupdates können DLSS4 & Co ganz schnell drin sein und dann wird man sehen. Im Zweifel hat NV dafür genug Geld den Leuten "Hinweise" zu geben oder Entwickler beizusteuern.
Das kann man jetzt gut oder schlecht heißen.
 
shadACII schrieb:
@5hred Neural Shaders wird bei DirectX wohl Cooperative Vectors heißen und Microsoft ist da dran das auch mit Intel, AMD und Qualcomm umzusetzen. Somit zum Glück kein Vendor Lock-In auf Nvidia

Quelle: https://overclock3d.net/news/software/neural-rendering-is-coming-to-directx-microsoft-confirms/
Ja wobei Nvidia mal wieder "Lead" ist. Das sind genauso Sachen wo AMD mal Gas geben müsste um Vorzeigefeatures zu haben, man hinkt immer hinterher.
 
  • Gefällt mir
Reaktionen: shadACII
GrooveXT schrieb:
Ich hoffe auch auf AMD sonst wirds für mich dieses Jahr mehr ein Notwendigkeitskauf als wirkliche Freude.
AMD konkurriert doch 0% mit diesen NV Karten.
Also auf was will man hoffen?
Und wieso Notwendigkeitskauf?
Die 30% Mehrleistung sind 30% Mehrleistung.
Wenn die MFG nicht ultra schlecht wird, ist es ein + Feature, ansonsten nichts Weltbewegendes.
Wenn man die Karte für <2800 bekommt tuts zwar immer noch weh, ist aber halt dann so.
Entweder du brauchst es oder nicht, wenn du es brauchts wäre es ein Notwendigkeitskauf jedes Jahr, Freude hab ich auch an dem Teil nur mit diesem + an Leistung...
 
Zurück
Oben