News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

Booth schrieb:
die garantiert auch vollständig auf bisheriger Hardware laufen würde.
Also garantieren würde ich sowas nicht unbedingt :D
 
Mrbrill schrieb:
Ich bin mir sicher, das wenn die Community gefragt würde, lieber mehr VRAM favorisiert würde als DLSS 4.
Bloß warum? Mehr VRAM führt im Durchschnitt vielleicht zu 5% Mehrleistung (sofern der VRAM zuvor das Problem war), während DLSS 4 DEUTLICH mehr Mehrleistung liefert. Die Forderung ist doch absolut an der Realität vorbei.
 
SaschaHa schrieb:
Bloß warum? Mehr VRAM führt im Durchschnitt vielleicht zu 5% Mehrleistung
Mehrleistung wird nicht nur in FPS ausgedrückt. Eigentlich würde ich sie sogar bei Gaming fast immer in besserer Bildqualität und besserer Latenz fest machen. Bildqualität wird durch MFG verbessert, Latenz halt nicht.
Und generell ist das etwas das ja für AMD schon seit einiger Zeit ein Problem ist, Stichwort Bildqualität FSR vs DLSS ;-)

Und da macht mehr RAM schon ein wenig mehr als einen kompletten FPS einbruch zu verhindern, wenn ein Spiel den Speicher ständig überlaufen lässt ... in solchen fällt redet man dann eh meistens von "Nicht mehr spielbar" und nicht nur von 5% Leistungsunterschied.

Aber solcher fälle sind auch extrem selten, in der Regel tuts halt einfach auch Texture Details runterdrehen und es passt dann auch wieder, aber das ist halt Bildqualität die man für wenig Geld haben könnte, aber nicht bekommt.

Und wer dann auf seiner Nvidia Karte noch was mit AI machen will, für den geht es dann auch um viel mehr als nur 5% ;-)

Für die Spielbarkeit von Titeln sind die 12 oder 16 oder 24GB aber wohl wirklich ziemlich latte, aber für die Spielbarkeit ist die RT Performance auch ziemlich latte. RT off macht in der Regel mehr FPS als DLSS 3 ;-)
Aber wir geben ja soviel Geld für die GPUs aus, weil wir es dann auch gerne hübsch hätten. Was übrigens nicht heißt das man Texturen mit 12 GB nicht auch noch hübsch bekommt, aber es ist halt nicht immer der Fall und das mehr an Speicher würde halt ein Appel und ein Ei kosten. Gibt es trotzdem nicht, wegen der erwähnten AI Thematik. Kann ich verstehen das AMD das egal ist. ;-)
 
AtomLord schrieb:
das wird alles bis runter zur 5070 TI weggescalpt... ^^
Wir haben keine Pandemie ✅
Wir haben kein Mining boom ✅
Es wird nicht künstlich verknappt ❓
Zum Launch ist genug vorprodoziert ❓

Wie kann sich scalpen noch lohnen, wenn die Lager voller Ware sind? Die holbirnis können doch nicht alles leer kaufen.
Unter normalen Umständen unmöglich 🤷
 
  • Gefällt mir
Reaktionen: Apocalypse und Holgmann75
longusnickus schrieb:
die einzig halbwegs bezahlbare karte kommt mit ganzen 12GB RAM, obwohl wir jetzt schon bei einigen spielen sehen, dass das selbst für 1440 schon zu wenig ist.
5070 auch noch viel mehr TDP als die 4070, also holt man sich die rasterleistung einfach durch mehr strom reinpumpen

die 5060 also wieder mit 8GB RAM?

12GB VRAM sind zwar nicht übermässig viel aber würde für Causal Gamer schon reichen. Aber ich finde die nur 50 CUs und 6.144 ALUs schon enttäuschend zumal auch der Takt nicht so hoch ist, sind 649€ einfach zu teuer dafür.

Zum Vergleich dazu das die RTX 4070 Super mit immerhin immerhin 56 CUs und 7.168 ALUs aufwartet. Momentan ist sie zwar auch nicht wirklich günstiger zu bekommen, aber bis November gingen viele Modelle davon schon unter 600€.

Eine RTX 5060 und RTX 5060 Ti würde ich da wirklich intressanter finden. Vielleicht analog zur aktuellen Serie die RTX 5060 nur mit 8GB und die RTX 5060 Ti mit 8GB und 16GB.

Wenn die RTX 5060 mit so 32 CUs und 4.092 ALUs für 299€, und die RTX 5060 mit so 40 CUs und 5.120 ALUs mit 8GB für 379€ und mit 16GB für 439€ kommen würde, wäre ich voll zufrieden.
 
GgqzTTlaAAAa4Av.jpeg
 
  • Gefällt mir
Reaktionen: 1776, mazO!, Beatmaster A.C. und 7 andere
Was stimmt hier mit manchen Leuten nicht, die hier schreiben, "oh günstiger als erwartet für eine 5090, freue mich auf meine neue Karte"?
Einen derartigen Preisanstieg zur Vorgängergeneration?
Verdammte 2300€ für eine GPU? Dafür habe ich vor grob 10 Jahren zwei komplette PC's in der oberen Mittelklasse gebaut. Wird immer absurder. Aber solange es genügend Leute gibt, die das bezahlen, werden wir immer weiter in diese absurde Richtung driften. Auch diese Karten werden demnach für diese utopischen Preise weg gehen wie warme Semmeln. Aber wehe die Butter kostet wieder paar Cent mehr. Nur noch zum Kopfschütteln.
 
  • Gefällt mir
Reaktionen: 1776, Simonsworld, Sennox und 2 andere
tomtom1980 schrieb:
Weiß jemand schon ob nvidia am Release Tag oder zeitnah Grafikkarten (einige) direkt über die homepage verkauft als 5080 oder 5090 wie das bei früheren Releases der Fall war?
Ich weiß es!

...aber ich verrate nix! :baby_alt:
 
  • Gefällt mir
Reaktionen: tomtom1980
alkaAdeluxx schrieb:
4090 1.949 Euro
5090 2.329 Euro
Also wenn 380€ für dich kein(e) Geld (Erhöhung) ist, kannst du mir das jeden Monat auf mein Konto überweisen :daumen:
Nö, ich brauch das ja für die 5090.

Wer hat denn hier zu Anfang eine 4090 für 1949 € bekommen? In den ersten Wochen ging nichts unter 2000 €.
Ergänzung ()

z-R-o- schrieb:
Verdammte 2300€ für eine GPU? Dafür habe ich vor grob 10 Jahren zwei komplette PC's in der oberen Mittelklasse gebaut.
Und vor 40 Jahren waren dafür gerade mal ein PC mit Diskettenlaufwerk und ne 10MB Platte drin, wenn überhaupt. Was bringt jetzt so ein Vergleich wirklich? Und in diesen 2 PCs waren weder Highend-GPUs noch hochwertige CPUs drin, oder? Also hinkt der Vergleich von vorne bis hinten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Öcher Tivoli
Martyn schrieb:
12GB VRAM sind zwar nicht übermässig viel aber würde für Causal Gamer schon reichen.
Total War Warhammer 3 oder Anno 1800 können die 12GB VRAM in WQHD locker erreichen.

Nvidia hätte einfach allen Karten mehr VRAM spendieren müssen. 16/20/24/28/32/48

Bekommt man irgendwo die Preise für GDDR7/GDDR6X her?
 
Es geht auch nicht immer darum ob VRAM xy reicht. Sondern das man ab einem gewissen Preis im Verhältnis zur Leistung der Karte auch entsprechenden VRAM hat.

Wenn ich pers. im Jahr 2025 über 500€ für eine Karte ausgebe, dann erwarte ich, dass diese mindestens 16GB VRAM hat.

Bei dem Preis der 5080 erwarte ich dann mehr als 16GB.
 
  • Gefällt mir
Reaktionen: Simonsworld, Apocalypse und Syrato
Karten sind gute Upgrades, wobei die 5080 schon wieder vom Speicher zu schwach ist, wenn man allerdings von einer 4090 kommt, sollte man es sich wohl überlegen überhaupt upzugraden.

Für die AI-Leistung und VRAM hätte ich schon Lust, aber da ich das nur aus Spaß mache, wäre es dumm und der neue Stromverbrauch gefällt mir auch so gar nicht.

DLSS4 reizt mich so gar nicht, nutze FrameGen schon nicht, MFG dann erst recht nicht ^^
 
Für mich wäre folgende VRAM Aufteilung vernünftig und dem Preis entsprechend :

5070 16GB
5070 TI 20GB
5080 24GB
5090 32GB

Einzig bei der 5090 finde ich es gut gewählt.
 
  • Gefällt mir
Reaktionen: nurfbold
  • Gefällt mir
Reaktionen: Windell
LETNI77 schrieb:
Das stimmt nicht, 470/570 und 480/580 waren Highrunner-Karten, zwar wegen Mining, aber trotzdem ist das die meistverkaufte Serie von AMD
Ich hab mich vorrangig auf Gamer in den Steamcharts bezogen, am Mining haben aber auch AMD wie Nvidia verdient.
Mir geht es vorrangig um das Image bzw die Bekanntheit die AMD meiner Beobachtung nach bei Gamern und normal Verbrauchern inne hat und da spricht das Beispiel 1060 vs 480 Bände
 
Na, das Daniel Owen Video mit dem dem Standbild (basierend auf dem DF Video) zeigt erhebliche Bildunterschiede:

Das DF Video ist ganz schlecht, da viele Szenen nicht Framesynchron sind und keine Vergleichbarkeit erlauben.
Schlampige Arbeit oder Vorsatz?

Ich bin utmost umimpressed - man kann ahnen, das DLSS4FGx4 erhebliche Bildverfremdung und Qualitätseinbuße bedeutet!
 
  • Gefällt mir
Reaktionen: Cat Toaster
MrWaYne schrieb:
wer außer absolut uninformierten muggels zahlt nun für eine gebrauchte 4090 noch 2200€, wenn man dafür in einem monat fast eine 5090 bekommt? also neuware mit garantie und von den eckdaten deutlich besseres produkt...
 
SaschaHa schrieb:
während DLSS 4 DEUTLICH mehr Mehrleistung liefert.
Mehrleistung im eigentlichen Sinne ist es ja nicht mal.
Zudem die 5090 auch architektonisch nichts vorwärts bringt im Vergleich zur Vorgängerversion.
25% höhere TDP
25% mehr Transistoren
Nodeshrink von 5 auf 4nm
und dann kommen real im Schnitt 25% mehr FpS raus unter RT wenn man das Fakebilder Gedöns weglässt
Ergänzung ()

cypeak schrieb:
wer außer absolut uninformierten muggels zahlt nun für eine gebrauchte 4090 noch 2200€,
Die Preise sind halt völlig kaputt.
Die 4090 wurde eingestellt und seitdem ist bei den Händlern wieder Goldgräberstimmung ausgebrochen.
Vor ein paar Monaten hast eine 4090 noch um knapp €1900 bekommen. Neu mit Garantie.
Jetzt kostet die billigste im Geizhals €2499.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
ShiftC schrieb:
Irgendwie kann ich beide Lager nicht verstehen.
das kommt davon dass das abwägen von vor- und nachteilen kaum noch bedeutung hat in einer welt in der der hype das neue marketing ist. klatscht man irgendwo "ai" drauf, muss es ja quasi was revolutionäres sein.

und dass leute einfache sacheverhalte nicht mehr kritisch bewerten können, zeigt alleine schon dass man ernsthaft die aussage glaubt eine 5070 würde die performance einer 4090 liefern; dass hier mit völlig unvergleichbaren grundlagen verglichen wird, spielt offenbar kaum eine rolle. erschreckend.

die technik an sich (also das ML supersampling der hersteller) ist ja nicht "schlecht" und etliche tests haben gezeigt dass man mit relativ wenig optischen einbußen oder sonstigen nachteilen von mittelmäßigen framerates auf durchaus solide werte kommen kann, was in vielen titeln den unterschied zwischen nicht- oder schlecht spierbar zu annehmbar spielbar ausmacht. und in meinen augen besonders positiver nebeneffekt ist dass das uralte problem des kantenflimmerns zwar nicht gänzlich verschwunden ist, aber mit den techniken wesentlich besser gehandhabt wird. (mir würde prinzipiell dlaa und vielleicht dlss-quality reichen, alles andere ist mehr notnagel als wirklich wünschenswert)

nun entwickelt sich das aber m.e. in eine völlig falsche richtung - interpolation könnte man ja noch als netten bonus verstehen für titel in denen der optische flow wesentlich wichtiger ist als latency.
aber selbst wenn die bilder mithilfe der ki qualitativ besser daherkommen als bei klassischer zwischenbildberechnung, ist es unterm strich immernoch genau dass: eine interpolation.
dass das nun als quasi standard gesetzt weren soll, ist milde gesagt keine gute entwicklung und es erschrickt mich dass es hier einige gibt, welche dem absolut kritiklos zujubeln und noch schlimmer: das sogar als erstrebenswerten zukunftsweg sehen, frei nach motto "rasterizing ist tot!" - wie kann man nur so seine unwissenheit demonstrieren? (kann sein dass wir igendwann wirklich sagen können das rasterizing passe ist, aber davon sind wir noch weit entfernt)

nun bin ich nicht naiv zu glauben dass echtes 4k (oder gar 8k) rendering zeitnah mit klassischem nativen rendering machbar ist, denn die anforderungen steigen hier weit über das lineare maß an. insofern muss man mit pfiffigen ideen um die ecke kommen um mit der real verfügbaren rechenkapazität in diese auflösungen zu kommen und dabei ist - wie oben erwähnt - das ki/ml supersalpling zumindest ein baustein der hier abhilfe schaffen kann. aber man muss aufpassen dass man auf der jagd nach hohen framerates in hohen auflösungen nicht auf zuvieles verzichtet...

was mich persönlich nervt, ist dass man mit jeder propriäteren technik eines herstellers, noch mehr davon abhängig wird um überhaupt ein spielbares erlebnis zu haben je nachdem ob das in games überhaupt implementiert ist; nvidia mag einen hohen marktanteil haben, aber gerade dann dürfen wir uns als konsumenten auf der gamer seite nicht noch mehr in einen vendor-lock begeben. wie soll da ein irgendwie gearterer wettbewerb entstehen von dem wir profitieren, wenn dieser duch solche propriätere lösungen komplett abgewürgt wird?
warum drängt kaum jemand darauf dass sie techniken unter einer einheitlichen api implementiert werden, so dass ich mir als gamer garnicht die gedanken machen muss was das game unterstützt, solange meine gpu hier die api implementiert - und hier kann nvidia dann gerne ihr dlss und amd ihr fsr unterbringen...
Ergänzung ()

legenddiaz schrieb:
Wenn die Wahrnehmung durch MFG eine bessere ist, dann interessiert es mich 0,000% ob die Hardware, Software oder KI dafür zuständig sind!

Ihr habt die Karten nichtmal in eure Händen, also wie könnt ihr da von fake reden?!
ob die wahnehmung wirklich besser ist, muss sich noch herausstellen. zumindest bisherige erfahrungen mit fg zeigen das es dabei auch handfeste nachteile gibt und dass das feeling nicht unbedingt immer gut ist.

das man dabei von fake spricht, mag zwar etwas zugespitzt sein, aber liegt in der natur der sache, da die frames eben nicht regulär gerendert werden sonder da es sich um etwas ausgefeiltere zwischenbildberechnung handelt.
auch ohne die echte hardware in den händen zu halten (oder beser in der kiste verbaut zu haben) kann man nur davor waren sich von nackten fps zahlen täuschen zu lassen..
Ergänzung ()

iamcriso schrieb:
Ich bin tatsächlich etwas erschrocken darüber, wie hier in einem Community IT Forum so derart unsachlich und teilweise herablassend über neue Technologie (KI, Neuro-Rendering, DLSS) geurteilt wird :confused_alt:

Das ständige Herumreiten auf „Ja aber Nativ dies das…“ erinnert mich bisschen an so „aber damals mit der Mark war…“

Wir sind im Jahre 2025. Das war eine gelungene Vorstellung von NVIDIA, die aufgezeigt haben wo die Reise hingeht.
ich bin eher erschrocken darüber dass in einem solchen forum leute nicht zwischen marketing und realität unterscheinden können und komplett verlernt haben solches marketing kritisch zu bewerten.

und es ist angemessen auch neue technologien kritisch zu bewerten; für mich ist entscheidend wie diese kritik dann argumentativ unterlegt ist.
z.b. "wo die reise hingeht" sollte nicht durch bestimmt werden was sich ein hersteller ausmalt, sondern dadurch was mir als kunden den größten nutzen einbringt.
trotz so manchem nutzen welches z.b. dlss und fsr bringen - all diese technologien sind weit davon entfernt fehlerfrei zu sein und dass sie proprietär sind macht es nicht besser..
Ergänzung ()

ElectricStream schrieb:
Verabschiedet euch von der Rohleistung.. Nvidia hat die komplette Veränderung eingeleitet von dem was wir bisher als Grafikerzeugung kennen.
wenn man sowas aussagt, weiß man überhaupt wie die "grafikerzeugung" funktioniert und was die voraussetzungen für das was nvidia da vorgestellt hast sind?? tipp: es ist keine wieauchimmer geartete ki-magie.
mir ist keine vollständig ohne rasterizing arbeitende raytracing-3d-engine bekannt , aber selbst wenn, bräuchte man auch hier eher mehr als weniger rohleistung.
sicherlich haben supersampling und raytracing in heutiger form einen großen impact bei 3d-grafik, aber eine komplette veränderung ist das mit sicherheit nicht.
 
Zuletzt bearbeitet: (typos)
  • Gefällt mir
Reaktionen: bogge101, stage, TopKak und 6 andere
Zurück
Oben