News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

Spawn182 schrieb:
1400 war doch vor einigen Monaten schon mal normal, dann kam wieder der Sprung auf die 1700 EUR und wer in Panik nun verkauft ist selber Schuld. Erst mal die Tests abwarten und 24GB VRam bleiben 24GB VRam, da hilft auch keine gleich schnelle 5080.

Danke, dass Du aussprichst, was ich denke.

Ich glaube, in ein paar Monaten bekommen wir die 4090 nachgeschmissen, weil so viele davon im Umlauf sein werden.
 
msv schrieb:
Cool, da werden ne Menge gebrauchte 4090s auf den Marktplätzen bei Ebay, Kleinanzeigen & Co. landen - perfekt für alle Gebrauchtkäufer wie mich 🤗
Muss man eigentlich machen. So eine 4080 oder 4090 "gebraucht" ist sicher gar nicht so unattraktiv im Vergleich zur 5080 oder 5090. Weil nativ wird das nicht viel sein. Multi FG ist zwar nett, aber wie häufig wird FG denn wirklich genutzt...
Und wenn man eh nur WQHD anstrebt, hätte man mit der 5080 auch ohne Multi FG sicher erstmal für ein paar Jahre Ruhe und bezahlt jetzt 700-800 Euro? :D
 
  • Gefällt mir
Reaktionen: Spawn182 und msv
Da kann ich den Nvidia-Scalper-Link in meiner Signatur austauschen. ;) Die Preise sind doch wieder abartig, zumal eine 5080 die Karte sein müsste, die 24GB, 384 Bit und 15.xxx bis 17.xxx Shader-Einheiten hat.

Ansonsten scheinen die Grafikkarten alle kleiner zu werden, trotz höherer TDP, also eine Referenz-5090 nur 3-Slots dick, die Referenz-5080 nur 2 Slots und auch die Boardpartner-Karten meistens 3 Slots dick. Oder täuschen die Bilder?

Und die Referenzkarten dann mit einem Kabel, welches neben der Lüfteröffung von der Platine bis zur Slotblende verläuft, wo dann eine Platine mit den Ports dran ist. Oder wie wollen die das lösen?

Und das neue Framegen wäre dann ja für Witcher 3 im DX12-Modus echt was.

Mit allem auf Max. schafft Witcher 3 auf einer 4080 gerade mal 50-60FPS in der Regel. Framegen macht daraus so 80 bis 100 etwa. Niedriglatenzmodus ist da eh unveränderlich an, aber das Bewegtbild wird schärfer und es muss ja theretisch beim Inputlag vom Monitor Ersparnisse geben, weil er höhre Frequenz fährt.

Mit dem neuen Framegen von DLSS4 muss das Teil dann auf 150 bis 180 FPS kommen? (Angenommen CDPR patcht entsprechenden Support von DLSS4 ins Spiel.) Ist das technisch möglich, DLSS4 auf die alten Karten zu patchen? (Auch wenn Scalpervidia das nie machen würde.)

Mit der oben genannten 24GB-Karte mit einer Rohleistung zwischen 5090 und 5080 und selbst mit kleineren Karten muss dieses Spiel ja dann in der Theorie die 260Hz meines SDR-Monitors komplett ausreizen.
 
Zuletzt bearbeitet:
Cyberpunk 2077 +RT Overdrive mit DSSL 4+Multiframe auf 5080
 
  • Gefällt mir
Reaktionen: Onyva und DeadMan666
Banger schrieb:
Mit dem neuen Framegen ...

Und ob Nvidia das auch ohne Artefakte hinbekommt? Die treten teilweise auf bisher auf, wenn Tiefenunschärfe und so an ist. Ist mir bei Witcher und Benchmardemo von Wukong aufgefallen. Und gegegentlich hat Witcher auch ein Black Frame.
 
CrustiCroc schrieb:
Es muss wirklich schmerzen.
Langsam wird es langweilig.
Was soll schmerzhaft sein, der Fakt das ein Hersteller vorgibt wie Performance und Bildqualität in Zukunft gemessen wird.

Ich weiß schon wie die RTx6000 aussieht, Samsung Portierung mit exklusiver Software für die RTX6000.

Und AMD wird es mit UDNA nicht anders machen.

Hardware wird in Zukunft für Server optimiert und Gaming die Resteverwertung plus Software Optimierung.
 
Kraeuterbutter schrieb:
ist bissal wie beim Auto: wenn ich da sage: ABS ist fake... man soll gefälligst Bremstests nur mit ausgeschaltetem ABS machen
gut und schön, aber in der praxis werden die meisten doch mit ABS fahren
Was ein sinnloser Vergleich. Wenn du einen sinnvollen Vergleich mit dem Auto machen willst wäre das wie Chiptuning, rein Software basierte Leistungssteigerung ohne dass an der Hardware was geändert wird, wenn du dann Pech hast fliegt dir der Motor um die Ohren weil die Hardware für die Leistung eben nicht ausgelegt war. Im gleichen Fall hier wird die 5080 ein Rohrkrepierer weil entweder der geringe Vram in zukünftigen Spielen limitiert was dein fancy DLSS4 nicht ändern wird oder weil du Spiele hast wo das ganze nicht implementiert wurde.

Zumal drei falsche Frames auf einen echten Frame eine Latenzsteigerung von 300% im Gegensatz zu echten Hardware basierten Frames bedeuten. Es kommt also alles auf Reflex 2 an und oh wunder siehe da, die Technologie kommt erst "später". Wenn Reflex 2 kein Wunder vollbringt und generierten Frames Echtframe Latenz verpasst, wird und bleibt es ein inferior Gimmick gegenüber Hardwarerender und ist praktisch absolut nutzlos für deine 5000er "Leistungssteigerung"
 
  • Gefällt mir
Reaktionen: Celinna und HiSpange
frames p. joule schrieb:
Du musst das Kind doch nicht gleich mit dem Bade ausschütten. Bis eine APU deine 6800 erreicht vergehen noch locker 10 Jahre.
Geht die ps5 pro nicht fast schon dahin... wäre doch gelacht wenn die ps6 das nicht schaffen würde. 😉
 
Woody17 schrieb:
Es geht schon los, 4090D für 1200€ und 4090 ab 1400€ Sofortkauf auf Ebay :schluck:
Warum das jetzt schon los geht ist ja eher die Frage. Man bekommt vor Februar oder gar März sowieso keine Karte. Scheinbar war es nicht wichtig eine 4090 zu besitzen. Ich kann die 4090 auch noch verkaufen wenn ich das Folgemodell haben. Auf paar mark kommts da nicht an.
 
  • Gefällt mir
Reaktionen: Celinna und Kraeuterbutter
paganini schrieb:
Starke Vorstellung NVIDIA! Jetzt Tests abwarten aber Preise sind schon gut. Was wurde am Anfang nicht alles geschrieben mit 1700€ für eine 5080 etc.
Abwarten! UVP hat nichts, garnichts mit den Straßenpeisen zu tun, soviel habe ich die letzten Jahre gelernt. Ein 12GB-16gb GPU für 200-300€ sucht man vermutlich dennoch vergebelich.
 
Lexx889 schrieb:
Kurze Frage: ich hab vor einigen Monaten mein System zusammengebaut und eine RTX 4070 Ti Super um ca. 850€ gekauft. Denkt ihr die RTX 5070 Ti wird spürbar besser sein als meine 4070 Ti Super? Abgesehen davon, dass ich nicht davon ausgehe, dass die angegebenen Preise zum Launch der Wahrheit entsprechen, frage ich mich ob ich besser hätte warten sollen?
Zum einen hast du die Karte ja jetzt schon gekauft also wäre es ja in jeder Hinsicht sowieso jetzt zu spät, zum anderen glaube ich dass die 5070 TI maximal 10-15% schneller wird wenn man die reine Hardware Performance betrachtet und nicht mit softwarebasierten falschen Frames daherkommt.
 
1200 Euro mit 16GB Speicher. Nvidia auf Apples Spuren. 😎😂
 
  • Gefällt mir
Reaktionen: Sennox, Rockbreak und Moritz Velten
@tm891 Irgendwie kam mir das auch in den Sinn.

Entweder, weil es jeder haben möchte oder weil man für den Namen auch noch bezahlt.
 
  • Gefällt mir
Reaktionen: tm891
CMozzarella schrieb:
Ohne unabhängige Benchmarks traue ich dem Braten nicht.
Freue mich auch schon auf die Tests von CB, HWUB und Nexus. :evillol:

Am ende wird rauskommen das alles in wikrlichkeit gut auf Kante genäht wurde un NV nichts verschenkt. Gaming GPUs gibts nur dank AI und Workstations. Und bei einem Marktanteil von 95, 90%... sein wir eurlich, bei dieser Gelddruckmaschien wurde niemand etwas verschenken.

Ich hoffe daher auf AMD. Insbesondere nachtem Arc bei Upgrades derart schlecht performen soll.

Schon das mit 3ms bei Valorant oder auch 4x Scaler Performance geworben wird, sollte jeden klar denken Menschen zu denken geben. Am Ende wird NV nicht überragend, gut, und sehr teuer, nicht umsonst sein. So wie praktisch immer seit der 10er Serie. Aber Wunder gibt es ja immer wieder. Aber ohne richtigen Wettbewerb will ich halt auch nicht dran glauben. Und wie schon angemerkt, die Kohle wird mit AI nicht mit Gaming verdient.
 
  • Gefällt mir
Reaktionen: Sennox
Eine Sache muss man NVIDIA aber lassen, die Tensor und Raytracing Recheneinheiten haben sich von der 4000er zur 5000er Serie verdoppelt, teilweise verdreifacht. Das dürfte der Berechnung bei künstlicher Intelligenz einen deutlichen Schub geben.
HerrRossi schrieb:
Aber es ist schon krass, wenn man 2 Jahre lang jedes Wochenende nur 50 EUR für Freizeitvergnügen ausgibt, bekommt man schon 2x 5090. Und 50 EUR am WE ist echt nix.
Du wirst es nicht glauben, aber es gibt Leute, für die sind 50 Euro noch viel Geld.
stefan92x schrieb:
DLSS und sonstiges nur, wenn es vernünftig implementiert wurde.
Das stimmt. So wie NVIDIA es forciert und AMD mitziehen muss, werden neuere Spiele jedoch bald zum Großteil mit Upscaling Technologien daherkommen. Rasterizing ist ein schöner Benchmark, der aber mit jeder Generation an Bedeutung verliert.
Axonteer schrieb:
2k für die 5090 also dann eher 3k in der Schweiz, irgendwie bin ich gerade froh über meine 4090 :D
Bist du dir sicher? Soweit ich mich erinnern kann, sind die Hardwarepreise in CH gar nicht so unverschämt, dafür dass die Schweizer doch ein gutes Stück mehr verdienen.
Moritz Velten schrieb:
Ich glaube, in ein paar Monaten bekommen wir die 4090 nachgeschmissen, weil so viele davon im Umlauf sein werden.
Das halte ich für schwierig. Die 4090 ist nach wie vor grundsolide und alle, denen MFG nicht zusagt, haben damit die vermutlich nach wie vor zweitschnellste Karte.
Nicht zuletzt kann man 4090 wunderbar für AI Berechnungen nehmen. Ich gehe mal davon aus, dass Käufer nur darauf warten, sie zu einem gewissen Preis aufzukaufen und direkt nach China zu senden.
 
Fighter1993 schrieb:
Liegt dann ja wahrscheinlich dran das die Grund FPS schon hoch genug sind oder?
Korrekt. Ich habe z. B. Spider-Man Miles Morales mit FG gespielt. Mit allem auf max. bei 4K ohne DLSS ging gas hier und da schon unter die 50 FPS. Mit FG waren es dann eher Richtung 100. Das Bild wirkte tatsächlich so flüssig wie mit 100 FPS. Grafikfehler konnte ich keine ausmachen, auch die nicht, die im CB Test zum Spiel gezeigt wurden. Vermutlich wurden die mit einem Update gefixt, ich hatte das Game erst deutlich später gespielt. Der Input-Lag passte allerdings nicht zum flüssigen Bild und war jederzeit spürbar, auch mit Gamepad. Für Tastatur und Maus auf jeden Fall zu viel, fürs Gamepad hatte es mir persönlich gerade noch so gereicht.
 
lynx007 schrieb:
Ich hoffe daher auf AMD
Nach der CES Aktion wo sie klar aufgezeigt haben dass sie so wenig vertrauen in ihre eigenen Gpus haben dass sie lieber einen Typen von Microsoft 5 Minuten darüber reden lassen wie dieser Spiele für ihre Cpus optimiert als auch nur eine Sekunde über ihre Gpus zu reden, hoffst du tatsächlich noch auf AMD? Also ich ja nicht. Und meine Erwartungen waren durch die Informationen die ich von Leaks habe schon niedrig.
 
  • Gefällt mir
Reaktionen: Cratter13
Wie die Leute die Preise rechtfertigen und loben... Habt ihr schon vergessen, was eine 3080 damals zu Release gekostet hat? Ich mache den Spaß nicht mit und halte die aktuelle Entwicklung für sehr bedenklich. Ich gönne jedem ein gutes Einkommen und die Wahl, mit dem Geld machen zu können, wonach beliebt. Was man aber wissen muss: Indem man solche Preise unterstützt, zerstört man für viele Leute mit geringerem Einkommen die Möglichkeit komplett, im PC-Bereich "Fuß zu fassen". Eine 5080 ist realistisch betrachtet eine absolute Frechheit, 256Bit Speicherinterfache für über 1000€????? Weiterhin ein stark beschnittener Chip im Vergleich zu dem Top-Modell, hier stimmt das P/L-Verhältnis überhaupt nicht mehr. Raytracing bleibt für mich auch weiterhin ein Meme, einfach weil die Leistung weiterhin nicht vorhanden ist dafür und die Entwickler immer fauler werden. Ich würde jederzeit 120Fps bevorzugen.

LG
Micha

PS: An der neuen AMD-Generation besteht meinerseits ebenso kein Interesse. Aber ich habe die Radeon 5000-Generation bzw. RDNA1 sehr gut in Erinnerung als "Mittelklasse-Only".
 
  • Gefällt mir
Reaktionen: Celinna, mirakulix, GRiZzLY1510 und 9 andere
Zurück
Oben