News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

Also DLSS4 mit MFG gegen den VRAM-Mangel. Da Software günstiger ist als Hardware dürften auch die letzten 20% der Angestellten bei Nvidia bald Millionäre sein.
Das die 5070 eine 4090 erreicht mag schon sein aber liegt dann vermutlich an nicht mehr wirklich vergleichbaren Optionen. Nativ glaube ich das jetzt mal nicht.
Mal sehen was 5090 und 80 wirklich Leisten, gerade ohne DLSS.
Mit Upscaling hab ich so meine Probleme. Ich bin nicht strikt dagegen aber ist halt auch keine Wunderwaffe. Meiner Meinung nach geht in Bewegung die Bildqualität oft richtig flöten. In Screenshots wird dann immer gezeigt "oh mehr Details mit DLSS X.Y" aber sobald die Kamera sich bewegt geht vieles den Bach runter. Und ich spiele keine Screenshots...
In DCS Verursacht DLSS richtig übles Ghosting. Und genau da würd ich Leistung brauchen weil ich bald ein Pimax Crystal Super befeuern möchte.
Schauen wir mal. Werden eh nicht zu haben sein in den nächsten Monaten.
 
  • Gefällt mir
Reaktionen: Icke-ffm, paulemannsen, Mcr-King und eine weitere Person
Was mir aufgefallen ist, Nvidia nennt natives 4K jetzt "Brute Force Rendering" auf den Folien. Man scheint den Begriff des nativen Spielens auf hohen Auflösungen negativ besetzen zu wollen und das Upscaling das neue "normal" werden zu lassen.

Irgendwie schade, mir hätte es besser gefallen, wenn natives 4K nach wie vor das Maß der Dinge wäre und DLSS eher ein Behelfstool ist, welches bei besonders intensiven Titeln die Frames hin in eine spielbare Dimension bewegt (also z.B. von 23fps hin zu 50fps). Stattdessen will man natives Rendering wohl nun als oldschool abgestempelt haben und von Anfang an voraussetzen, dass Spieler immer ihre Upscaler anschmeißen!

Gut für die Entwickler, denn hier kann man jetzt nachlässiger bei der Optierung sein, heißt schneller Spiele raushauen und gut für Nvidia denn so entkommt man Moore's Gesetz - oder zumindest erkauft man sich massiv Zeit. Aber ob es auch gut für die Spieler ist.....
 
  • Gefällt mir
Reaktionen: Teeschlürfer, GRiZzLY1510, edenjung und 11 andere
MuellermilchNEU schrieb:
Ich verstehe nicht ganz, warum das Lüfterdesign vollständig geändert wurde. Damit sind luftgekühlte mini ITX Systeme quasi unmöglich (Hitzestau). Sehr schade, dass die radiale Umstörmung bei dem zweiten Lüfter eliminiert wurde. :-(
Das wird nicht das einzige verfügbare Lüfterdesign auf dem Markt bleiben.
 
Gsonz schrieb:
Ja, und zwar bei der Rohleistung ohne Fake-Frames.
Die 3090Ti war auch ein Krüppel sondergleichen. Der Verbrauch der 6900XT gegen gerechnet schnitt die 3090Ti katastrophal ab.
 
  • Gefällt mir
Reaktionen: Mcr-King
Stahlseele schrieb:
Für 650€ könnt man schwach werden!
Aber wir wissen alle, dass unter 1000€ da nichts zu machen sein wird.

Ich würde ja sagen 50€ und ein dickes Aktienpaket dann ist der Prügel auch gut bezahlt.
Krass in welcher Welt manche so leben.
 
  • Gefällt mir
Reaktionen: edenjung und Mcr-King
Ich stell mich scheinbar gerade besonders doof an und finde nicht raus wie man einen Beitrag hier durchsuchen kann, daher ->

Weiß man schon auf deutscher Seite wer der Händler sein wird? Oder, wer waren denn in der Vergangenheit die Händler?
 
Wie bereits zuletzt mit DLSS 3 bei Ada Lovelace alias RTX 4000 vollzogen, erhält nur die neue RTX-5000-Serie DLSS 4 mit Multi Frame Generation. Die neue Technologie benötige die 5. Generation Tensor-Cores (KI-Einheiten), so Nvidia.
Ich denke dass die RTX 4000er Serie locker DLSS4 MFG mitmachen könnte aber Nvidia will das nicht unterstützen, sonst würde keiner die neue GPU Gen kaufen.

Hintergrund ist, das das mit DLSS 3 eingeführte Frame Generation nicht mehr nur einen künstlichen Frame zwischen zwei (mit DLSS Super Resolution) gerenderte Bilder einfügt, sondern mehrere: konkret drei.
bestärkt mein Verdacht weiterhin. Da die RTX4000er Serie das schon mit ein Frame erledigen kann, wo wäre das Problem für die RTX4000er Serie, 2 weitere Frames hinzuzufügen? Die Tensor Cores sind ja da. Oder sind die schon zu 100% ausgelastet sobald FG aktiv wird?

Quidproquo77 schrieb:
TAA ist wesentlich besser als alles was man davor hatte.
in welchen Punkt? Bild Qualität? Da ist SSAA sowie FSAA immer noch das beste in Sachen Bildqualität. Auch NVidia's und AMD's eigene MSAA Derivaten, CSAA und EQAA liefern ein weit besseres Bild als TAA. Sind halt leider alle in der Versenkung verschwunden.
cheyennne_hey schrieb:
Das Forum steubt sich noch zu akzeptieren das klassiche rechenleistung immer weniger eine rolle spielt, und wir im zeitalter von KI gehen.

Die Neuen Games per RT/PATH RT wären sowieso nicht möglich flüssig darzustellen ohne KI -> DLSS->FG->MFG

Die neuen GPUS müssen Hohe Leistung im KI bereich bringen.

Das ist was zählt. Klar auch die normale standard leistung sollte ein gewissen level haben aber dennoch.

Das alles ist teil der vergangenheit.

Es zählt nur kann die GPU genug Native FPS liefern damit FG->MFG richtig reinhaut, und performt SIE PER DLSS gut.
also liegt die Zukunft des Gaming in billige Tricks wie künstliche Dummheit, fake Auflösung und fake Frames mit Inputlag, Ghosting, Artefakte und Blur, nur um irgendwie Path Tracing, Lumen, Nanite und die grottige UE5 Engine halbwegs unter Kontrolle zu bringen und spielbar zu machen.
Bonus: Entwickler und Publisher kümmern sich noch weniger bis gar nicht mehr um Optimierung. Einfach das Spiel halbwegs spielbar releasen und beim User reifen lassen durch Performance Patches.
habla2k schrieb:
Mal ne ernstgemeinte Frage an dich und andere die von 4090 auf 5090 wechseln: Habt ihr aktuell Situationen wo die 4090 nicht mehr reicht? Nutzt ihr so hohe Auflösungen oder braucht sehr viele FPS, die die 4090 nicht mehr liefert?
Ich werde zwar nicht wechseln aber:
kleines Situationsbeispiel: Ich mit 4090, spiele The Ascent auf max, 1440p + RT + Reshade, konstant 144fps, aber renn in den Club rein, fps brechen von 144 auf 48fps ein (NUR im Club).

größere Beispiele: Skyrim + 2500 Grafik Mods + fake RT Shader = 58fps
modded Minecraft + Shader + RT = unter 30fps mit ner 4090
modded Cyberpunk mit Path tracing = unter 30fps
Axxid schrieb:
Weckt mich wenn es etwas interessantes für 400€ gibt…
Irgendwann zwischen 2028 und 2030 könntest du vielleicht noch eine RTX4080 gebraucht für 400€ bekommen.
Die Zeiten von 400€ Mid Range GPUs ist leider schon lange vorbei.
t3chn0 schrieb:
Das bessere Equipment hat einfach mehr Vorteile.

Glasfaser hat einen besseren Ping als VDSL. Wäre dies auch cheaten?
Ich würde lachen wenn Valve plötzlich ne Ansage macht wie: "Reflex 2 wird als cheat gekennzeichnet und somit unterbunden und wer Glasfaser nutzt wird gar nicht erst auf den Server joinen können." XD
Ich mein, den Anfang hat Valve mit Razer's Huntsman Keyboard schon gemacht indem man den Snap tap verboten hat.
Bin gespannt wie Valve reagiert auf die Bloody V7M Maus mit Auto Cursor Repositioning, dass Recoil und Verziehen auf beinahe 0 reduziert. Oder das Steel Series Sonar Headset wo man die Gegnerschritte faßt von ihren Spawn hören kann. Oder der kommende MSI Monitor, der bei der CES vorgestellt wurde, dass eine KI, in jedem Spiel die Minimap kontinuierlich abscannt und dem Spieler optische und akkustische Warnisgnale über wahrscheinliche Positionen vom Gegner gibt, also ein halber Wallhack. Bin gespannt wie Valve und andere Entwickler von Competitive Games da reagieren werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: paulemannsen, edenjung, muvmend und 3 andere
Czk666 schrieb:
Sie haben immerhin Balken gezeigt mit über 200fps, wo anscheinend die 12 kein Problem darstellen.
Je nach Spiel ist das durchaus möglich, aber es gibt ja jetzt schon ne Menge bei denen selbst 16 GB langsam knapp werden und 12 definitiv zu wenig sind. Das wird Nvidia jetzt nicht magisch gelöst bekommen.
Vielleicht hast du dann im Schnitt brauchbare FPS dank Frame Generation aber das Spiel ruckelt halt hart sobald Texturen nachgeladen werden.
 
  • Gefällt mir
Reaktionen: paulemannsen und Mcr-King
Wenn die RTX 5070 eine Leistung von ner RTX 4090 besitzt, warum sehen wir dann auf ebay, dass Verkäufer noch weit aus mehr als 1300 euro für ne 4090 verlangen?


Dann setzt auch 500 Euro für ne gebrauchte 4090 an. Ich würde dann zuschlagen. :daumen: :lol:

Ich hab mir die Keynote gerade angeguckt und mich köstlich amüsiert, vorallem der Chat war lustig. " Jensen Huangs Lederjacke hat Raytracing " etc.

Sympathisch ist der Jensen ja, auch wenn er lügt wie nen grüner Kobold. Maximal Verwirrung stiften im Endeffekt sind dann wieder +20 bis 30% Leistung ohne Raytracing DLSS Cyberpunk Utopie, wer zockt Cyberpunk eigentlich noch das Game ist ausgelutscht.


Natürlich ist die Technik trotzdem sehr beeindruckend und auch das kleine PCB mit dem Chip. 92 Billionen Transistoren auf so nem kleinen Ding und jeder Transistor macht 1 und 0 in Schaltungen in 0.0001 Sekunden oder wat weiß ich, das begreift man als Leihe nur noch schwer. ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kadett_Pirx
Sefer schrieb:
Weiß man schon auf deutscher Seite wer der Händler sein wird? Oder, wer waren denn in der Vergangenheit die Händler?
"Alle" die irgendwie PC-Komponenten verkaufen. Da macht das auflisten keinen Sinn.
 
5070 zu 4070: +20-30 % Leistung (RT On) bei +20 % mehr Verbrauch, VRam bleibt gleich und einen Vergleich der Leistung für RT Off gibt es keinen, wird also da eher noch weniger sein.

Ich lasse meine Arme mal noch unten.
 
  • Gefällt mir
Reaktionen: Icke-ffm, danyundsahne und Kadett_Pirx
Tornavida schrieb:
Aber prinzipiell soll sich der Inputlag mit MFG nicht erhöhen wenn ich dieses Bild richtig interpretiere.

Anhang anzeigen 1566323
Bei dem Bild fehlt doch die Info, wo Reflex (2) aktiv ist und wo nicht.
Letztlich zeigt das Bild genau, was mein Problem damit ist. Die simulierten FPS bringen keine Verbesserung beim Inputlag und nur, damit die FPS Zahl größer ist, braucht man das Feature nicht. Vor allem nicht, wenn man dann mit Artefaktbildung oder Fehlinterpretation leben muß.
Bereits die 71FPS von dem Upsampling sind ausreichend um (für das gemächliche Cyberpunk) eine flüssige Bewegung darzustellen. Man hat im Gegensatz zum Upsampling, Reflex und Ray Reconstruction keinen relevanten Vorteil durch die Fake Frames, was das Spiel wirklich schneller macht oder mir eine bessere Bildqualität bringt.
Ich habe das FG bei der 4090 bei Cyberpunk probiert und da gab es spürbare Artefakt und interpretationsfehler (Räder bei Fahrzeugen waren ganz extrem) und das Spiel hat sich nicht flüssiger angefühlt als ohne FG. Ich bezweifel, dass das neue FG mit mehr Frames, da etwas besser macht.
 
  • Gefällt mir
Reaktionen: paulemannsen und mazO!
Joshua2go schrieb:
Also nur ein paar Pseudoframes/s mehr und kaum mehr Rohleistung? Dafür noch wesentlich höherer Stromverbrauch? Da ich nur ohne den Bildverschlechterer DLSS spiele, ist die 5090 für mich mehr als enttäuschend. :kotz:
Absolut richtig. Es gibt einen Grund, warum etwas gezeigt oder NICHT gezeigt wird. Nämlich die direkten Vergleiche in der Mehrleistung der Rasterung mit den Vorgängergenerationen. Dazu gab es keine Balkendiagramme oder ähnliches. Und die eher moderaten Preise hat Nvidia sicher nicht aus Nächstenliebe so angesetzt, sondern wahrscheinlich, weil außer der 5090 alle anderen Karten eine nicht erwähnenswerte Mehrleistung gegenüber der 4000er Generation und in Relation zur gestiegenen Leistungsaufnahme mitbringen.

Ich hatte es ja schon mal geschrieben- die neue Gen (außer der 5090) macht den Eindruck, dass es sich im Grunde um eine stark übertaktete 4000er Generation handelt, mit deutlich erhöhtem Stromverbrauch.

Wie auch immer- weder die 5080 mit den abysmal-en 16 GB Vram, noch die 5090 (wegen dem Verbrauch und dem Preis) kommen für mich in Frage und die Karten darunter ebenfalls. Mal sehen, ob es in ca. 1 Jahr eine 5080 Super/Ti mit mehr Vram geben wird, sie könnte evtl. interessant werden. Wenn nicht, kann ich die Blackwell gen auch gerne überspringen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Joshua2go, edenjung, Obvision und 2 andere
KurzGedacht schrieb:
Je nach Spiel ist das durchaus möglich, aber es gibt ja jetzt schon ne Menge bei denen selbst 16 GB langsam knapp werden und 12 definitiv zu wenig sind. Das wird Nvidia jetzt nicht magisch gelöst bekommen.
Vielleicht hast du dann im Schnitt brauchbare FPS dank Frame Generation aber das Spiel ruckelt halt hart sobald Texturen nachgeladen werden.

Sie haben auch den vram Bedarf gesenkt:


Aber ja mal sehen was da am Ende die Tests ergeben.
 
  • Gefällt mir
Reaktionen: Pro_Bro und A.Xander
Die Diskussion über Wechsel auf 5090 hat sich erstmal erledigt. Die MSI ist nochmal 2cm länger als der Vorgänger: 35.9cm. Die passt nicht mehr ins Gehäuse...
 
  • Gefällt mir
Reaktionen: Mcr-King
@Beatmaster A.C.
Deine Beispiele wirken ein bisschen wie die Suche nach einer Konstellation um die 4090 zu "brechen". Und ehrlich gesagt, glaube ich nicht, dass die 5090 das dann alles plötzlich flüssig machen würde. 😅
 
Czk666 schrieb:
Sie haben auch den vram Bedarf gesenkt:
In einigen Spezialfällen. Dass das generell überall funktioniert glaube ich erst, wenn ich es sehe.

IMO ist die 5090 die einzig interessante Karte. Ich geb doch in 2025 keine >1000 Euro mehr für 16 GB VRam aus.
 
  • Gefällt mir
Reaktionen: edenjung
bogge101 schrieb:
Wenn man so spielen möchte, mag das vielleicht stimmen, bisher sah DLSS 3 jedenfalls oft nicht gut aus (bei mir).
ich finde das dlss schon einen effekt bei kantenglätung hat, wobei man eigentlich von dlaa sprechen müsste; denn am meisten bemerke ich das beim ansonsten üblichen kantenflimmern.
ansonsten muss man vielerorts in die standbilder hineinzoomen um qualitätsunterschiede wirklich auszumachen...(natürlich nur sofern dlss/fst/xyz halbwegs vernünftig integriert wurden, ansonsten sieht man artefakte auch so sofort)

Pisaro schrieb:
Das finde ich für eine große IT Community wie CB auch seeeehr bedenklich.
manche können das offenbar so garnicht einordnen und man merkt fast schon dass das dranklatschen von "ai" an alles mögliche früchte trägt - rasterizing wird als lästige vergangenheit angesehen und als das notwendige übel damit "ai" was zum verarbeiten hat, damit hinten auf wundersame weise fps rauskommen...
sicherlich hat ki eine relevenaz und wird vieles verändern, und ja, dlss/fsr und konsorten haben auch gutes gebracht, aber dass leute dann so blind und gutgläubig sind und einfach marketing narrative übernehmen ist dann schon erschreckend.
das man sich an propriätere lösungen einzelner hersteller bindet? ach was, halb so wild...
monopolartige marktstellung? passt schon...
 
  • Gefällt mir
Reaktionen: Pisaro, edenjung und Flutefox
Bierliebhaber schrieb:
CUDA ist dann so immer eines der letzten Argumente, wenn man sonst nichts hat, obwohl es Gaming-GPUs sind...
Erst stellst du in Frage welcher Gamer das braucht, dann antwortet man das werden nicht nur Gamer kaufen und jetzt passt dir das auch wieder nicht ? Klar mag das eine "Gaming GPU" sein, aber man kann sie hervorragend auch für andere Tasks einsetzen.

2369€ sind ein verdammtes Schnäppchen gemessen an einer RTX 5000 Ada mit 32GB für 4-5000€ und der halben Rohleistung mit 65 TFLOP. Und genau darum wird es sicher einen Haufen Menschen geben die ohne mit der Wimper zu zucken am Launchday fett Asche dafür hinlegen werden.

Bierliebhaber schrieb:
Gibt es eigentlich nur ein einziges Hobby, Grafikkarten? Woher weißt du, was ich sonst für Hobbys habe? Wenn du wüsstest, was ich für Hifi ausgebe...
Nö. Kann doch jeder selber mit seinem Geld machen was er will. Wat juckt mich das ? Ich bin auch für HiFi zu haben aber würde hier auch nicht endlos Geld reinsenken. Eben nur so weit es mir das eben wert ist.

Aber eine GPU für 2000 zu kaufen und für 1200 zu verkaufen ist halt einfach nochmal was Anderes als eine HiFi Box für 20k zu holen und dann nach drei Jahren für 10000 zu verkaufen. Selbes Game mit Autos.

PC ist vergleichsweise günstig obwohls relativ schnell altert.

Bierliebhaber schrieb:
Und warum muss das maximal Mögliche sich ausschließlich auf die Leistung beziehen?
Hä ? Worauf denn sonst ? Den Klang der Spulen ?

Bierliebhaber schrieb:
Ich kaufe lieber das, was bestmöglich zu mir passt. Ich merke z.B. schon, wie die 200W meiner 6700XT den Raum aufheizen, im Sommer ist mir das schon zu viel.
Muss jeder für sich selbst abschätzen. Ich hätte auch mit 1kW kein Problem. Stell ich den Radiator halt im Sommer auf den Balkon, Bude wird über Wandkanäle gekühlt. I could not care less.

Jeder sieht das eben anders.

Bierliebhaber schrieb:
Eine Grafikkarte die fast dreimal so viel verbraucht würde mein Spieleerlebnis ganz erheblich verschlechtern. Deshalb gucke ich, was in meinem Preisbereich am besten zu dem passt, was ich mir wünsche. Aktuell wäre das wahrscheinlich eine 4070ti Super, aber da die mir deutlich zu teuer ist hoffe ich darauf, dass eine 9070XT ein gutes Update wird.
Und das ist ja auch völlig legit. Abhängig von Auflösung und Game dürfte das für 90% aller Spiele auf Steam ohnehin schon Overkill sein.

Bierliebhaber schrieb:
Wo habe ich das behauptet?
Ich habe nur geschrieben, dass ich die zu erwartende Performance angesichts des exorbitanten Verbrauchs enttäuschend finde. Wieviele Shader da unter der Haube stecken ist mir absolut Latte, das hast du ins Spiel gebracht.
Es spielt nunmal eine Rolle wieviele Shader unter der Haube sind, denn das ist maßgeblich für die zu erwartende Rohleistung. Die steigt ca. ~40-50% an, dafür frisst sie 28% mehr Saft = 10-20% effizienter als die 4090. Und es hindert einen niemand daran die GPU jetzt auf 200W zu begrenzen wenn man nicht jedes letzte % Leistung braucht.

Eine größere GPU mit niedrigerem Powerlimit wird immer schneller laufen als eine kleinere GPU mit höherem Powerlimit.

Bierliebhaber schrieb:
Wie kommst du darauf, dass AMD keine Mehrleistung bringen dürfte? Die Rasterleistung einer 7900XT und deutlich mehr RT-Leistung für deutlich weniger Geld ist doch erheblich mehr Mehrleistung.
Rasterleistung eher auf 7900GRE Niveau, darum ist die ja auch aus dem Regal verschwunden. Und wenn du das feierst bei AMD, dann müssten 30% Mehrleistung bei einer 5090 ja geradezu gigantisch gut sein. Aber DAS ist dann eine Gurke OBWOHL sie effizienter dabei wurde und alles andere schlägt. Hä ?

Bierliebhaber schrieb:
Puh, aber genau das war doch bei nVidia noch viel drastischer? Die waren schlechter verfügbar UND gleichzeitig war der Preisaufschlag höher.
Das hat sich massiv unterschieden von Land zu Land und Monat zu Monat. Ich hab relativ früh geshoppt weil ich Turing ausgelassen habe und mit einer 1080 Ti stand CP2077 und RT nicht zur Debatte. Ich hab damals für meine 3080 um die 900 Ocken gezahlt, was viel war aber immerhin eine EVGA FTW3 3080 mit 450W BIOS.

Ich wollte ursprünglich eine 6900XT, die sah so verlockend aus, aber wenn sie hier mal verfügbar waren lagen die bei 12-1500 Steinen und das war mir die überschaubare Mehrleistung nicht wert ggü. dem teils deutlich weniger kompletten Featureset.

Bierliebhaber schrieb:
Warum ein Haloprodukt bedeutet, dass gleich die ganze Generation besser ist, musst du mir noch erklären.
Hab ich so nie gesagt. Ich behaupte ja im Gegenteil, dass zB eine 5070 mit dem "4090 Performance"-Versprechen eher für Enttäuschung bei vielen sorgen wird. Keine miese Karte, aber halt auch keine 4090.

Bierliebhaber schrieb:
Man kann auch behaupten, dass McLaren oder so weit über Hyundai oder so steht, weil deren Karren deutlich schneller um den Nürburgring kommen. Trotzdem hat das für die meisten absolut keine Bedeutung.
Wenn die Zielsetzung aber nunmal Performance aufm Ring is, dann ist das maßgeblich. Und bei GPUs zählt maßgeblich welche Leistung sie erbringen und in zweiter Instanz wer am Wenigsten dabei verbrät.

Günstige Karten haben alle auch ihren Platz, ändert aber nix daran welches Produkt "das Beste" aus Performance-Sicht ist.
 
Zurück
Oben