News Nvidia GeForce RTX 4090: Die Founders Edition besitzt 23 Phasen, aber keinen NVLink

madmax2010 schrieb:
Damals war SLI cool, aber man hat halt insgesammt knapp 1000 Euro ausgegeben um 2 High end Grafikkarten zu verbauen. Das 600w Netzteil noch nicht mit eingerechnet.. Das war einfach zu teuer.. Oh wait..
Ich hätte mir schon 2020 zwei 2080Ti und 2022 dann zwei 3090er gekauft, wenn SLI funktionieren würde.

Eine 4090er kommt so gesehen günstiger :D ;)
 
  • Gefällt mir
Reaktionen: Ragnarök88, Coenzym, Coeckchen und eine weitere Person
joel schrieb:
😍Hat doch noch nie richtig funktioniert, dann kann man es doch auch weglassen, oder? (Multigpu)

In Sachen 3D und GPU Rendern war das schon recht interessant und auch zu gebrauchen. Die Leistung zweier GPUs kann ich zwar auch so abrufen, aber per NVLink hatte ich dann auch fast den doppelten VRam zur Verfügung.

Bei 24GB ist das nicht mehr so ganz der limitierende Faktor, aber für komplexe Simulationen kann man nie genug Speicher haben.

Nutze zur Zeit ein dual 3090 Setup, jedoch ohne Link, war mir zu teuer. Aber rein die Option war schön. Nun landet eben noch ne 4090 neben einer der 3090 ☺️ Habe kein Mainboard, welches drei GPUs aufnehmen würde 😔

Soweit ich weiß soll Multi GPU per PCIe möglich sein, was ja eh Bestandteil von DirectX12 ist. 31,5 GByte/s würden da wohl als Linkspeed reichen, wobei ich ja nur auf x8 unterwegs bin, also entsprechend 15,5 GByte/s.

Laphonso schrieb:
Ich hätte mir schon 2020 zwei 2080Ti und 2022 dann zwei 3090er gekauft, wenn SLI funktionieren würde.

So war bei mir der Sprung. Dual 2080Ti dann dual 3090 und nun wird es erst einmal eine 4090 plus "alte" 3090. Wie gesagt, hauptsächlich für das GPU basierte Rendern, beim Spielen einfach zu stromhungrig und kaum mehr Leistung.

Ich hatte mal dual 3dfx Voodoo 2 im SLI per externem Kabel 😍
 
  • Gefällt mir
Reaktionen: Beitrag
SavageSkull schrieb:
Ich fürchte der Hype trifft nur bei Raytracing + DLSS 3.0 ein und bei normalen Rasterizer Spielen wird es eine eher überschaubar aber erwartbarer Sprung entsprechend den zusätzlichen Shaderprozessoren + Takt werden.

Denke ich auch. Im Rasterizing wissen wir dank Leaks ja auch ziemlich genau schon, was uns erwartet, nämlich +/- 60% Steigerung gegenüber RTX 3090(Ti). Das ist für eine Generation finde ich schon ein beachtlicher und sehr ordentlicher Sprung.

Die Musik spielt allerdings in der Tat bei RTX+DLSS 3.0. Nur für Rasterizing bräuchte ich mir keine RTX 4090 kaufen. Da könnte ich auch bei meiner RTX 3090 bleiben.
Die (maximal) handvoll Spiele, in denen man in Rasterizing ohne Ray-Tracing in 4K eine RTX 3090 wirklich klein kriegt, würden für mich das Aufrüsten nicht rechtfertigen.

In 99,x% aller Rasterizing-Only-Spiele bekommt man mit jeder HighEnd Grafikkarte spielbare fps. Das Thema ist langweilig. Die RTX 4090 ist die Karte für 'RTX ON' Spiele, vor allem auch für kommende Titel mit Unreal 5 Engine + RT usw.
 
  • Gefällt mir
Reaktionen: AntiPriester
borizb schrieb:
Das schon gesehen?

Genau das Video meinte ich. Laut DF hatten sie Schwierigkeiten, überhaupt etwas an Problemen bei DLSS3 darzustellen, weil es im Spiel so sauber läuft und sie handpicked Szenen künstlich stoppen und illustrieren müssen, um überhaupt etwas zu finden.

Die Angst der Nvidia Hater ist vielleicht dieses Mal mehr begründet als zu DLSS 1, falls, FALLS die OFA DLSS Benchmarks die komplette RDNA3 Flotte zerschreddern und diese trotz/inklusive FSR Rettungsanker (in DLSS 3 Games) untergeht.

Es sei denn AMD zaubert noch und RDNA 3 bringt 200% zusätzliche raw Raytracing Power mit gegenüber RDNA2.

Nützt aber z.B. im MS Flugsimulator dann aber nichts mehr, wenn DLSS3 die Frames da mal eben ohne Ratyracing verdoppelt...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ragnarök88, Humbertus, borizb und eine weitere Person
iWeaPonZ schrieb:
Teilweise sind die Bilder die damit berechnet werden richtig „krüppelig“.

Also...ich verstehe ja wenn man gerne auf die wahre Rasterperformance schaut, aber die Tech ist schon enorm. Was bringt es mir in einem Video Pause zu machen und nach unterschieden mit der Lupe zu suchen, die du während des spielens mit höchster Wahrscheinlichkeit nicht raussehen wirst.

Wenn ich kann, lass ich DLSS meist auch aus weil ich nicht dran denke oder in dem Augenblick nicht brauchte, außer es sieht besser aus (auch das gibt es). Aber sobald es notwendig wird oder einen Benefit bringt, ist DLSS in meinen Augen einfach ein großartiges Feature noch mehr Leistung zu kriegen bei kaum bis gar nicht zu unterscheidenden Bildern. Das ist ja im Grunde so, als ob man per Knopfdruck mal kurz eine Generation oder gar 2 überspringt an Leistung. Wer hier noch die Augen vor zuhält, weiß ich auch nicht... :o
 
  • Gefällt mir
Reaktionen: Ragnarök88, AntiPriester, BVZTIII und 4 andere
Ich Mittwoch 15:00:01: Shut up and Take my Money:evillol:
 
  • Gefällt mir
Reaktionen: Ragnarök88, laxus222, Coenzym und 7 andere
Die FE? Oder doch eine Custom? ^^
 
Insgeheim hoffe ich dass der Launch schleppend verläuft und die Lager nicht gleich leer gefegt werden, damit NVIDIA einfach mal auf die Schnauze fällt mit ihrer Preistreiberei. Ist aber vermutlich wunschdenken…
 
  • Gefällt mir
Reaktionen: LTCMike, AntiPriester, Rawday und 9 andere
Laphonso schrieb:
Die FE? Oder doch eine Custom? ^^
FE für mich. Sieht besser aus, braucht keine Stütze, ist die günstigste Karte und passt als einzige in meinen PC...
 
Laphonso schrieb:
Es sei denn AMD zaubert noch und RDNA 3 bringt 200% zusätzliche raw Raytracing Power mit gegenüber RDNA2.
Sofern ich das Intel Arc Review von DF richtig verstanden habe, ist selbst eine Intel Karte
aus ähnlicher Preisregion mit Raytracing besser als AMD. Ich denke auch, dass die genau
an der Stelle nachlegen werden - und müssen, da ja immer mehr Spiele das unterstützen.

DLSS 3 und auch die Frame Generation sehen zumindest in Spiderman zukunftsweisend
aus. Wäre nur gut, wenn man das nicht für jedes Spiel extra implementieren müsste, weil
dann ginge kein Weg mehr dran vorbei. Vielleicht in einer der folgenden Generationen.
 
  • Gefällt mir
Reaktionen: AntiPriester, Humbertus und Laphonso
Benni1990 schrieb:
Ich Mittwoch 15:00:01: Shut up and Take my Money:evillol:
DITO !

Optisch die FE, aber ich bleibe bei ASUS da sonst KEIN ANDERER HERSTELLER 2x HDMI 2.1 verbaut, und ich weder Aktive Adapter noch Umstecken von HDMI Kabeln für zwei OLED's hinnehme.

Gut das Ich sowieso ein kleiner Asus Fanboy bin.
 
  • Gefällt mir
Reaktionen: Laphonso
Beides würd ich mal sagen ;) Oder hast du keinen Rechner für den Heiligen Sonntag :D
 
  • Gefällt mir
Reaktionen: Sherman789
aeri0r schrieb:
Also...ich verstehe ja wenn man gerne auf die wahre Rasterperformance schaut, aber die Tech ist schon enorm. Was bringt es mir in einem Video Pause zu machen und nach unterschieden mit der Lupe zu suchen, die du während des spielens mit höchster Wahrscheinlichkeit nicht raussehen wirst.
Daher bin ich sehr gespannt ob die objektiven Computerbase Tests, und ob die genau das bestätigen oder einschränken, was das DF Team berichtet hat zur Frame Generation.
Die "Nvidia Exklusiv" Videos bei DF haben halt auch immer ein.....*.....Sternchen, auch wenn das soweit fachlich plausibel scheint.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ragnarök88 und AntiPriester
Marcel55 schrieb:
Welchen Hype? Mal auf den Preis geguckt? 2000€? Dafür kann ich 4 Monate die Gasrechnung bezahlen
Mit der Karte kannst die nächsten Jahre heizen.
Wer braucht da noch Gas?
 
  • Gefällt mir
Reaktionen: Faultier, Don-DCH, Marcel55 und 3 andere
^Dodo.bW schrieb:
Insgeheim hoffe ich dass der Launch schleppend verläuft und die Lager nicht gleich leer gefegt werden, damit NVIDIA einfach mal auf die Schnauze fällt mit ihrer Preistreiberei. Ist aber vermutlich wunschdenken…
Würd’ ich auch hoffen. Aber viele haben gewartet, eine volles Sparschwein und sind richtig geil auf die 4090. Ich erwarte einen Ausverkauf in Minuten. Die 4080er will hingegen kein Mensch - bei denen kann man auf gute Preise hoffen.
 
  • Gefällt mir
Reaktionen: AntiPriester
Wo genau lässt sich nun die 4090 FE bestellen? Wieder nur bei NBB? Oder ist das noch nicht bekannt?
 
  • Gefällt mir
Reaktionen: Garack
Wenn ich mal 15 Jahre zurück denke, da gab es das Topmodell für ~500-600 €. Heute 5-mal so teuer, 600 W und mit 24 GB VRAM. Die machen die ganze Sache auch nur teuer, braucht doch kein normaler Gamer.
 
Zurück
Oben