News GeForce RTX 4090: Erste Custom-Designs sind für 1.999 bis 2.549 Euro im Handel

Laphonso schrieb:
Genau DAS ist der Irrtum und macht DLSS3 zum potenziellen (nicht tilten, ich schreibe extra potenziell!) RDNA3 Versenktorpedo, bei dem ich sehr gespannt bin, wie AMD darauf reagiert.

DLSS 3 kann sogar CPU Limitierungen sprengen, die wir bisher in alter Technologie hatten. Das wird ultraspannend. Sofern das nicht nur "Marketing" ist, sonden objektiv messbar.
Jap. Ich finde die Technologie auch sehr interessant! Mir ist es egal ob ein Frame mathematisch korrekt errechnet oder von einem "KI" Algorhytmus "erdacht" wurde. Wichtig ist, was am Ende dabei raus kommt. Bisher sieht es jeden Falls sehr gut aus. In wenigen Situationen entstehen kleinere Bildfehler, diese fallen aber im bewegten Bild quasi nicht auf. Dafür dass alles drum herum flüssiger läuft? Kann ich in kauf nehmen. Zu mal es auch potenzial bietet Strom zu sparen, so doof das bei einer 450W Karte vielleicht auch klingt. Aber ich denke effizienz technisch ist da einiges zu holen, wie auch schon bei einer 3090Ti (Nur jetzt eben zusätzlich mit DLSS 3.

Es gibt ja bereits ein sehr gutes Video von DF dazu:


Jetzt fehlen halt nur noch mehr Tests ohne Embargo. Am Ende wird das aber für alle TesterInnen spannend, weil wie will man an die Sache rangehen?
 
  • Gefällt mir
Reaktionen: Laphonso
.Sentinel. schrieb:
DLSS3 macht halt 60FPS draus.
Laphonso schrieb:
Genau DAS ist der Irrtum und macht DLSS3 zum potenziellen (nicht tilten, ich schreibe extra potenziell!) RDNA3 Versenktorpedo, bei dem ich sehr gespannt bin, wie AMD darauf reagiert.

DLSS 3 kann sogar CPU Limitierungen sprengen, die wir bisher in alter Technologie hatten.

DLSS kann zwar die Framerate verdoppeln, wenn die CPU am Limit ist, dann bleiben die Ruckler der niedrigen Frameraten trotzdem bestehen, ich wüsste nicht, wie diese Zwischenbildberechnung das umgehen soll.

Und DLSS (nicht nur 3) hat ja bereits einige Nachteile, vor allem der von nvidia genutzte Performancemode ist auf einer 2000€ GPU doch komplett realitätsfern. Dann noch die Verbreitung des Features, 35 Games angekündigt, wovon viele Spiele auch noch komplett irrelevant sind - der Torpedo ist wohl im Rohr hochgegangen.

Aber das sind nur die Informationen, die ich bisher gelesen habe, mal schauen wie es in der Praxis aussieht.
Ergänzung ()

Schokolade schrieb:
Es gibt ja bereits ein sehr gutes Video von DF dazu

Als Spider-Man das Gebäude hochläuft sieht man aber schon sehr deutlich Artefakte/Blur im Bewegungsbereich und das ist nur ein YT-Video... Timestamp 23:47
 
Zunächst einmal scheint die RTX 4090 ein interessantes Stück Hardware zu sein, gerade in Kombination mit dem neuen DLSS3. Von der "4080 12GB" rede ich jetzt lieber nicht, aber zumindest der Preis der 4090 ist noch angemessen, wenn die versprochene Leistung auch geliefert wird. Für den derzeit sehr schlechten Eurokurs kann man Nvidia nicht verantwortlich machen.

Als Besitzer einer RTX 3090 sollte ich eigentlich zum potentiellen Käuferkreis einer 4090 gehören, dieses Mal werde ich aber verzichten. Der enorme Energiehunger ist natürlich auch ein Argument gegen die neuen Karten, ich finde den Verbrauch meiner 3090 schon mindestens "grenzwertig". Hauptgrund für mich ist aber, dass ich die enorme Leistung einfach nicht benötige. Ich zocke in WQHD mit 144 Hz und dafür ist schon meine jetzige Karte mehr als nur ausreichend. Hinzu kommt: Es erscheinen kaum noch Games, für die man Highend-Karten wirklich benötigt. Für die meisten Konsolenports genügt auch eine Midrange-Karte.

Ich gönne jedem Enthusiasten seine ultraschnelle RTX 4090, wenn er sie sich leisten kann und will. Ich könnte auch, möchte aber nicht mehr...
 
  • Gefällt mir
Reaktionen: Swiffer25, Laphonso und DDM_Reaper20
RogueSix schrieb:
Das ist eine ganz klare Sache. Die "kleine" RTX 4080 bildet ab $899 die Untergrenze des Premiumsegments, die RTX 4080 mit 16GB die Mitte und die RTX 4090 rundet das Premiumsegment nach oben hin ab.
Dieses "Untergrenze des Premiumsegments" betrifft aber nur die Preisklasse, nicht die Hardware (-Performance).
Schaut man sich mal das abspecken der 4080-12GB gegenüber der 4090 mal genauer an, basierend auf bisherigen Nvidia Karten, dann ist die "Untergrenze des Premiumsegments" 4080-12GB mit Glück eigentlich nur eine 4060ti, was bestenfalls als oberes Mittelfeld tituliert werden kann.

Siehe: https://www.reddit.com/r/pcmasterrace/comments/xk2nsf/comment/ipbt3d3/

Auch lässt das erahnen, wie riesig die Performancelücken im gesamten Lineup sein dürfte, dass Nvidia langfristig auf die Ampere Karten setzen könnte (die Lager sind ja "ausreichend gut gefüllt") um diese Lücken zu stopfen, vor allem im unterem Leistungssegment, welches trotz der im Vergleichsweise zur 4090 besonders schwachen Hardware hochpreisig sein dürfte und dass Nvidia gerade bei den schwächeren Karten auf Gedeih und Verderb auf DLSS 3 angewiesen sein dürfte, um sich von den Amperekarten abzugrenzen (wehe wenn die favorisierten Spiele kein DLSS 3, generell kein DLSS unterstützen, oder gar nicht nicht mal FSR von AMD, denn in dem Fall dürften die Balken erschreckend und ungesund kurz werden - gut, bei fordernden Titeln dürfte das Ausbleiben beider Techniken eher unwahrscheinlich sein, aber man sollte sich einer potentiellen Schwäche im kommenden Nvidia Linup im unterem, aber immer noch relativ hochpreisigem, Leistungssegment gewahr sein)
 
  • Gefällt mir
Reaktionen: Beg1 und KingZero
Beg1 schrieb:
Dann noch die Verbreitung des Features, 35 Games angekündigt, wovon viele Spiele auch noch komplett irrelevant sind - der Torpedo ist wohl im Rohr hochgegangen.
Schwaches Argument. Als DLSS 1 rauskam, war die Unterstützung auch gering und heute unterstützt das fast jedes Spiel.
 
  • Gefällt mir
Reaktionen: RogueSix
Revan1710 schrieb:
Na das wird ja immer toller - da wird einfach mal noch 380 € mehr für die "OC-Variante" der Asus TUF verlangt.

Das Budget-Kühlkonzept kombiniert mit einer voraussichtlich höllischen Leistungsaufnahme - da gibt man doch gerne nochmal soviel mehr aus.
Ein besserer Kühler zum Preis einer 3060... Es ist schon ziemlich lustig was die sich denken.
(Schon klar, dass die Spannungsversorgung wahrscheinlich auf dem Papier besser ist, nur bringt das halt nicht wirklich was).
Ergänzung ()

Das passende Seasonic Netzteil mit 1300W kostet nochmal so 400€.
Da ist man dann zusammen bei deutlich über 2500€.
Und dann startet man ein Spiel und soll erstmal 1,99€ für einen Skin abdrücken.

PC Gaming schafft sich ab.
Was bin ich froh, dass ich die 2000er Jahre erlebt habe.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nahkampfschaf, bttn, Fyrex und 3 andere
Phoenixxl schrieb:
]Das passende Seasonic Netzteil mit 1200W kostet nochmal so 400€.
Da ist man dann zusammen bei deutlich über 2500€.
Und dann startet man ein Spiel und soll erstmal 1,99€ für einen Skin abdrücken.

Dann kaufst du halt ein bQ für die Hälfte mit derselben Leistung. Außerdem empfiehlt nV selbst doch nur 850W, also bausch das ganze doch nicht künstlich auf.
 
  • Gefällt mir
Reaktionen: GERmaximus
Chilisidian schrieb:
heute unterstützt das fast jedes Spiel.
Öhm hab ich was verpasst?? Fast jedes Spiel?
Mag ja sein das deine Spiele das unterstützen aber von fast allen Spielen ist man sicher noch etwas entfernt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Orcon
Phoenixxl schrieb:
Das passende Seasonic Netzteil mit 1200W kostet nochmal so 400€.
ich lese so eine Aussage zum Preis eines fiktiven Seasonic 1200Watt Netzteil für 400€ nicht zum ersten mal hier im Forum...
Wo kommt diese These her? Nicht nur, dass es überhaupt kein Seasonic 1200Watt Netzteil gibt, sondern ein 1300Watt Netzteil (neben 1000 und 1600Watt), ein solches ist bereits ab ~210€ zu haben...
https://geizhals.de/?cmp=1558691&cmp=2204490&cmp=2741652&cmp=1749578&cmp=2630702&active=1
 
  • Gefällt mir
Reaktionen: Sinatra81
@Enyo79

Also gering ist die Unterstützung jedenfalls nicht. Es sind sprichwörtlich viele hundert Spiele, die DLSS entweder jetzt schon unterstützen oder für die der Support angekündigt ist. Eine Liste, deren Vollständigkeit schwer überprüfbar ist, findet man zum Beispiel hier.

Es steht dir natürlich frei, das trotzdem weiterhin klein zu reden. Die AMD-Fans haben ja auch vor ca. 1,5 Jahren mit der Einführung von FSR schon den sicheren Tod von DLSS vorhergesagt. Es steht allerdings zu befürchten, dass nVidia mit DLSS 3 ihrer hauseigenen Technik noch ein etwas längeres Leben spendiert haben und sie den AMD Fans vorerst nicht den Gefallen eines Ablebens tun möchten.
 
  • Gefällt mir
Reaktionen: Sinatra81
catch 22 schrieb:
ich lese so eine Aussage zum Preis eines fiktiven Seasonic 1200Watt Netzteil für 400€ nicht zum ersten mal hier im Forum...
Wo kommt diese These her? Nicht nur, dass es überhaupt kein Seasonic 1200Watt Netzteil gibt, sondern ein 1300Watt Netzteil (neben 1000 und 1600Watt), ein solches ist bereits ab ~210€ zu haben...
https://geizhals.de/?cmp=1558691&cmp=2204490&cmp=2741652&cmp=1749578&cmp=2630702&active=1

Bitteschön:
https://www.caseking.de/seasonic-pr...teil-modular-pcie-5.0-1300-watt-nese-148.html
Ergänzung ()

Chilisidian schrieb:
Dann kaufst du halt ein bQ für die Hälfte mit derselben Leistung. Außerdem empfiehlt nV selbst doch nur 850W, also bausch das ganze doch nicht künstlich auf.

Naja, das mag für die 450W reichen, aber was ist mit der OC Version und 660W.

Mit CPU bist du bei 760W, RAM, Festplatten, Lüfter....das geht sich nicht aus.
 
Zuletzt bearbeitet:
Der Preis ist gar nicht so schlecht. Wenn das 1200W für 250 Gibt dann wäre ich dabei xD
 
Phoenixxl schrieb:
Naja, das mag für die 450W reichen, aber was ist mit der OC Version und 660W..

Mal langsam, warte doch erstmal Tests ab, wie viel die Karten wirklich verbrauchen im Szenario Games. Und da werden es sicher keine 650 Watt sein. Kurzzeitige Leistungsspitzen kann ein gutes Netzteil auch mit kleinerer Nennleistung locker abfangen.

Hier wird wieder viel zu viel Panik verbreitet: Teils aus Polemik, Häme oder einfach Unwissen.
 
Der Preis für Highend PC mit Am5 und 4099 quasi vom Preis her verdoppelt,im Vergleich zu Am4..... Einfach Irre
 
  • Gefällt mir
Reaktionen: Fyrex und frankx82
@Youngtimer
gut, das Ding entzog sich meiner Kenntnis, weil noch nicht am Markt... aber selbst dann... weit weg von diesen ominösen 400€, die da widerholt genannt wurden und vor allem der Grund sind, warum mir diese Beiträge auffielen (kann sich doch keiner merken, ob ein spezifischer Hersteller kein, wie sonst übliches, 1200Watt Netzteil hat... aber es würde halt auffallen, wenn ein ansonsten Preislich eher fair aufgestellter Hersteller, auf einmal mit diesen 400€ so derb aus dem üblichen "ab 200€ Rahmen" fällt)
 
catch 22 schrieb:
wobei ich mir vorstellen könnte, dass DLSS 3 in einem FluSi, wie dem FS2020, noch am ehesten sehr gut funktionieren kann,
Das funktioniert jetzt schon ganz prima mit 3080 aufwärts mit Dlss, 4k Ultra >50fps sind i.d.R. mit einer potenten CPU immer drin bis auf busy Gegenden, da kanns auch auf 40 droppen. Das reicht für so eine Sim locker. Meine 3080/12 z.B. ist auf 55FPS gelockt bei 230W. Eine 4090 soll ja 100FPS+ raushauen angeblich. Zwar geil und sehr interessant wie das gehen soll, da eigentlich fett CPU limitiert, aber brauchen tut man das eigentlich nicht.
Dann würde mir noch Cyberpunk einfallen was mehr FPS in 4k gebrauchen könnte und das wars auch schon was mir spontan einfällt wo ich einen Nutzen mit so einer Karte sehe. Für alles Andere was ich kenne reicht eine 3080 / 6800xt (ohne RT Titel) recht gut aus und in (UW)QHD sowieso. Aber mir reichen auch 120-140 FPS als max. selbst in flotten Shootern.
 
Flynn74 schrieb:
Die Seasonic Teile gibt es leider erst ab Dezember.
Zum jetzigen Zeitpunkt gibt es nur eine ATX 3.0 Reihe von Thermaltake. Hab ich mir bestellt und ist lieferbar ab nächster Woche…
Ist bekannt welche Bauteile Thermaltake verbaut und bei wem sie es fertigen ?
 
Zurück
Oben