Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

MrWaYne schrieb:
ich dachte bei drei 8-Pin-Anschlüssen kommt man auf 525w Powerlimit (PCIE Slot liefert ja 75w)?
Die RTX 4090 scheint laut der8auer und Igor'slab nur ca. 10-11W aus dem PCIe Slot zu ziehen.
 
  • Gefällt mir
Reaktionen: MGFirewater und Rockstar85
Super Karte, wobei ich nicht verstehe warum NVIDIA die nicht mit 350 Watt auf den Markt geworfen hat, vermutlich wusste man selbst nicht was die Fertigung ausmachen wird. Leistung Top der Preis geht leider gar nicht das Ding als 4080 Ti zu dem Preis der 4080 (16) die 4080er auf das Preisniveau der 4080 (12GB) und darunter mal wieder normal werden. ANsonsten schönes Stück Hardware und lange nicht mehr soviel Veränderung mehr bei einem Generationswechsel gesehen. Nun bin ich noch gespannter ob AMD da mitkommt oder ob NVIDIA hier einfach ein zu dickes Brett vorgelegt hat.
 
ssh schrieb:
Dagegen sieht meine 3090 alt aus, freue mich schon auf mein neues Monster, war ja klar, dass die Karte dermaßen einschlägt und vermutlich die Preise aller Karten oben lässt. Kann mir nicht vorstellen, dass AMD auch nur ansatzweise mithalten kann.
BEi 75 TFlops Rohleistung und einer besseren Effizienz im Vergleich zu Ampere, mache ich mir da eher weniger Sorgen. (Wie @Wolfgang sagte, wird eher die RT Performance Spannend)
Und die 3090 ist durch den Preismove auch nicht plötzlich Alteisen geworden.. Hat Nvidia geschickt gemacht und ich verstehe das Aufgebähren von EVGA. Das kann dauerhaft kein Premiumpartner mitmachen.
 
Maxminator schrieb:
PS: wie kommen sich Leute jetzt vor, die vor 6 Monaten sich eine 3090Ti oder 3090 für über 2000€ gekauft haben :-)
bei der rekordgeschwindigkeit mit welcher der € gerade vernichtet wird, kann man nur gewinnen wenn man die kohle raushaut. selbst wenn man in überteuerte nvidia karten investiert :D
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech, Jan und Celinna
Kazuya91 schrieb:
Da lohnt es sich direkt das PowerTarget auf 350W zu reduzieren. Die 3% Leistung kann man sich dann sparen.

Was ich nicht ganz verstehe:
Ist die XFX 6900XT MERC wirklich 47,5 db laut? (Seite 3 des Tests). Hab überlegt die Karte zu kaufen :D
Nein ist sie vermutlich (habe sie nicht selbst) nicht. CB schreibt von der Black Edition mit höherem Powerlimi Habe eine 6800XT Merc, die ist gut aushaltbar. Generell scheinen die XFX-Kühler in der Gen klar zu den besten Stock-Kühlern zu gehören.
 
Zuletzt bearbeitet:
RogueSix schrieb:
... einfach der offiziellen nVidia Empfehlung zu folgen und im Treiber VSync global einzuschalten und Low Latency auf "Ultra". Fertig ist die G-Sync Hütte mit Limitierung auf die G-Sync Range des Monitors.
Gibt es dazu eine Quelle ? Weil hier stand mal was von VSync weder aus noch an sondern auf Die Anwendung
entscheiden lassen und es wäre schon kurios wenn man gerade jetzt wo es einen Frame Limiter im Treiber gibt
sagt, dass man wie früher VSync als Frame Limiter "missbrauchen" soll um in der G-Sync Range zu bleiben !? :freaky:
 
Balikon schrieb:
Das ist schlicht beeindruckend, Grafikchips können die einfach bei Nvidia und TMSC. Ich ziehe meinen Hut und bin trotzdem gespannt, ob AMD auf Schlagdistanz kommt. Die Latte liegt auf jeden Fall sehr hoch.

Das stimmt und ich werde mir auch eine RTX 4090 kaufen. Da wird AMD nicht viel zu melden haben und selbst wenn, dann würde meine rein persönliche Kaufentscheidung aus vielen Gründen zugunsten nVidia's ausfallen.

Aber, wie einige hier mMn schon mal richtig angemerkt haben, hat AMD im Bereich der RTX 4080 mit 12GB und 16GB quasi einen Elfmeter ohne Torwart.

Die Performance dieser Modelle werden sie ja wohl hoffentlich relativ locker erreichen bzw. überbieten und gleichzeitig den Preis unterbieten können. Und das vermutlich auch bei besserer "Ausstattung" (alle Karten in diesem Segment mit 16GB). Vielleicht kann AMD ja auch mit Displayport 2.0 ein paar weitere Pluspunkte sammeln.

Den Riesenvorteil des späteren Marktstarts müssen AMD nun nur zu nutzen wissen.
 
Na Toll, und ich Depp habe mir vor kurzem eine XFX MERC 319 RX 6900 XT Black Gaming gekauft, nun gut die hat dafür aber auch nur 799€ gekostet. Trotzdem…:heul:
 
Fettes Brett. Mal sehen was AMD zu bieten hat und dann sehen wir weiter. Als 4K Spieler wäre es ja wirklich ein nettes Upgrade.
 
Bei 300 Watt gegen 450 bei der 3090 Ti, also 150 Watt weniger, trotzdem 54 % schneller, effizient geht also doch.
Alle die geweint haben wegen Verbrauch und Netzteil können sich jetzt wieder beruhigen^^
 
  • Gefällt mir
Reaktionen: Alex1966
Ich muss ja sagen, nach 13 Seiten, finde ich es was Nachhaltigkeit und Umweltgedanken angeht, schlimmer zu sehen, wie Leute ohne mit der Wimper zu zucken von einer 3090 auf die 4090 wechseln, als dass da jetzt 450W maximal anliegen können.

Verbrennt euer Geld wie ihr wollt, aber vielleicht könnte man über solchen Überfluss und Ressourcenverbrauch mal nachdenken.
 
  • Gefällt mir
Reaktionen: AfFelix, MrChlorophil, timmey77 und 8 andere
Rockstar85 schrieb:
AMD setzt auf Chiplets und hat damit die Kosten auf ihrer Seite.
Das ist richtig, aber Marge möchte AMD auch.
Rockstar85 schrieb:
Wenn die 7900Xt 999 USD kostet und eine 4080/16 bei besserer Effizienz verraucht, reicht des doch..
Wenn die 7900XT die 4080/16 überflügeln sollte, glaubst Du besser nicht daran, dass die nur für 999 Dollar zu haben sein wird.
 
  • Gefällt mir
Reaktionen: AfFelix und DannyA4
Zubz3ro schrieb:
bei der rekordgeschwindigkeit mit welcher der € gerade vernichtet wird, kann man nur gewinnen wenn man die kohle raushaut. selbst wenn man in überteuerte nvidia karten investiert :D
Mach dir da keine Sorgen... das wird auch wieder sich ändern.. Wir sind nicht mal im Ansatz bei 2008... Gefühlte Inflation vs Reale.. Ist aber auch nicht Thema hier.
 
Auf 300 Watt gezügelt ein super Ergebnis, per Default natürlich auf volle Leistung laufen lassen und wegen 10 - 15% gute 50% Energie vergeudet. Aber klar, machen ja alle Hersteller.

Doppelte Leistung durch fast Dreimal soviele Transistoren erkauft. Der Großteil wohl nur für Optimierungen und Caches, damit der Stromverbrauch nicht explodiert wäre.

Das dürfte wohl wirklich der letzte High-End-Single-Chip Gigant im Consumerberich gewesen sein, die Produktionskosten mit der Fläche sind einfach zu hoch.

Am Ende zählen Leistung / Preis / Verbrauch, bei jedem mit unterschiedlicher Priorität.

Technisch ist die Archtitektur wohl jetzt wieder am Limit angelangt, kompensiert durch kleinere Fertigungsstruktur konnte man den Takt noch weiter hochjagen.

Klar wird man noch ein Update hinterherschieben können, mit 200 - 300 Mhz mehr Takt, schnellerem RAM und fertig ist die 5000er Serie.
 
  • Gefällt mir
Reaktionen: schneeland, Iarn, baizer und 2 andere
Balikon schrieb:
Wenn die 7900XT die 4080/16 überflügeln sollte, glaubst Du besser nicht daran, dass die nur für 999 Dollar zu haben sein wird.
Doch sehr wohl.. Weil eben der Monolith wegfällt.. Das hat AMD damals bei Ryzen auch 1:1 weitergereicht..>
Es wäre aber auch Wahnsinnig in einen Preiskrieg mit Nvidia zu gehen.. Also werden wir ~1000 USD die 7900XT sehen. Und wie du sagtest, vermutlich die 4090 da oben erst mal alleine bleiben. AMDs Navi 31 scheint spannend zu werden und alleine die Chipgröße sprechen von guter Marge, analog zu Ryzen.


Das wären Welten zu so einem Monolith wie bei NV, außerdem kommt AMD ja in N7/6 daher, das kommt noch dazu. Bedenke, der AD 102 is ein N4 Monster mit ~600mm², klar kann AMD da mit N7 punkten und hat zudem eine bessere Marge.
Ich gehe auch davon aus, dass Nvidia ebenso an Chiplets arbeitet, denn man kann die Bruttomarge nicht dauerhaft soo hoch halten. N4 dürfte eine ganze Weile nun mit N3 Standard bleiben in der Halbleiterbranche.

Navi 31:
  • gfx1100 (Plum Bonito)
  • Chiplet - 1x GCD + 6x MCD (0-hi or 1-hi)
  • 48 WGP (96 legacy CUs, 12288 ALUs)
  • 6 Shader Engines / 12 Shader Arrays
  • Infinity Cache 96MB (0-hi), 192MB (1-hi)
  • 384-bit GDDR6
  • GCD on TSMC N5, ~308 mm²
  • MCD on TSMC N6, ~37.5 mm²
 
Zuletzt bearbeitet:
Dai6oro schrieb:
Tja dann muss ein Zen 4 3D her sonst lohnt es sich gar nicht. Also frühestens kommendes Jahr, dann liegen die Karten auf dem Tisch dann wird evtl gekauft... oder auch nicht.
Die Karten liegen bereits komplett klar und sichtbar auf dem Tisch. Wenn du deine 3090 (warum auch immer) für 1440P-Gaming mit einer 4090 ersetzen willst, dann probier's mal mit Raytracing und/ oder Downsampling. Im Treiber kannst du bei Spielen die MSAA unterstützen sogar noch SSAA draufpacken.

Ansonsten viel Spaß mit 150+ FPS in Singleplayer-Spielen. Du wirst die CPU-Gegner bestimmt komplett zerlegen mit Zen 4 3D.
 
  • Gefällt mir
Reaktionen: Pisaro
CrustiCroc schrieb:
Danke an das CB Team für den Lesestoff der mir jetzt eine schöne halbe Stunde bescheren wird.
Hoffentlich könnt ihr in der Redaktion erst mal wieder durchschnaufen.

Igor sagt sogar in seinem Fazit : Das ist keine Evolution, das ist eine Revolution.
Der Preis ist mies, aber ansonsten einfach krank was Nvidia da gemacht hat.
Rein technisch ist das eine glatte 1 !
eine eins wäre es, wenn nvidia die 4090 FE mit 300 Watt setting für 900 € verkaufen würde.
und meinetwegen eine limitierte 4090ti für 8auer & co. für einen Tausender extra mit volt-mod anbieten würde, die dann diese unvernünftigen 600 Watt ziehen darf.

schade, dass der sweetspot so dermaßen überschritten wurde. es wurde hier schon oft kritisiert, aber
10% mehr Leistung für >150 Watt mehr-verbrauch ist stock völlig deplatziert.
ich hoffe, dass diejenigen, die 2 Tsd € in diese Rechenmaschine investieren, auch bereit sind das Ding auf Effizienz zu trimmen, was ja möglich ist.
 
  • Gefällt mir
Reaktionen: Taxxor und Affenzahn
Zubz3ro schrieb:
bei der rekordgeschwindigkeit mit welcher der € gerade vernichtet wird, kann man nur gewinnen wenn man die kohle raushaut. selbst wenn man in überteuerte nvidia karten investiert :D
Naja, die FED hat schon angekündigt das aufkaufen von Dollern in kürze einzustellen. Das sollte den Trend zumindest leicht umkehren.
 
Das ist also die GPU-Power, die gemäß Marketinggelaber beim Launch in den neuen Konsolen stecken müsste. Stichwort: 4K@120

Die Karte ist natürlich der Hammer. Irgendwo ist diese Performance aber auch längst überfällig, denn sie ist so ziemlich die erste Karte, mit der man nun wirklich über 4K in allen Szenarien nachdenken kann (RT mal außen vor, auch wenn es mit ja ganz ordentlich läuft).

Umso mehr macht der Preis klar, dass es hier klar um ein Luxusprodukt für Enthusiasten handelt, während Konsoleros ja schon seit langem 4K@120 genießen (kleiner Scherz).

Ich glaube FHD wird generell noch ziemlich, ziemlich lange dominieren.
 
MrWaYne schrieb:
ich dachte bei drei 8-Pin-Anschlüssen kommt man auf 525w Powerlimit (PCIE Slot liefert ja 75w)?
Waren das nicht 150w?
 
Zurück
Oben