Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

DeadMan666 schrieb:
Ich denke er kommt von der TGP. Den letzten Gerüchten nach will AMD ja von der TGP (die bei der 6900XT Ref 255W betrug) auf die 350W (manche Gerüchte gehen auch von 375W aus).
AMD spricht selbst nie über die TGP, dort geht es immer um die TBP und darum geht es auch in den Leaks, die ich bisher gehört habe.
DeadMan666 schrieb:
Und ob 6950XT oder 6900XT ist im Kern ja egal, das ist ja der gleiche Chip nur die 6950XT bekommt ein separates Binning und wird halt als Ultra OC vermarktet.
Es wäre relevant für die >50% Perf/W Aussage, denn das im Vergleich zu einer 6950XT zu erreichen wäre deutlich schwächer als im Vergleich zu einer 6900XT.
Ergänzung ()

Max007 schrieb:
Stock 6900 XT läuft mit 255W, meine Red Devil mit 3x8 Pin kommt mit 280 Watt. Lässt sich natürlich mit MPT auf 350W prügeln aber stock sinds 255W.
Und 255W TGP entsprechen 300W Kartenverbrauch
 
  • Gefällt mir
Reaktionen: Sun-Berg, el_froggo, ThirdLife und eine weitere Person
Schrank schrieb:
glaubt ihr die 4080 16 GB wurde nur so teuer angekündigt um die Preise der 30er-Serie noch hoch halten
natürlich, genauso wie bei der RTX 4070, welche man deshalb sogar zur 4080 12GB umtaufen musste!
 
eddy 92 schrieb:
Top Karte. Beeindruckender Sprung. Für mich ist die Karte jedoch viel zu groß. Würde niemals in mein Case passen. Nutze ein NR 200 und habe auch nicht vor mir jemals wieder so ein Ungetüm ins Arbeitszimmer zu stellen.

Ich warte dann auf die 4060/4070. die dürften in mein Case passen und sollten die Leistung bringen, die ich benötige.
Die Karte passt in das NR200 - zumindest die FE. Gerade wenn man die Karte eher näher am Sweet-Spot (250-350 Watt) betreiben möchte sollte das Case kein Problem darstellen.
 
Rickmer schrieb:
8K ist irrelevant, aber 4K 120Hz HDR oder 4K 144Hz (und mehr) sind durchaus auch heute schon relevant und mit DP1.4 nicht machbar.
Na aber sicher meine 3090 läuft wunderbar auf meinem GIGABYTE AORUS FV43U mit 4k144hz und HDR
 
Schon beachtlich, aber der Preis - nee nee. Das darf man nicht zur Regel werden lassen.
 
Die Grafikkarte reizt die 450 Watt in den meisten Spielen nicht aus, 400 bis 430 Watt sind an der Tagesordnung.

Ach so, und diese 400-430W heizen einen Raum im Hochsommer ja überhaupt nicht auf, wie gut für nVidia, dass momentan kein Hochsommer ist und einige sich so vielleicht den elektrischen Raumheizer sparen wollen/können.
 
  • Gefällt mir
Reaktionen: Banned
ben12345 schrieb:
Du hast eine 6900 xt und einen ryzen 3600xt(!!!!!!!!!!) gekauft?
aber nicht für 2000+ € So viel hat mein ganzer Rechner gekostet
 
Rickmer schrieb:
8K ist irrelevant, aber 4K 120Hz HDR oder 4K 144Hz (und mehr) sind durchaus auch heute schon relevant und mit DP1.4 nicht machbar.
Zauberwort ist hier: DSC
 
BmwM3Michi schrieb:
natürlich, genauso wie bei der RTX 4070, welche man deshalb sogar zur 4080 12GB umtaufen musste!
Jep, was man nur erkennt, wenn das Kleingedruckte gelesen wird. Schon ziemlich... dreist. Wobei die Ausstattung bis auf die 192Bit-Speicheranbindung schon relativ deutlich über der einer 3070 liegt.
 
Die Leistung ist schon beeindruckend. Aber die Karten sind natürlich brutal überteuert. Die sollte man eigentlich schon aus Prinzip nicht kaufen.

Aber schön zu sehen, dass in Zeiten von Energiekrise und Inflation immer noch so viele Menschen scheinbar zu viel Geld haben.

Kauft mal schön, dann steigen die Aktien vielleicht mal wieder ein bisschen. :D
 
  • Gefällt mir
Reaktionen: daknoll, Chismon und Chris8208
Schrank schrieb:
Beeindruckende Leistung,
ich verstehe nicht wie die UVP der 4080 16 GB sinn ergibt.

Die 4080 16 GB wird in etwa 60% der Leistung der 4090 haben. (49 vs. 83 TFLOPS).
Die 4080 16 GB kostet aber 75% der 4090. (1469 € vs. 1949 € UVP).

Das heißt die 4090 hätte eine bessere Preis/Leistung als die 4080 16 GB, wann war das jemals so?

Oder glaubt ihr die 4080 16 GB wurde nur so teuer angekündigt um die Preise der 30er-Serie noch hoch halten zu können und wird eibrechen wenn die Leute merken dass die Preis/Leistung im Vergleich zur 4090 schlecht ist?
Das macht mir auch echt zu schaffen, es macht absolut 0 Sinn. Ich wollte eigentlich zur 4080 16gig greifen aber bei dem vollkommen absurden und wirklich sinnlosen Preis (Die entwerten die Karte ja selber KOMPLETT wenn man Preis/Leistung in Relation zur 4090 setzt) kauf ich das nicht. Der Preis der Karte wär gerade noch so ok, wenn auch nicht gut, wenn er so viel kosten würde wie die 4070 welche ja mit um die 1100 Euro schon sau teuer ist.
Zur 3000er Generation will ich auch nicht mehr greifen. Wenn doch AMD nicht erst im November vorstellen und dann weiß Gott wann launchen würde :( ...
Bei mir steht ein komplett neues System an und mir juckts echt extremst in den Fingern...
 
  • Gefällt mir
Reaktionen: Beg1, Convert und Schrank
basic123 schrieb:
dass den meisten RTX 4090 Käufern völlig egal ist ob sie nun 300W, 400W oder 500W
Dann sieh dir mal das Video von Roman an, dann wirst du vielleicht anders denken.
So Minute 16:45

 
  • Gefällt mir
Reaktionen: Alex1966, Celinna und ThirdLife
SKu schrieb:
Wenn es die Rechner von den Herstellern sind, dann ist das kein Wunder, schließlich wollen die auch ihre großen Netzteile verkaufen.

Nvidia selbst gibt 850 W für die FE an.
Für ein komplettes System ?
 
Taxxor schrieb:
Es wäre relevant für die >50% Perf/W Aussage, denn das im Vergleich zu einer 6950XT zu erreichen wäre deutlich schwächer als im Vergleich zu einer 6900XT.

Jein, mein intrinsisches Vorgehen wäre das man die Chips bei jeweils gleicher Leistung vergleich bzgl. den Performance pro Watt. Da dürfte die Skalierung dann relativ linear Verlaufen. Bei der 4090 vgl. zur 3090Ti wäre das ja

300W -> +82%
350W -> +72%
450W -> +70%

Taxxor schrieb:
AMD spricht selbst nie über die TGP, dort geht es immer um die TBP und darum geht es auch in den Leaks, die ich bisher gehört habe.

Das ist vielleicht die Krux an den Leaks. Ich persönlich habe in der Tat immer eher an TGP Bereich gedacht. Aber für den Stand der Leaks ist das in Summe fast egal. Man kann die ungefähre Performance pro Watt Skalierung rechnen und dann die ungefähre Leistungsskalierung (irgendwas zwischen +30% und +50% der extra Leistung). Und damit kann man die Größenordnung am Ende schon recht klar abschätzen, wird wohl irgendwas im Bereich +55 bis +70% reale FPS werden in Rastersizing. Viel weniger wäre wundersam, genauso aber viel mehr. D.h. das wird irgendwie nahe der 4080 16GB liegen. RT zu prognostizieren und den Preis (der am Ende für viele entscheidend wird) ist da aber viel schwieriger.
Für eine Prognose zum heutigen Stand ist das dann eigentlich absolut ausreichend. Jemand der ernsthaft eine GPU kaufen will sollte damit abschätzen können ob bzw. wie lange er auf AMD Tests wartet. Ob es dann 5% in die eine oder andere Richtung geht können nur reale Tests im System zeigen.



Abgesehen davon war das jetzt etwas viel OT.

Ich persönlich finde die Performance der RTX 4090 schon sehr stark und über meiner persönlichen Erwartung. Für meinen persönlichen Zweck sogar schon zu stark, das spricht wirklich v.a. 4K UHD 120 Hz Monitor besitzer an. Ist bei mir aktuell kein Thema.
Was mich aber sehr irritiert ist der zu erwartende Unterschied zur RTX 4080 16GB. Da ist für meinen Geschmack zu viel Platz. Auch wenn bei den 3000er Varianten da in Enge Fenster zu viele Varianten gesteckt wurden die sich kaum 10% voneinander getrennt haben ist das hier fast schon wieder zuviel Platz. Das riecht förmlich nach einem Refresh mitte 2023.
 
Zuletzt bearbeitet:
riOrizOr schrieb:
aber nicht für 2000+ € So viel hat mein ganzer Rechner gekostet
Naja als 6900xt Käufer sollte man sich vll mit solchen Aussagen etwas zurück halten weil du eben selber im high end kaufst. Die 4090 Preise sind extrem aber es ist halt der Lauchpreis des absoluten high end Models. Vor allem für Leute die das Teil für die Arbeit und nicht nur zum Zocken kaufen ist das sicherlich ein Top Produkt zu einem noch akzeptablen Preis. Fürs reine Zocken sicher überdimensioniert und zu Teuer.
 
  • Gefällt mir
Reaktionen: FatalFury
Ragnarök88 schrieb:
Nvidia hat nie etwas von 2 bis 4 facher Leistung ohne DLSS3 gesagt
Doch, Jensen hat explizit doppelte Rasterleistung genannt.
 
  • Gefällt mir
Reaktionen: Pisaro, el_froggo und Floppes
Thares schrieb:
Für ein komplettes System ?

Ja. Meine 3090 mit UV und ein 12900K ziehen in Spielen unter Last 400 W, da sind 100 W mehr mit einer 4090 noch mehr als genug.
 
Zurück
Oben