Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3
Cleric
Commander
- Registriert
- Dez. 2012
- Beiträge
- 2.505
Möchte ich sofort unterstreichen.v_ossi schrieb:Es bereitet mir fast schon physische Schmerzen, dass die Karte so weit über dem Sweetspot betrieben wird.
Haut das Ding mit 300 Watt raus und die ganze Diskussion um den Verbrauch, neue Netzteile und Heizen im Winter hätte sich erledigt und es hätte der Bewertung der Karte nicht im geringsten geschadet.
Im Gegenteil, die ganzen OCer hätte sich nen Ast abgefreut, dass sie so viel mehr Takt rausholen können.
Jedenfalls beeindruckende Zahlen.
Aber leider scheint das die neue Normalität zu sein. Und so lange die Effizienz steigt, stören sich die meisten Reviewer und potentielle Käufer anscheinend nicht an so hohen absoluten Stromverbräuchen.
Dabei ginge es ganz offensichtlich auch anders, und zwar ganz anders und deutlich besser.
Und das soll nicht die Verbesserungen beim Powermanagement schmälern.
Aber dieser Trend ist nicht gut, man wandelt weiter auf den Pfaden maximaler Performance und nicht maximaler Effizienz bzw. ein werkseitige Konfiguration am Sweetspot.
Taxxor
Fleet Admiral
- Registriert
- Mai 2011
- Beiträge
- 20.662
Der 3090 haben sie die 6900XT entgegengesetzt, die mit dieser auch in der Rasterperformane gut mithält.habla2k schrieb:Haben die das denn überhaupt vor? Sie haben doch auch der 3090 (TI) schon nichts entgegengesetzt sondern sich darunter in die Konkurenz begeben.
Gegen die 3090Ti hatten sie dann nicht wirklich was, das stimmt, aber eine 4090Ti steht ja auch noch aus^^
R
Ragnarök88
Gast
Wofür ja die GPU nichts kann, sondern die lahmen CPUs...Dai6oro schrieb:Hmm die Mehrleistung unter 4K ist enorm und dann fällt sie stark ab.
PietVanOwl
Commander
- Registriert
- Mai 2007
- Beiträge
- 2.869
Die normale Merc ist deutlich leiser als die Black Edition. Bei der Black gehen auch bis 450 Watt durch glaub ich. Die normale Merc zieht "nur" 320 Watt.Kazuya91 schrieb:Ist die XFX 6900XT MERC wirklich 47,5 db laut? (Seite 3 des Tests). Hab überlegt die Karte zu kaufen
MFG Piet
habla2k
Rear Admiral
- Registriert
- Sep. 2009
- Beiträge
- 6.093
@Wolfgang
Wie kann das sein, wenn CP2077 in 4K gar keine 144FPS erreicht? Müsste dort dann nicht Vollast anliegen?Mit 144-FPS-Limit wird es dann richtig beeindruckend. In Ultra HD braucht das neue Modell nur 244 Watt und damit 188 Watt weniger als unter Volllast und 147 Watt weniger als die ebenso limitierte GeForce RTX 3090 Ti.
Dass die performance selbst bei 300W so gut ausfällt ist sehr positiv.
Das restliche Portfolio ist aber trotzdem Unsinn.
Dass es 16 GB oder mehr wieder nur ab 1500€ gibt ist einfach ein schlechter witz.
Selbst für die 12 GB einer möglichen 4070 wird man vermutlich 800€ hinlegen dürfen. das ist einfach Mist. Zumal die Lücke von einer 70er zur stärksten Karte diesmal so groß ausfällt, wie noch nie zuvor.
Ich würd mir ja auch ne 800€ Karte kaufen und mein Budget erhöhen. Der Preis ist gar nicht mal so das große Problem. Aber ich will dann auch ne halbwegs vernünftige Ausstattung und nicht immer diesen abgespeckten Mist (und wenn doch dann entsprechend billig und nicht versuchen, mir den Schrott als HighEnd zu verkaufen)
Das Problem an den Preisen ist zumindest für mich nicht der Preis, sondern das Gefühl, über den Tisch gezogen zu werden. Nach dem Motto kaufe unser teuerstes Produkt, das hat die beste Preis/Leistung oder du kaufst Mist. Auf sowas hab ich einfach keinen Bock. Sowas unterstütze ich nicht.
Seltsames Gefühl, wenn man Geld fürs Hobby ausgeben will, weil man geneigt ist, sich mal was neues zu holen, aber jede verfügbare Option wirkt maximal unattraktiv.
Schade, vielleicht mit RTX 5000 dann...
Das restliche Portfolio ist aber trotzdem Unsinn.
Dass es 16 GB oder mehr wieder nur ab 1500€ gibt ist einfach ein schlechter witz.
Selbst für die 12 GB einer möglichen 4070 wird man vermutlich 800€ hinlegen dürfen. das ist einfach Mist. Zumal die Lücke von einer 70er zur stärksten Karte diesmal so groß ausfällt, wie noch nie zuvor.
Ich würd mir ja auch ne 800€ Karte kaufen und mein Budget erhöhen. Der Preis ist gar nicht mal so das große Problem. Aber ich will dann auch ne halbwegs vernünftige Ausstattung und nicht immer diesen abgespeckten Mist (und wenn doch dann entsprechend billig und nicht versuchen, mir den Schrott als HighEnd zu verkaufen)
Das Problem an den Preisen ist zumindest für mich nicht der Preis, sondern das Gefühl, über den Tisch gezogen zu werden. Nach dem Motto kaufe unser teuerstes Produkt, das hat die beste Preis/Leistung oder du kaufst Mist. Auf sowas hab ich einfach keinen Bock. Sowas unterstütze ich nicht.
Seltsames Gefühl, wenn man Geld fürs Hobby ausgeben will, weil man geneigt ist, sich mal was neues zu holen, aber jede verfügbare Option wirkt maximal unattraktiv.
Schade, vielleicht mit RTX 5000 dann...
Zuletzt bearbeitet:
RichieMc85
Lt. Commander
- Registriert
- Dez. 2011
- Beiträge
- 1.278
70% mehr Leistung für 66% mehr Geld. Die Karte ist von den Werten schon Top aber mehr als 1500 Euro wäre Sie mir nicht Wert. Was soll denn dann der Vollausbau kosten 3K? Sofern die Preise aufgrund der geringen Nachfrage nicht extrem fallen bleibt erstmal meine 3090Ti. Für 117 FPS auf dem OLED reicht die bis jetzt noch.
Danke für den tollen Test.
Trotz der guten Effizienz und der hohen Leistung hatte ich mir tatsächlich noch etwas mehr erhofft. Gerade im Bezug auf die Raytracing-Leistung bin ich von einer deutlicheren Leistungssteigerung ausgegangen.
Mal sehen was AMD nächsten Monat liefert und wie sich die RTX 4080 16GB so schlagen wird.
Trotz der guten Effizienz und der hohen Leistung hatte ich mir tatsächlich noch etwas mehr erhofft. Gerade im Bezug auf die Raytracing-Leistung bin ich von einer deutlicheren Leistungssteigerung ausgegangen.
Mal sehen was AMD nächsten Monat liefert und wie sich die RTX 4080 16GB so schlagen wird.
Kryss
Commander
- Registriert
- Sep. 2018
- Beiträge
- 2.601
groink19 schrieb:Roman der8auer hat in seinem youtube-Video in solches Diagramm erstellt, wie viel Leistung bei welcher Leistungsaufnahme beim Monitor ankommen.
Habs gefunden, da sähe für mich spontan der Bereich um die 234 Watt schonmal interessant aus.
@Fuchiii Ich fahre privat auch ein schnelles Auto, aber ich muss ja nicht ständig Pedal to the Metal machen, nur um auch schnell voranzukommen.
Und denk mal an die ganzen Leute, die über 400 Watt nicht mehr im jetzigen Gehäuse kühlen können. Denn das Budget strapaziert die 4090 ja durchaus....
vg Chris
Quelle
olligo
Lieutenant
- Registriert
- Jan. 2008
- Beiträge
- 697
Die Leistung mit dem Verbrauch mit Powerlimit ist ja doch sehr viel besser, als wir hier vermuteten.
Eine wirklich krasse und extrem starke Karte, die natürlich trotzdem extrem überteuert ist, da brauchen wir nicht drüber reden.....
Dennoch hat NVIDIA tatsächlich abgeliefert und es war am Ende nicht nur ein Marketing Hype, denn man sieht klar, dass die Karte auch ohne DLSS ordentlich Power liefert.
Eine wirklich krasse und extrem starke Karte, die natürlich trotzdem extrem überteuert ist, da brauchen wir nicht drüber reden.....
Dennoch hat NVIDIA tatsächlich abgeliefert und es war am Ende nicht nur ein Marketing Hype, denn man sieht klar, dass die Karte auch ohne DLSS ordentlich Power liefert.
Laphonso
Vice Admiral
- Registriert
- Jan. 2012
- Beiträge
- 6.492
Die Stille von AMD zu RDNA3 ist sonderbar.Chilisidian schrieb:Wer immer noch glaubt, AMD wird locker vorbeiziehen, ist definitiv auf dem Holzweg. Ich glaub AMD hat massiv unterschätzt, was hier durch den Nodesprung trotz gleicher Architektur möglich sein würde. Zumal man schon längst davon gehört hätte, wenn AMD ein ähnliches Monster in der Pipeline hätte.
Aber nur auf den ersten Blick.
Sie können und wollen die 4090 nicht matchen.
Ich gehe aber davon aus, dass AMD die 4080er 1:1 “angreifen” wird und hier an allen Fronten gewinnt, abseits der speziellen OFA DLSS3 fps Vergleiche.
4080 Interessenten sollten 100%ig auf RDNA3 warten.
Zuletzt bearbeitet:
Taxxor
Fleet Admiral
- Registriert
- Mai 2011
- Beiträge
- 20.662
Das Problem dieser Generation ist die große Lücke zwischen den Karten. Selbst mit dem Preis der 4090 ist sie dennoch aus P/L Sicht die wohl beste der 3 neuen Karten und ich würde lieber schmerzlich 2000€ für eine 4090 hinlegen, als 1500€ für die 4080 16G, die dann aber auch nur ~60% der Performance der 4090 bietet.Rockstar85 schrieb:Nvidia lässt sich also diese Generation fürstlich bezahlen.. Deswegen muss ich auch davon ausgehen, dass das höchste der Gefühle eine 4080/16G ist..
Über Ampere Niveau mache ich mir nicht wirklich sorgen.Rockstar85 schrieb:@AMD Preise:
Wenn AMD nicht Blöd ist, dann kommt eine 7900XT die 999 USD kostet und sich zwischen 4080/16 und 4090 einpegelt.. Und die RT Leistung muss AMD hier aber schon massiv anheben, und da müsste man Ampere Niveau erreichen.. Und da bin ich echt nicht sicher, ob man das schafft.
Selbst wenn die RT Einheiten überhaupt nicht verbessert worden wären sondern rein mit der Rasterperformance mitskalieren (RT Einheiten an WGPs gebunden), müssten bei der RT Performance mehr als genug rauskommen, um eine 3090Ti zu schlagen.
habla2k
Rear Admiral
- Registriert
- Sep. 2009
- Beiträge
- 6.093
Die kleineren Modelle werden bei 200W aber vermutlich nicht die gleiche Performance haben, weil sie ja ganz anders aufgebaut sind (abgespeckt). Die 4060 ist ja keine 4090 mit 300W sondern deutlich weniger Shader etc.Fuchiii schrieb:Dann warte doch einfach auf die kleineren Modelle.
eddy 92
Lieutenant
- Registriert
- Aug. 2012
- Beiträge
- 641
Top Karte. Beeindruckender Sprung. Für mich ist die Karte jedoch viel zu groß. Würde niemals in mein Case passen. Nutze ein NR 200 und habe auch nicht vor mir jemals wieder so ein Ungetüm ins Arbeitszimmer zu stellen.
Ich warte dann auf die 4060/4070. die dürften in mein Case passen und sollten die Leistung bringen, die ich benötige.
Ich warte dann auf die 4060/4070. die dürften in mein Case passen und sollten die Leistung bringen, die ich benötige.
Oder die Leute bilden sich und nutzen den von Nvidia im Treiber integrierten Frame Limiter.v_ossi schrieb:Haut das Ding mit 300 Watt raus und die ganze Diskussion um den Verbrauch, neue Netzteile und Heizen im Winter hätte sich erledigt ...
Nvidia Systemsteuerung, 3D Einstellungen, Max.Bildfrequenz FPS auf Monitor Hz -3 stellen.
Ähnliche Themen
- Antworten
- 114
- Aufrufe
- 45.586