Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

@Cl4whammer!
1. Spricht eigentlich alles dafür, dass die 4080 mehr als nur 10% langsamer ist. Eher 30%. Aber das werden wir sehen, wenn die Tests kommen.
2. Kostet die 4080 auch schon weit über 1000€. Selbst die 4070 aka 4080 12GB.

Und zwischen der 4080 und 4090 klafft eine riesige Lücke, die sicher noch mit einer 4080ti gefüllt wird. Aber immerhin lohnt sich der Aufstieg 4080 zu 4090 nun.
 
Gerithos schrieb:
Ja hammer Release, aber laut leaks wird AMD heute wohl auch vorstellen. Werden die nicht mschdn, wenn sie nur Schrott releasen.
Einfach still zu sein während der Mitbewerber so ne Karte bringt ist halt auch kein gutes Marketing. Selbst wenn sie "nur" mit der 4080 16G mitziehen können wäre es fatal wenn sie einfach nichts vorher darüber preisgeben.

Ich werde nachher auch versuchen eine FE zu ergattern :D
 
  • Gefällt mir
Reaktionen: MeisterOek, Wichelmanni und th3o
isyyy schrieb:
Nein der Preis ist nicht gerechtfertigt, Nvidia hat sich die Preise Rechtfertige lassen indem die vorherige Generation Teuer verkauft wurde. Scheint zu funktionieren.
Meine Definition von "gerechtfertigt" in einer Marktwirtschaft geht so: Gerechtfertigt ist ein Preis wenn Angebot und Nachfrage zusammenkommen und das Produkt sich absetzt.
Alles andere ist Herummoralisieren und hat mit den Fakten halt wenig zu tun sondern eher was mit den eigenen Wünschen als Konsument. Was ja auch an sich okay ist, sollte man aber nicht zur Allgemeingültigkeit erheben.
Man kann heute ganz entspannt 1080@144hz für einen im vergleich zu High End verschwindend geringen Betrag bekommen. Wenn man halt ganz ganz oben in der Richterskala mitschwingen möchte dann kostet das halt. Hat es schon immer. Willst du einen normalen Golf zahlst du auch weit weniger als für einen Golf R.
Versteh mich bitte nicht falsch, ich finde 1950€ für die 4090 Founders auch viel Geld, echt viel. Das ist für viele Menschen ihr ganzes Netto Monatsgehalt oder gar mehr. Aber ich weiß auch dass Moral oder Gerechtigkeitsempfinden hier schlechte Gradmesser sind zur Evaluation.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: w0wka und BVZTIII
Gerithos schrieb:
Dieser Hinweis ist irrelevant, wie gut der 13900k wirklich perform, weiss man nicht aber man sieht ja das seine Wahl bereits darauf festgelegt ist und bei der gpu genauso. Hier wird nicht gewartet sondern nur das gekauft was man "schon immer gekauft hat" 😉
Und gewählt was man immer schon gewählt hat.
Sonst noch was?
Ah ja und jeden Sonntag schön in die Kirche. Das hat man auch schon immer gemacht.

Hat was von einem Dorf. So kenne ich das zumindest.
 
Max007 schrieb:
300 Watt 113 fps
450 Watt 130 fps

Mit 300 Watt spart man 50% Energiekosten und verliert magere 10%
Man spart 33,3% Energiekosten an der Grafikkarte und verliert 9,1% Leistung. Wobei 130/113 auch 15% mehr bzw. 13,08% weniger FPS sind. So, Klugscheißmodus aus :D

Mich würde mal interessieren, was die 4090 brauchen würde, wenn man sie auf die gleichen FPS wie die 3090ti reduziert. Viel kanns nicht sein :)
 
  • Gefällt mir
Reaktionen: McTheRipper und Affenzahn
th3o schrieb:
Ja, klar, ist mir sehr bewusst dass das Sphären sind wo viele nur den Kopf schütteln.
Das nicht, aber ist halt sehr wenig verbreitet, hehe
Ergänzung ()

zeaK schrieb:
wenn sie einfach nichts vorher darüber preisgeben.
Was sollen sie denn preisgeben? Nvidia hat doch auch kaum was preisgegeben außer diese sinnlose Präsentation und wir werden ja heute sehen was amd vorhat. Rdna 2 war genauso
 
  • Gefällt mir
Reaktionen: th3o
Hat irgendwer getestet ab wieviel Watt Parität zur 3090 herrscht?

Im Luxx sind sie auf 250 Watt runter und die 3090 auf 450 sieht immer noch kein Land.

Rein von den Balken her, könnte das eine 150-180W 3090 sein.

@Wolfgang könnt ihr so nen Test noch nachschieben?
 
  • Gefällt mir
Reaktionen: BVZTIII und th3o
TSMC hat sich das neue fertigungsverfahren vermutlich fürstlich bezahlen lassen.
Nvidia hat sich halt gedacht, wieso nicht die deppen zahlen doch alles, kann ich an meine Kunden weitergeben.
 
Screenshot 2022-10-12 072733.jpg


Die Windforce ist seit gestern verfügbar. Ich warte auf die FE.
 
  • Gefällt mir
Reaktionen: th3o
Pixelkiller schrieb:
TSMC hat sich das neue fertigungsverfahren vermutlich fürstlich bezahlen lassen.
Lt. insider Informationen kostet die 4090 in der Produktion das doppelte der 3090.
Dafür 'nur' 100$ Aufpreis gegenüber der 3090 damals bei der gestiegenen Performance zeigt mir eher dass NVIDIA hier stark unter Druck steht aufgrund der gegebenen weltwirtschaftlichen Lage.
Wir sollten halt auch nicht vergessen dass wir hier 2000€ für die Karte zahlen weil der Euro so schwach ist. Ich denke dass bei einem Preis von 1599€ (wie es der Fall gewesen wäre wenn der Euro wie 2020 wäre) die Preisbeschwerden viel kleiner gewesen wären.
 
  • Gefällt mir
Reaktionen: Maxminator
Mich würde die Lautstärke bei 300 Watt interessieren. Sollte doch deutlich leiser als 40 db sein oder?
 
djducky schrieb:
Mein Gott, man kann sich auch doof stellen. Wir reden hier von minimalst weniger Leistung bei exorbitant niedrigerem Verbrauch. Es spricht absolut nichts dagegen, für die Masse einen vernünftigen "Sweet Spot" einzustellen, statt unnötig Energie durch den Äther zu blasen, was sich bei vielen Einheiten weltweit schnell läppert.
"Doof" stellst anscheinend du dich! Zwischen einer RTX3090Ti und einer RTX3090 liegt weniger Abstand als zwischen einer RTX4090 und RTX4090@300W und du bist der Meinung die RTX4090 quasi mit angezogener Handbremse auszuliefert, wäre genau das Ding was sich die meisten Kunden wünschen würden?

Wie wäre es wenn wir einfach allen Käufern einer 3090Ti, schlichtweg eine 3090 in die Hand drücken würden, zum 3090Ti Preis. Der Umwelt zuliebe natürlich! Am besten stellen wir dann auch gleich jegliche OC Partnerkarten ein, die dann nochmal für 1-2% mehr Leistung 100-300W mehr verbrauchen werden. Wie realitätsfern kann man an dieser Stelle eigentlich denken?

Wer wirklich seine Karte effizient betreiben möchte, der kann es mit einem einfachen Handgriff selbst tut, aber wer Leistung kauft erwartet auch maximale Leistung und nicht eine Karte die im "Sparmodus" ausgeliefert wird. Du kannst dich ja mal gerne im Forum oder sonst wo herumfragen, wer sich statt einem 12900K für einen 12900T entschieden hat und ich glaube kaum, dass du da besonders viele finden wirst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife und Illithide
Viel zu teuer und verbraucht zu viel. Es gab mal eine Zeit, da wurde versucht, dass jede Generation wenigstens nicht mehr verbraucht als die alte. Diese Zeiten sind lange vorbei und bei der heutigen Weltlage fragt man sich, warum eigentlich?
 
  • Gefällt mir
Reaktionen: BassCatBall und Captain Mumpitz
man darf aber auch nicht vergessen, dass man mit einer 3090FE für 700€-800€ bei Ebay auch ein sehr, sehr gutes Preis-Leistungsverhältnis hat!

Wem die 4090 zu viel "verbraucht" sollte das Teil einfach auf 300 Watt laufen lassen und gute +50% FPS einer 3090 haben. Effizienz ist das Schlagwort und diese ist bei 4090 WESENTLICH höher als bei 3090!
PS: besitze selbst eine 3090FE + WaKü
 
iSteven schrieb:
Tia solange der Button nicht geht ist es für mich nicht verfügbar.
Stimmt, hab ich garnicht probiert da keine Lust auf Kinderzimmer-Design
 
'Sascha' schrieb:
verbraucht zu viel. Es gab mal eine Zeit, da wurde versucht, dass jede Generation wenigstens nicht mehr verbraucht als die alte. Diese Zeiten sind lange vorbei
Diese Zeit ist mit der 4090 gerade wieder gekommen wenn du nur willst. Du hast echt die Tests nicht gelesen.
 
  • Gefällt mir
Reaktionen: speedfire2 und Master_Chief_87
Maxminator schrieb:
man darf aber auch nicht vergessen, dass man mit einer 3090FE für 700€-800€ bei Ebay auch ein sehr, sehr gutes Preis-Leistungsverhältnis hat!
Bei so viel weniger Leistung, wenn man weniger Geld zur Verfügung hat wartet man nicht besser auf die kleineren 4XXX?
Ergänzung ()

th3o schrieb:
Diese Zeit ist mit der 4090 gerade wieder gekommen wenn du nur willst. Du hast echt die Tests nicht gelesen.
Sehe ich genauso, wenn das Lesen schwerfällt, hier kann man dazu hören. Mitt etwas TDP Reduzierung kommt man dem Optimum nahe.
 
  • Gefällt mir
Reaktionen: Master_Chief_87 und Cl4whammer!
Gerithos schrieb:
Was sollen sie denn preisgeben? Nvidia hat doch auch kaum was preisgegeben außer diese sinnlose Präsentation und wir werden ja heute sehen was amd vorhat. Rdna 2 war genauso
AMD könnte ja wenigstens etwas teasern - aber komplette Stille verheißt meist eben nichts Gutes. So sehr ich AMD wünsche dass sie auf Augenhöhe konkurrieren können, denke ich dass es dafür noch eine Generation zu früh ist.
Was ja nicht schlimm ist, gibt sicherlich wesentlich mehr Kunden für Karten unter der 4090.
 
  • Gefällt mir
Reaktionen: Recharging
Zurück
Oben