Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

..::Borni::.. schrieb:
1000 € muss am Monatsende schon ĂŒberbleiben zum sparen, investieren oder fĂŒr ne kostspielige Anschaffung.
Bei einem durschnittsverdienst von 2000Euro??
Und den Strom und Heizkosten??

Wie soll das gehen?^^.

Ist nunmal nicht jeder Wissenschafftler.

Und ne andere Arbeit suchen ist auch leichter gesagt als getan,der Markt ist genauso kaputt,wenn ich bei uns gucke,werden doch nur noch billige leiarbeiter geholt,und das zieht sich ĂŒberall durch.



Zur Karte,die Leistung ist schon erstaunlich,aber der Preis,niemals auch wenn ich es hÀtte.

FĂŒr 700/800 Euro wĂŒrde ich weich werden.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Banger
..::Borni::.. schrieb:
Gibt es außer hier im Artikel denn irgendwo ne offizielle Angabe von Nvidia wo wir in DE die FE bestellen können? NBB ist ja noch nichts gelistet.
Da gabs gerade eine E-Mail von Nvidia.
1665538400832.png
 
Blood011 schrieb:
Bei einem durschnittsverdienst von 2000Euro??
Und den Strom und Heizkosten??

Bei glatt 1000€ Ersparnisse im Monat wĂ€re es möglicherweise schon drin, Ersparnisse fĂŒr den Kauf einer Eigentumswohnung zu bedienen, so eine ,,Singlewohnung" mit ~40mÂČ reicht da mir auch.

Auf Kredite bin ich auch nicht scharf. ErgÀnzend zu meinen vorherigen BeitrÀgen, nichts ist auf Kredit, Raten und Pump gekauft. Alle an Hardware gekauft, wenn Geld vorhanden war.
 
Zuletzt bearbeitet:
Banger schrieb:
Auf Kredite bin ich auch nicht scharf. ErgÀnzend zu meinen vorherigen BeitrÀgen, nichts ist auf Kredit, Raten und Pump gekauft. Alle gekauft, wenn Geld vorhanden war
Bei mir halt auch,kaufe nix was ich nicht bezahlen kann..
Raten,da muss es wirklich ĂŒberlebendswichtig sein,aber fĂŒr ne GPU wĂŒrde ich sowas nie machen,schon allein die abfrage immer das ist auf dauer mist,das wird alles gespeichert.
Aber auch da wirds genug Leute gebe,die das machen hauptsache ne 4090 in der Hand^^
 
  • GefĂ€llt mir
Reaktionen: Captain Mumpitz und Banger
Wieso bei den Medien ĂŒberall der Hype? Ist doch fast wie jeder Generationssprung, mal mehr mal weniger.

Mal sehen wann die Ti kommt und wann die Preise unter 2k wandern, vllt. erst nÀchstes Jahr. Oh wir haben ja schon Oktober.

Was wĂŒrdet ihr nehmen, wenn der Preis keine Rolle spielt: Corsair HX1500i - Neuauflage dieses Jahr und ist derzeit in der ATX 3.0 Zertifizierung oder die alte AX1600i?
 
Celinna schrieb:
trotzdem wird morgen um 15.00Uhr bestellt ! :) Hoffe nur bekomme ne Supreme oder Tuf, im Notfall die FE
Behalte sie bloß, ich schau morgen noch nach einer TUF, und dann können wir zur Not tauschen, ich will unbedingt wieder einen FE.
ErgÀnzung ()

firejohn schrieb:
Was wĂŒrdet ihr nehmen, wenn der Preis keine Rolle spielt: Corsair HX1500i - Neuauflage dieses Jahr und ist derzeit in der ATX 3.0 Zertifizierung oder die alte AX1600i?
Warten auf ein Netzteil mit ATX 3.0.
 
Wer meint, dass eine 2000€ Top-of-the-Line Karte von Werk aus auf den "Effizienz-Sweet-Spot" ausgelegt sein sollte, hat auch einfach den Schuss nicht gehört...

Das ist das absolute Vorzeige-Modell der Reihe bzw der Architektur, was im Endeffekt einen Marktanteil von 0,x% haben wird - und ganz bestimmt nicht deswegen gekauft wird, weil die paar Kunden dieser Karte einen gesteigerten Wert auf maximale Energie-Effizienz legen wĂŒrden...
 
Überraschend effizienter als gedacht.
Oh cpu limits nicht beachtete naja dann.
Im schnitt zwischen 40-80% wegen cpu limits
Genau 45tf schnell da der Takt auf stock bei 2,74ghz liegt und das ist die FE
Die KĂŒhler der anderen Hersteller die mal doppelt so groß sind wird da 2,8-2,9ghz werden.
Sofern nicht das tbp limitiert da hat nvidia nen Riegel bei genau 40a gesetzt was in etwa 480w sind.
zwar lĂ€sst sich das auf brechen hinaus auf 612w hochreißen aber nur in spitzen nominell ist man bei 550w limitiert.
Am ende rennt man immer in ein cpu limit.
Derzeit gibt es keine cpu die die rtx4090 voll auslastet selbst in 2160p nicht
In 1440p ist man quasi immer im cpu limit trotz dxr spiele.

Spiele wo man in kein cpu limit kommt kann man an ner hand ablesen.

Was uns zu rtx4080 16gb und 12gb bringt
Anhand der fp32 pro sm ist dies nur noch vom Takt abhÀngig wo diese landen werden

nehme ich bei ad103 2,8ghz an Tendenz eher 3,0ghz was nicht zuletzt an den KĂŒhlern liegen wird. und der tbp von 320w
Kommt diese knapp an 28-30tf an was dann Punktlandung zur rtx3090ti oder +5% bedeutet fĂŒr 1469€
Und die rtx4080 12gb bei 22,1-23,7tf was auch ne Punktlandung zur rtx3080 12gb bedeutet und das fĂŒr 1099€
Da muss nvidia bei den sku ordentlich beim Takt ĂŒber 3,0ghz kommen damit die preise gerechtfertigt sind.

Die Effizienz ist ĂŒberraschend besser als gedacht
Nehme ich den ad104 bei nur 46 bis 52sm an könnte diese bei nur 2,8ghz bei 175w sein
Das wĂ€re wenn diese sku kĂ€me als rtx4060ti unter 450€ meine nĂ€chste gpu.
Bei 46sm ~17-19,2tf und 12gb gddr6 18gbits
Leider hÀngt das stark davon ab was amd mit n33 macht.

LeistungseinschĂ€tzung amd ist schwierig da amd deutlich den Takt gesteigert hat GerĂŒchte spreche von 3,3-3,7ghz beim n31
Das problem wird aber die Kommunikation sein was ich auf 75% load schÀtze =
12288*2*3,7*0,75=68,2tf
theoretisch..... praktisch sehe ich eher 3,0ghz und somit etwa 55,3tf
Wie ich es drehe amd rx7950xt wird schneller sein als nvidia rtx4090

Aus wÀrmedichte heraus sollte amd in etwa gleich schnell sein aber wir wissen die genaue dichte nicht. Nvidia hat derweil klar auf weniger fp32 gesetzt.
Daher sind die angaben nicht zu gebrauchen.
Ada entspricht in etwa der turing Architektur + 2 fp64 die 2 fp32 rechnen dazu.
Es liegt an den reinen sm menge das ada deutlich schneller ist als ampere 128sm vs 84sm
Dazu der gesteigerte Takt und am ende nur in etwa 58% schneller raster. Und in dxr etwa +80%
Damit ist trotz Preis die rtx4090 zu empfehlen aber nur fĂŒr jemanden der strickt dxr und 2160p nutzt
Allen anderen rate ich davon ab

Und die rtx4080 16gb ist besonders schwierig zu Empfehlen da diese gleichschnell wie ne rtx3090ti sein wird. die billiger ist.
Die rtx4080 12gb ist ne Frechheit aktuell wĂ€re das 1099€ vs rtx3080 12gb 839€ fĂŒr dieselbe Leistung dafĂŒr passt der verbrauch von nur 230w vs derzeit 300w

Überraschend effizienter als gedacht aber Preise jenseits der Vernunft.
Achja genau wie von mir prognostiziert ab dem whitepaperlaunch vor 2 Wochen, leider waren meine Prognosen seitens der Leistung deutlich zu hoch bevor das whitpaper öffentlich war.
DafĂŒr ist die Effizienz ĂŒberraschend besser als gedacht.
Leider sind die kosten ein Gegenargument fĂŒrn sku mit dem ad104 um die 450€ zu realisieren.
 
Laphonso schrieb:
Und ich distanziere mich ausdrĂŒcklich davon, denn - wenn Du meine BeitrĂ€ge verfolgst- gerade ich habe mehrfach erlĂ€utert, dass ich nicht obercool und posend aus der Hosentasche eine 4090 als Batteriekauf ansehe sondern seit 2 Jahren gezielt fĂŒr das Hobby spare und meine 3090 verkaufe, um diesen gestörten Preis abzumildern.

Ich schrÀnke mich gezielt ein und verzichte woanders, weil PC Gaming mein Luxus ist.
Das vergessen die meisten, wenn aktuell einen 3090 (TI) hat, und diese verkauft, hat man effektiv einen "kleineren" Aufpreis. Bei mir war es bisher immer so um die 50% zur nĂ€chsten Generation seit der 980 und den Titans. Die 2080TI FE bin ich fĂŒr 650 € losgeworden, und die 3090 FE habe ich fĂŒr 1499 bekommen, sprich 850 € drauflegen, und man ist wieder aktuell. Wenn man das jahrelang so macht, ist der Aufpreis gar nicht so hoch. Die 3090 FE wird noch locker fĂŒr 700-750 € losgehen, dann ist der Aufpreis mit 1200 € an sich nicht so hoch wie mit 2000 €.

Also sind die Kosten fĂŒr permanente AufrĂŒster gar nicht so hoch. Bei mir wirds dieses mal leider so hoch, da ich ja fĂŒr Sohnemann immer eine 3070/3080 FE haben wollte. Nur wenn ich die neu kaufe, bin ich eh bei 600-800 €, und dafĂŒr bekommt er eben die bisherige 3090 FE anstelle seiner 1060 6 GB, und damit "lohnt" sich der Weiterverkauf dann nicht. Sobald dann der i9-13900k rauskommt, verkaufe ich auch hier den i9-12900k nicht weiter, sondern "vererbe" ihn dann auch an Sohnemann. Sprich, der Oktober wird teuer fĂŒr mich.
ErgÀnzung ()

highwind01 schrieb:
Wer meint, dass eine 2000€ Top-of-the-Line Karte von Werk aus auf den "Effizienz-Sweet-Spot" ausgelegt sein sollte, hat auch einfach den Schuss nicht gehört...

Das ist das absolute Vorzeige-Modell der Reihe bzw der Architektur, was im Endeffekt einen Marktanteil von 0,x% haben wird - und ganz bestimmt nicht deswegen gekauft wird, weil die paar Kunden dieser Karte einen gesteigerten Wert auf maximale Energie-Effizienz legen wĂŒrden...
Aber die Karte wird fĂŒr alle Blender und Contentersteller der Hit werden, siehe Links von mir vorher. Die verbesserten Renderzeiten sind krass, und die Anwender werden die Karten aus den HĂ€nden der HĂ€ndler reissen. Zum GlĂŒck sind die Investitionen in Firmen etwas trĂ€ger, und deshalb sollte man wirklich eher jetzt zugreifen. Ich erwarte, daß die 4090 die nĂ€chsten 9-12 Monate Mangelware werden wird, so wie es mit den Ampere Karten auch war. Außer TSMC und Co. kann Nividia die Boardpartner werden mit mehr GPUs und Komponenten versorgt als bei Ampere.
ErgÀnzung ()

Banger schrieb:
Auf Kredite bin ich auch nicht scharf. ErgÀnzend zu meinen vorherigen BeitrÀgen, nichts ist auf Kredit, Raten und Pump gekauft. Alle an Hardware gekauft, wenn Geld vorhanden war.
0% Finanzierung ist doch auch ok. Hab ich bei einer Titan mal gemacht.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: cocolino89
Katzenjoghurt schrieb:
Nene
 nur dass sie da morgen ein Event haben mit Karten, Verlosung und Gedöns und drunter die FE als prototypische 4090. Hatte es grad vorhin nochmal unter der Nase, aber versĂ€umt ‘nen Screenie zu machen.

Hier ist der Screenie. WĂ€re halt interessant wenn die Partnerkarten vertreiben direkt heute.
Screenshot_20221011_203402_Facebook.jpg
 
@Youngtimer

WÀre ich mir jetzt nicht so sicher. War nicht Maxwell (28nm) auf Pascal (16nm) Àhnlich? TSMC hatte damals ja den 20nm Prozess nicht gebacken bekommen und so gab es einen ordentlichen Sprung...

... mal Computerbase Test der GTX 1080 checken...

... jo, das waren im 1:1 Vergleich, also GTX 980 vs. GTX 1080 schon auch +63%, also jetzt nicht ganz unÀhnlich viel :) .
 
  • GefĂ€llt mir
Reaktionen: firejohn und thom_cat
Nettes biest
Hat fĂŒr mich nur n einige harken..

1. Gibt es in WQHD stand jetzt kaum eine CPU die nicht ins Limit lÀuft (selbst die neuen ryzen 7000er)
Also 4k sollte man als Auflösungen schon anvisieren.. ich wollt jetzt eigentlich keinen neuen Monitor kaufen..

2. Netzteil.. 850watt könnte knapp bemessen sein.. könnt aber auch gut gehen solange man bei ca 450-500w bleibt.. bleibt natĂŒrlich das Problem mit den Adapterkabel

3. GehÀuse.. wenn ich mir die Backsteine in den Videos so ansehe könnte es je nach GehÀuse Arsch knapp werden.. mein silent Base 601 könnt schon zu klein sein

4. Das finanzielle..
2000€ sind im Moment einfach nicht drin.. zuviele andere Dinge die momentan wichtiger sind.. Auto/TĂŒV.. Strom.. heizen.. neuer Fernseher weil alter am verrecken..
Ect ect ect

5.
FĂŒr welche Spiele ? Kaum ein Spiel was mich reizt oder ich es im Moment fĂŒr wĂŒrdig erachte von einer 6800xt(WQHD) aufzurĂŒsten wo ich nicht so schon 120-250fps erreiche
 
  • GefĂ€llt mir
Reaktionen: McTheRipper und IHEA1234
ZunÀchst Mal muss ich wieder sagen: Top Test, wie immer. Danke ans CB-Team :)

Zur Karte selbst: es ist gut, dass sich die GerĂŒchte um einen Verbrauch von ca. 600 Watt nicht bewahrheitet haben. Der Verbrauch liegt etwa auf Höhe der 3090 bei ĂŒber 50% mehr Leistung, das ist gut. Ich bin positiv ĂŒberrascht.
Allerdings kann ich hier in eine Ă€hnliche Kerbe schlagen wie beim Test der Ryzen 7000. Wenn man ich ansieht wie schnell die Karte auch gedrosselt auf 300 Watt ist (auch wenn laut Test das PT von 450W eigentlich nie ausgereizt wird), dann bin ich der Meinung, dass sowas in Zeiten von Energiekrise und Klimawandel der Standard sein sollte. Hardware sollte auf maximale Effizienz ausgelegt sein und nicht brachial darauf getrimmt sein in Tests den lĂ€ngsten zu haben. Auch wenn es natĂŒrlich logisch ist, dass weniger Karten abgesetzt werden wĂŒrden, wenn die neue Generation nicht schneller wĂ€re als die alte. Allerdings wĂ€re das hier auch bei gedrosseltem PT immer deutlich der Fall.

Ansonsten kann ich mich @Blackfirehawk eigentlich in jedem Punkt anschließen. Das Ding lohnt sich wirklich nur, wenn man in 4K aufwĂ€rts zocken möchte und man entweder schon ein starkes NT und riesiges GehĂ€use hat oder bereit ist beides neu anzuschaffen und man ĂŒberhaupt bereit ist 2k fĂŒr eine neue Graka hinzulegen.

Ich bin Mal gespannt, wie die Partnerkarten aussehen werden, aber noch mehr, was die kleineren so leisten und wie ausladend diese ausfallen. Auch auf den Konter von AMD mit der RX 7000 bin ich jetzt gespannt, denn das was die RTX 4090 vorlegt ist schon eine ziemliche Hausnummer.
 
  • GefĂ€llt mir
Reaktionen: Alex1966 und Max007
@RogueSix Der Sprung war auch super, Pascal war meine erste und bisher einzige Generation wo ich innerhalb noch mal gewechselt habe. Von 1060 auf 1080 Ti.

Aber bei diesen Karten wurden auch alle Transistoren fĂŒr die Raster-Leistung eingesetzt. Jetzt ist das völlig anders. Die Ada GPU besteht gefĂŒhlt zur HĂ€lfte aus Tensor-Cores die fĂŒr KĂŒnstliche Intelligenz und Deep Learning zustĂ€ndig sind. Nutzt man diese, sehen vorherige Karten kein Land mehr.

DLSS3_2.jpg
 
ZurĂŒck
Oben