2500€ ist ein üppiges budget
dafür bekommt man was ordentliches
4K allerdinsg schränkt die gpu wahl stark ein
da wä#en rx6900xt rtx3080ti rtx3090
laut tpu tabelle istd as von einer einsteigerchip rtx3060 rx6600 +116 und 102%
Wobei die rtx3090 und rtx3080tu 2% trennt 114 vs 116%
Wieso mein vergleich zum einsteioger gpu
Diese ist i etwa die leistung der ps5 bzw xsx
Da die beiden konsolen so ziemlich die orientierung der nächsten Jahre bei games sind in amx settings. Durch die abwärtskompa auf ps4 pro und xbonex ( etwa gtx1060 rx580 level untere Grenze)
Erstere ist ziel bei 1440p und 60fps zweitrere 1080p und 60fps teils 30fps
Durch test weiß uch das dies auch so zutrifft
Im schnitt bei gtx1060 games von 2016-2021 76fps 1080p
rtx3060 im schnitt 125fps 1080p
Nheme ichd as an
Sind mit der rtx3090 dann in rasterleistung ideal ohne cpu limit was bei 1080p oft zutrifft
270fps
Da 4k genau ein viertel der leistung an fps rauskommt sieht das so aus
rtx3090 270/4=67,5fps
rtx3080ti 267,5/4 =66fps
rx6900xt 250fps /4=62,5fps
Folgklich ist die cpu hier die bremse
dazu das schnellste ci9 12900k
vergleichbar etwa 7% langsamer r9 5900x
dann daz diese feetig PC die Sin machen
https://geizhals.de/?cat=sysdiv&xf=...=at&hloc=de&plz=&dist=&mail=&sort=p&bl1_id=30
Wie ,man sieht nix unter 3000€ mit der wunschkonfig
Nun alternativen rx6800xt +186%=217fps =54fps in 4k
rx6800 +162% =202fps= 50fps
rtx3080 +191%=238=59fps (hier kann es zu vram bedingte limitierungen geben)
https://geizhals.de/?cat=sysdiv&v=e...X+6800+XT~11289_03+05+16+-+RTX+3080~445_32768
Selbst konfigs sieht es schlechter aus da kommt man über eine rtx3070ti oder rx6700xt nicht hinaus mit glück schafft maneine rtx3080
Alle diese gpu sind suboptimal für 4k
Diese pc sind für 1440p ideal
Cpu limits nun das ist ein thema unter 1440p tritt das ab einer rtx3070 auf
DXR allgemein ist illusorisch in 4k daher ist hier das maß FHD rtx3090 im schnitt bei 65fps-80fps
RTX3080 = 57-70fps
FHD in dxr auf 4k entspricht dlss leistung
daher sind dxr auf 1440p mit dlss auf Qualität die Lösung selbst bei ner rtx3090
FHD vs wqhd -33% an fps
raster in rtx3090 im schnitt bei 178fps
rtx3080 157fps
dxr =42fps 1440p
dxr mit dlsss q +33% =56fps 1440p
Da dlss nicht überall Anwendung findet in dxr spielen sollte man ohne berücksichtigen daher ist dxr derzeit keine Option.
nettes feature aber kein muss.
Die fps sind aber stark spielabhängig ein metro exodus ee oder control vs farcry 6 sind welten bei den fps
Wobei fc6 kaum bis keine Einbußen mit dxr hat (-15%) schlägt control mit bis zu -50% und metro exodus ee -75% zu
Allerdings sind das auch dann die wahnsinnig Einstellungen (über ultra) Ohne aa
Zu dxr Selbst die Technik dahinter macht viel aus insbesondere globale Beleuchtung und reflexionen profitieren weniger die schatten
Siehe Sottr oder far cry 6
Gut angewendet wie in control oder metro exodus ist das ein Muss
Ansonsten kann man beruhigt nur auf die raster Leistung sehen.
amd sieht in dxr kein Land es geht aber, ist deutlich schwächer als bei nvidia min um ein drittel langsamer.
Ausblick der ist gut nur dauert es noch bis rtx4000 (q1 /2 2023) und amd rdna 3 rx7xxx q1 2023 kommt.
vermutete leistung des ad104 (äka rtx4090 120sm 50tf)
amd n32 mit 160cu =51tf
1sm = 128 fp32/16 einheiten
1cu = 64 fp32 einheiten
Fertigung 5nm tsmc vermutlich -20% Größe bei amd und bei nvidia -50%
vermutlich Energie effizient bei amd -10% bei nvidia -40%
Warum man von 500-600w tbp ausgeht nun das liegt an dem mcm design und nvidia angst vor dem rückstand mit dem ineffizeinten großen chip in 5nm
Der vollausbaui hat 144sm und 708mm²
In 5nm wafer vermutlich 25% yield dann nur 24 gesunde chips
Das das nicht als vollausbau kommt ist klar der etwas kleinere ad104 mit 120sm misst 59 gute Dies Annahme von 50% yield
Das Problem ist das tsmc 5nm max Taktraten bei etwa 3ghz liegen und nvidia vermutlich bis zu 2,5ghz prügeln wird ideal laufen die chips auf 2,0-2,2ghz mit besagten -40% weniger strom
360w bei ad102
und bei ad104 300w
Ein 5nm wafer kostet nvidia 20 000$
Die uvp der rtx4090 müsste bei 1999€ sein
120sm 24gb gddr6x etwa 2,2ghz =50tf 1,008 tbyte/s
heftigst bandbreiten limitiert daher vermutlich hbm2e (2048bit) mit 16gb oder 32gb etwa 2,5tb/s
Nur der ad106 könnte mit gddr6x kommen mit 200w tbp und 2,2ghz als rtx4070 33tf
da der chip 192bit hat wird das eng 504gb/s mit 10240 shader
ich glaube zwar nicht das nvidia hier 256bit umsetzen wird 672gb/s
aber da wäre das min für 80sm
Ein großes si ab 384bit wäre unklug aber auch nur logisch mit 1008gb/s
Ich kann mir nicht vorstellen das nvidia so ein Flaschenhals machen wird somit sind hbm2e quasi gesetzt mit 1024bit ad106 bis 2048bit ad104 Anbindung macht dann bei 1,2ghz hbm2e=1228gb/s-2456gb/s
Außer nvidia haut doch noch gddr7 raus. Womit ich nicht rechne
Wie nvidia auf amd mcm gpu reagieren liegt allein an amd release pläne für ihre sku wird es mcm am desktop geben wird nvidia auf die tbp tube drücken und 500w tbp als Standard bringen für high end
Wird amd lediglich den monolithen bringen n33 in 80 72 und 60cu bei 3,0ghz wird nvidia in der Effizienz gewinnen.
Das hängt zusammen den die sku können schnell angepasst werden.
Was kümmert dich das nun................ Planung
Derzeit würde ich keine gpu oberhalb der rtx3070 kaufen wenn in 1440p oder sogar nur fhd gespielt wird
In 4k hat man keine Wahl da ist die einzige Lösung die rtx3090 Sinnvoll aber unter 3500€ Komplett pc preis nicht drin.
Dein budget ist 2500€ und somit sind nur rtx3080 und die rx6800xt eine option wenn verfügbar.
Letztere ist in 4k besser da mehr vram.
Nur findest derzeit kaum was eine rtx3080 ist weder für 4k fisch noch Fleisch
Die rtx3080 ist ideal für 1440p so wie die rtx3070 ist und die rtx2080ti war
Es hängt also davon ab wie dein tv am besten interpoliert
FHD für dxr oder 1440p in raster upscaling aber nativ würde ich dir ans herz legen
Wenn der Tv aber nur FHD kann bei 55 zoll sehr grob dann reicht aber eine rtx3060ti völlig
Da kommt man langsam in ein cpu limit problem bei allen diesen gpu's
Fazit neuer monitor ab 32 zoll 1440p mit einer rtx3070 und nen r9 5900x
dann passt das budget wieder den tv als zweitmonitor an die wand
Aber das musste selber wissen