syfsyn
Admiral
- Registriert
- Nov. 2010
- Beiträge
- 8.341
Zitat loevlace wäre sehr effizient auf 7nm
Tun es auch aber nvidia prügelt das maximale raus was derzeit 2,4ghz sind bis 2,5ghz wären drin wenn nvidia nicht die volle shrink Möglichkeit genutzt hätte
Was derzeit 40% vs 8nm sind oder 30% vs 7nm
Da es einen ampere in 7nm gibt (ga100) kennen wir die wärmedichte und packdichte
Und tsmc 7nm ist etwa 18% denser
ich gehe vom maxed 70% der größe aus vs 7nm bei gleicher shader menge beim ga100 wären das 754mm² vs ad102 527mm²
Da aber bekannt ist das ad102 zusätzlichen cache bekommt wird der chip 15% größer also am ende 606mm²
Energie effizient bei gleichen Takt -30%
das wird ausgegeben für den Taktansteig von 15%
ergibt dann 400*0,7*1,15=322w bei 1,5ghz
Durch die größer Fläche 606mm² erkauft man sich etwa 15% an Takt. = 377w und dann oc man den chip ans maximum vermutet werden 1,15v was jenseits des sweetspot von vermuteten 2,0ghz sind (1,09v bei 370w)
an leistung mangelts nicht 144*2*96*2=55tf oder mit brechstange dann 66tf
Das wäre die leistung bei ampere architektur mit vermuteten 112 fp32 alu pro sm sind es 77tf
ideal wären 128 fp32 das aber bedingt zu viel chipfläche und käme mit 30% größer so aber ist die Größe auf nur 7% reduziert die andern 8% sind der cache
ampere hat
64fp32 dedizierte Einheiten
64 int32 dedizierte Einheiten
32 fp64 dedizierte Einheiten die 32fp32 können
Änderung ist das 48 fp64 vorhanden sind und 48 fp32 ausführen
ergibt dann 112 alu in einen sm
Der Rt core bleibt sowie die tensor core identisch
Die alternative wäre da die 32 fp64 doppelte mad haben könnten was die Formel komplizierter macht 4 operationen fp32 sprich 64*2+32*4=256 gflops pro sm oder 128*sm count
Das aber wäre ein hitzestau vorgeplant und der Takt müsste massivste gesenkt werden (usprüngliches tesla design von 2006 2 fp32 zwei mad operationen und eine fp64 mit 4 operationen macht faktisch sm *3
Dies trift auch bei bei so eine design zu
sprich aus 144sm *128*2,4*2=88tf tendenziell hitzestau daher maxed 1,8ghz 66tf
Die andere lösung wäre effizienter wo 112sm dann 2 mad ausführungen macht
Und käme auf 77tf ohne takt keule käme man auf 67tf und etwa 450w
Das nenn ich mal Verzweiflung auf biegen und brechen gegen eine preisenkung
Den amd wird wen die mcm kommen am desktop ab 2500€ kosten und den einstieg mit etwa 45tf unter 700€
Dazwischen käme eine sku mit 1700€ zwei n33 mit 36wgp und vermutlich 77tf
nvidia hofft das amd nicht den n31 nutzen wird mit 60wgp für etwas um die 3000€
Dagegen hat nvidia nix entgegenzusetzen da dieser chip bei 100tf wäre.
Darum glaube ich auch nicht das amd den n31 am desktop bringen wird.
n32 mit glück ab 1699€ und 1499 mit 36wgp und dann den kleinsten 24wgp mit 2 n33 chips auf 6nm vermutlich 999€
Das alles ist technisch umsetzbar bei einer marge von 70% wenn amd den vram in die bom legt.
Was sehr wahrscheinlich ist
Derzeit kosten 1gb gddr6 16gbits bald 18gbits 6$
Allerdings sind das keine samsung sondern hynix chips micron fällt raus da der gddr6x nvidia exklusiv ist
darum auch keine preise einsehbar die letzte info war 9$ pro gb im januar.
Die 2gb module sind kaum taktstabil und rar darum kommt keine rtx3070ti 16gb
Selbst die rtx3090ti wird zum einhorn werden mit dem gedachten 12 2gb chips daher gehe ich von nen Platinen design bei 24 1gb gddr6x bei 21gbits aus.
auch der Grund warum die gpu sich verspätet.
Von 19,5gbits auf 21gbits ans maximum getaktete gddr6x
bringen mit 84sm dann +5%-8%
Darum halte ich diese gpu für völlig sinnlos. Und das bei ner tbp von 450w
Die nächste gen ist ans limit getaktet. Dabei könnte lovelace sehr effizient sein
ad104 60sm 48 aktiv 120w wären drin für 399€ als rtx4060 mit 8gb gddr6 16gbits ~21tf
Nur wird intel dies verhindern wenn arc780 mit 19tf bei 299€ kommt und diese auch abliefert.
Woran ich aber zweifle vermutlich wird man nur beim level der rtx3060ti (13tf) landen was 25% langsamer wäre vs rtx3070
Und bei arc 780 4096 alu vs ad106 36sm=4032 alu
man hinge dann 40% hinter nvidia ad106
Der nebenbei als rtx4050ti 18tf mit 349€ wäre intel müsste die gpu bei 249€ antreten lassen
Bliebe nur amd n33 cut 12wgp
sprich 3072 alu mit 2,1ghz*3 als ziel was dann bei 19tf und 449€ kommen wird.
Das intel im einstiegs bereich chips bringt tut allen gut das reduziert zwar die vram menge bei amd n22 und cut n33 aber man könnte als rx7600xt 15tf 289€ und rx7700xt 19tf 449€ gegenhalten
Das bedingt aber das intels arc 780 (299€ 16gb) die theoretischen 19tf auch auslasten kann.
bisherige test der xe igp waren etwa 15% langsamer bei gleicher alu menge und Takt.
Das ist rein software bezogene leistungsverluste sprich Treiber.
achja nvidia berechnungen der fp32 sind falsch dies sind fp16 leistung umrechnung in fp32 habe ich erklärt.
Das passiert wenn marketing über technische angaben genutzt werden.
Die tf formel hat sich seit 2006 mehrmals geändert wird aber in vergleichen nicht angepasst pro generation,
darum kann man der tabelle der tf angaben und leistungs einschätzung nicht glauben man muss die arch betrachten
Grundlegen stimmt die theoretische leistung aber durchaus. man muss nur ein Nenner festlegen
Die Speicherbandbreite ist auch je Jahr andere Forderungen haben
Wo 2006 noch 60gb/s reichten für 1600*1200 sind es heute bei 1080p min 200gb/s notwendig.
Tendenz steigend ich gehe von 375gb/s bis 2024 aus.
Darum sind die tf angaben schwierig an games zu testen da sich der Nenner ändert
nehme ich die bandbreite raus und generalisiere diese kommen die leistungsunterschiede bei tf gut raus.
wenn nicht muss ich gpu anhand der aktuellen spiele generation vergleichen das beinhaltet tf und bandbreite. gegen andere gpu
Darum wird eine gpu zu 100% und der rest darunter. abzüglich cpu limit was gpu load entspricht.
So werden heutige Test bei gpu gemacht ist aber generell ungenau und kann sich jedes Jahr ändern weswegen auch gpu vergleiche jedesmal unterschiedlich sind.
Ein genereller teraflops vs fps zu bandbreite vergleich wäre besser nur hat noch keiner ein Programm geschrieben was diese in zahlen ausgibt.
Was auch einen Grund hat die api ist das eine die game engine das andere und diese sind in der regel nicht gpl.
Darum setzen auch die Konsolen die standards quasi ersatz für die planung von spielen
ps5 derzeit 448gb/s 1440p etwa 10tf
xsx derzeit 560gb/s 1440p etwa 12tf
Offen was demnächst standard (bis 2024) wird für 1080p vermutung abzüglich der 30% vs 1440p 300gb/s-375gb/s mit 22-30tf
Also 350gb/s womit dann fsr bzw dlss Pflicht wird bei gpu unter 300gb/s bandbreite und die Auflösung bis ans limit von 720p upscaled ist
Das ist das Schicksal aller Einstiegs gpu bis zur rtx3050 und rx6500xt hinab 720p dlss performance auf 1080p
Weil an ansonsten bei der bandbreite nicht mithalten kann alternative wäre Reduzierung der texturgröße und Sichtweite.
Was die optik stark verschlechtern wird.
Was vergleichbar wäre mitn gpu aus dem Jahr 2009 und spielen von 2016 abseits fehlenden buffer nicht mehr lauffähig wenn diese auch 1gb vram hätte.
Selbst meine alte 9800gtx+ ~706gflops läuft noch die 512mb an vram sind aber deutlich zu klein.
Spiele bis 2010 sind aber drin danach wirds schwer bis gar nicht möglich
damaliger standard xbox 360 512mb ram etwa 240 gflops
Die gtx460 1tf 2010 hat 1gb vram und da ist erst ab 2014 Schluss quasi kurz nach release der ps4
die gtx760 2gb hat ihr limit ab 2016 erreicht 2,5tf,damals als vergleich die ps4 mit 1,9tf
Die gtx1060 6gb 5tf wird es etwa ende 2022 sein.
derzeit standard ps4 pro xbone x mit etwa 5tf
Die rtx3060 12gb wird es ab 2026 sein etwa 9,6tf
Bis 2024 mit ps5 und xsx bei 10-12tf beide etwa 12gb vram nutzbar.
8gb werden ab 2023 eng ohne dlss oder fsr nicht nutzbar. und das bei raster spielen auf 1080p
Kommende Konsolen gen vermutete 2024 ps5 pro ~23-30tf basis 1440p 768gb/s gddr7 32gbits mit inf cache
16wgp 2,4ghz
Das mal als Hinweis wohin die Anforderungen ab 2025 sein werden für 1080p etwa 20tf mit etwa 500gb/s
folglich wechsle ich die gpu ab 2024 mit der rtx50 serie und gddr7 96bit 32gbits=384gb/s+40% cache zusatz bei gpu clock +120gb/s =504gb/s bei 48sm und 25tf
Das bedingt aber 3nm sonst wird es teuer.
High end interessiert nur am Rande würde nvidia nicht die Konkurrenz fürchten wäre lovelace extrem effizient wie gesagt der ad104 mit 256bit und theoretiche 20tf bei 116w
wird aber real etwa 275w brauchen da man ans maximum oc wird. derzeit sind 2,3ghz angepeilt.
Der cut müsste etwa 15% weniger brauchen 218w das wird aber nicht die rtx4060 sondern die 4060ti
Die rtx4060 ist der ad106 mit 32sm 2,2ghz und etwa 16tf bei 175w
Sku preis etwa 389€ ohne intel konkurrenz mit 8gb vram und 128 bit wäre es noch schlechter aber man käme auf etwa 299€.
Als upgrade etwas zu wenig da hier noch 18gbits vram genutzt wird mit 128bit
Für 2025 und min 500gb/s reicht das nicht.
Mit gddr7 wäre das problem aber weg
Das aber ist unklar daher gehe ich davon aus das ad106 also rtx4060 nicht vor ende q2 2023 kommt.
dann wären 504gb/s mit 16tf drin
Und eine fasst klare Empfehlung
Der ad104 wäre aber zu bevorzugen 256it 32gbits=1024gb/s mehr als ausreichend
Wahrscheinlicher ist aber gddr6 24gbits von hynix 768gb/s
ich werde mit hoher Wahrscheinlichkeit die rtx40 seire überspringen und erst bei der rtx50 serie einsteigen von amd bin ich nicht abgeneigt aber bisher sprach alles dagegen.
Da ich auch retro gamer bin und die Treiber bei nvidia traditioneller besser sind in dem Bereich.
Leidgetragender gcn Nutzer gewesen am laptop. 5cu 384 gflops oft limitiert auf 16gb/s und das merkt man effektiv nur 200 gflops nutzbar.
Häufige Bildfehler bis Darstellungsfehler in games da der amd Treiber dies verkackt hat. besonders unterhalb von dx9
ogl generell langsamer und Falschdarstellung.
Ob das mit rdna2 besser ist keine Ahnung aber ich werde bald dies prüfen mitn r7 6800u laptops . Wenn diese mal kommen .
Davon hängt es ab ob ich amd ein dgpu am desktop in Betracht ziehen werde. Was dann rdna4 ab 2024 sein wird.
Solange das nicht klar ist bleibt es nvidia zu der zeit rtx5060 23tf mit gh107 und vermutlich 5 gpc = 6720 fp32
3nm etwa 177mm² vermutlich 12gb gddr7 96bit 32gbits 8$ ~439€ bei 120w mit 2,3ghz
+504gb/s effektiv
ideale gpu bis zur Taktexplosion 2028 (änderung an dem transistor an sich und taktraten bis 4ghz gpu clock und 8ghz cpu clock).
Was Cpu angeht da sieht es auch rosig aus ipc steigerung
2022 +35% zen4 5ghz allcore vs zen3
2023 +50% zen4d vs zen3
2024 +75% zen 5 vs zen3
Fazit gpu Leistung sprung Einstiegsbereich
2022 +60%
2024 +120%
1440p wird ab 2024 Pflicht für die 60er klasse von gpu von nvidia.
DXR allerdings wird dies verhindern. Sofern man stärker darauf designen wird aber bis zu ps5 pro sehe ich das nicht kommen.
So nebenbei meine rtx 3060 kämpft in 1080p dxr ohne dlss um die 40fps bei den derzeitgen dxr injektionen die genutzt werden.
Ohne dlss also kaum nutzbar.
Dabei muss gesagt werden das dies nur die tripple a spiele sind. (bsp cyberpunk 2077 psycho settings, watch dogs legion, metro exodus ee extrme setimgs,control)
Andere kommen auf etwa 60fps ohne dlss mit wenig bis keine wirklichen kosten maxed 15% bsp bei dying light 2 ~52fps vs 60fps
Ähnlich sieht es in fc6 aus cpu limitiert 65fps vs 75fps
Es werden immer mehr dxr spiele kommen später Vorzugweise in UE5 und unity
Bin selber gespannt wann sony au den dxr zug aufspringt und uns mitn horizon forbidden west am PC beglückt
Und andere PS Klassiker wie etwa komplette ratched and clank series oder olle shooter neu aufgelegt wie killzone und black.
mal wieder etwas mehr detail zum sound wäre gut
aber wir immer es geht nach Spiel trends und das ist Multiplayer wo man kräftig angeben kann.
bevorzugt natürlich bezahlte Angeberei. Siehe free to pay
Tun es auch aber nvidia prügelt das maximale raus was derzeit 2,4ghz sind bis 2,5ghz wären drin wenn nvidia nicht die volle shrink Möglichkeit genutzt hätte
Was derzeit 40% vs 8nm sind oder 30% vs 7nm
Da es einen ampere in 7nm gibt (ga100) kennen wir die wärmedichte und packdichte
Und tsmc 7nm ist etwa 18% denser
ich gehe vom maxed 70% der größe aus vs 7nm bei gleicher shader menge beim ga100 wären das 754mm² vs ad102 527mm²
Da aber bekannt ist das ad102 zusätzlichen cache bekommt wird der chip 15% größer also am ende 606mm²
Energie effizient bei gleichen Takt -30%
das wird ausgegeben für den Taktansteig von 15%
ergibt dann 400*0,7*1,15=322w bei 1,5ghz
Durch die größer Fläche 606mm² erkauft man sich etwa 15% an Takt. = 377w und dann oc man den chip ans maximum vermutet werden 1,15v was jenseits des sweetspot von vermuteten 2,0ghz sind (1,09v bei 370w)
an leistung mangelts nicht 144*2*96*2=55tf oder mit brechstange dann 66tf
Das wäre die leistung bei ampere architektur mit vermuteten 112 fp32 alu pro sm sind es 77tf
ideal wären 128 fp32 das aber bedingt zu viel chipfläche und käme mit 30% größer so aber ist die Größe auf nur 7% reduziert die andern 8% sind der cache
ampere hat
64fp32 dedizierte Einheiten
64 int32 dedizierte Einheiten
32 fp64 dedizierte Einheiten die 32fp32 können
Änderung ist das 48 fp64 vorhanden sind und 48 fp32 ausführen
ergibt dann 112 alu in einen sm
Der Rt core bleibt sowie die tensor core identisch
Die alternative wäre da die 32 fp64 doppelte mad haben könnten was die Formel komplizierter macht 4 operationen fp32 sprich 64*2+32*4=256 gflops pro sm oder 128*sm count
Das aber wäre ein hitzestau vorgeplant und der Takt müsste massivste gesenkt werden (usprüngliches tesla design von 2006 2 fp32 zwei mad operationen und eine fp64 mit 4 operationen macht faktisch sm *3
Dies trift auch bei bei so eine design zu
sprich aus 144sm *128*2,4*2=88tf tendenziell hitzestau daher maxed 1,8ghz 66tf
Die andere lösung wäre effizienter wo 112sm dann 2 mad ausführungen macht
Und käme auf 77tf ohne takt keule käme man auf 67tf und etwa 450w
Das nenn ich mal Verzweiflung auf biegen und brechen gegen eine preisenkung
Den amd wird wen die mcm kommen am desktop ab 2500€ kosten und den einstieg mit etwa 45tf unter 700€
Dazwischen käme eine sku mit 1700€ zwei n33 mit 36wgp und vermutlich 77tf
nvidia hofft das amd nicht den n31 nutzen wird mit 60wgp für etwas um die 3000€
Dagegen hat nvidia nix entgegenzusetzen da dieser chip bei 100tf wäre.
Darum glaube ich auch nicht das amd den n31 am desktop bringen wird.
n32 mit glück ab 1699€ und 1499 mit 36wgp und dann den kleinsten 24wgp mit 2 n33 chips auf 6nm vermutlich 999€
Das alles ist technisch umsetzbar bei einer marge von 70% wenn amd den vram in die bom legt.
Was sehr wahrscheinlich ist
Derzeit kosten 1gb gddr6 16gbits bald 18gbits 6$
Allerdings sind das keine samsung sondern hynix chips micron fällt raus da der gddr6x nvidia exklusiv ist
darum auch keine preise einsehbar die letzte info war 9$ pro gb im januar.
Die 2gb module sind kaum taktstabil und rar darum kommt keine rtx3070ti 16gb
Selbst die rtx3090ti wird zum einhorn werden mit dem gedachten 12 2gb chips daher gehe ich von nen Platinen design bei 24 1gb gddr6x bei 21gbits aus.
auch der Grund warum die gpu sich verspätet.
Von 19,5gbits auf 21gbits ans maximum getaktete gddr6x
bringen mit 84sm dann +5%-8%
Darum halte ich diese gpu für völlig sinnlos. Und das bei ner tbp von 450w
Die nächste gen ist ans limit getaktet. Dabei könnte lovelace sehr effizient sein
ad104 60sm 48 aktiv 120w wären drin für 399€ als rtx4060 mit 8gb gddr6 16gbits ~21tf
Nur wird intel dies verhindern wenn arc780 mit 19tf bei 299€ kommt und diese auch abliefert.
Woran ich aber zweifle vermutlich wird man nur beim level der rtx3060ti (13tf) landen was 25% langsamer wäre vs rtx3070
Und bei arc 780 4096 alu vs ad106 36sm=4032 alu
man hinge dann 40% hinter nvidia ad106
Der nebenbei als rtx4050ti 18tf mit 349€ wäre intel müsste die gpu bei 249€ antreten lassen
Bliebe nur amd n33 cut 12wgp
sprich 3072 alu mit 2,1ghz*3 als ziel was dann bei 19tf und 449€ kommen wird.
Das intel im einstiegs bereich chips bringt tut allen gut das reduziert zwar die vram menge bei amd n22 und cut n33 aber man könnte als rx7600xt 15tf 289€ und rx7700xt 19tf 449€ gegenhalten
Das bedingt aber das intels arc 780 (299€ 16gb) die theoretischen 19tf auch auslasten kann.
bisherige test der xe igp waren etwa 15% langsamer bei gleicher alu menge und Takt.
Das ist rein software bezogene leistungsverluste sprich Treiber.
achja nvidia berechnungen der fp32 sind falsch dies sind fp16 leistung umrechnung in fp32 habe ich erklärt.
Das passiert wenn marketing über technische angaben genutzt werden.
Die tf formel hat sich seit 2006 mehrmals geändert wird aber in vergleichen nicht angepasst pro generation,
darum kann man der tabelle der tf angaben und leistungs einschätzung nicht glauben man muss die arch betrachten
Grundlegen stimmt die theoretische leistung aber durchaus. man muss nur ein Nenner festlegen
Die Speicherbandbreite ist auch je Jahr andere Forderungen haben
Wo 2006 noch 60gb/s reichten für 1600*1200 sind es heute bei 1080p min 200gb/s notwendig.
Tendenz steigend ich gehe von 375gb/s bis 2024 aus.
Darum sind die tf angaben schwierig an games zu testen da sich der Nenner ändert
nehme ich die bandbreite raus und generalisiere diese kommen die leistungsunterschiede bei tf gut raus.
wenn nicht muss ich gpu anhand der aktuellen spiele generation vergleichen das beinhaltet tf und bandbreite. gegen andere gpu
Darum wird eine gpu zu 100% und der rest darunter. abzüglich cpu limit was gpu load entspricht.
So werden heutige Test bei gpu gemacht ist aber generell ungenau und kann sich jedes Jahr ändern weswegen auch gpu vergleiche jedesmal unterschiedlich sind.
Ein genereller teraflops vs fps zu bandbreite vergleich wäre besser nur hat noch keiner ein Programm geschrieben was diese in zahlen ausgibt.
Was auch einen Grund hat die api ist das eine die game engine das andere und diese sind in der regel nicht gpl.
Darum setzen auch die Konsolen die standards quasi ersatz für die planung von spielen
ps5 derzeit 448gb/s 1440p etwa 10tf
xsx derzeit 560gb/s 1440p etwa 12tf
Offen was demnächst standard (bis 2024) wird für 1080p vermutung abzüglich der 30% vs 1440p 300gb/s-375gb/s mit 22-30tf
Also 350gb/s womit dann fsr bzw dlss Pflicht wird bei gpu unter 300gb/s bandbreite und die Auflösung bis ans limit von 720p upscaled ist
Das ist das Schicksal aller Einstiegs gpu bis zur rtx3050 und rx6500xt hinab 720p dlss performance auf 1080p
Weil an ansonsten bei der bandbreite nicht mithalten kann alternative wäre Reduzierung der texturgröße und Sichtweite.
Was die optik stark verschlechtern wird.
Was vergleichbar wäre mitn gpu aus dem Jahr 2009 und spielen von 2016 abseits fehlenden buffer nicht mehr lauffähig wenn diese auch 1gb vram hätte.
Selbst meine alte 9800gtx+ ~706gflops läuft noch die 512mb an vram sind aber deutlich zu klein.
Spiele bis 2010 sind aber drin danach wirds schwer bis gar nicht möglich
damaliger standard xbox 360 512mb ram etwa 240 gflops
Die gtx460 1tf 2010 hat 1gb vram und da ist erst ab 2014 Schluss quasi kurz nach release der ps4
die gtx760 2gb hat ihr limit ab 2016 erreicht 2,5tf,damals als vergleich die ps4 mit 1,9tf
Die gtx1060 6gb 5tf wird es etwa ende 2022 sein.
derzeit standard ps4 pro xbone x mit etwa 5tf
Die rtx3060 12gb wird es ab 2026 sein etwa 9,6tf
Bis 2024 mit ps5 und xsx bei 10-12tf beide etwa 12gb vram nutzbar.
8gb werden ab 2023 eng ohne dlss oder fsr nicht nutzbar. und das bei raster spielen auf 1080p
Kommende Konsolen gen vermutete 2024 ps5 pro ~23-30tf basis 1440p 768gb/s gddr7 32gbits mit inf cache
16wgp 2,4ghz
Das mal als Hinweis wohin die Anforderungen ab 2025 sein werden für 1080p etwa 20tf mit etwa 500gb/s
folglich wechsle ich die gpu ab 2024 mit der rtx50 serie und gddr7 96bit 32gbits=384gb/s+40% cache zusatz bei gpu clock +120gb/s =504gb/s bei 48sm und 25tf
Das bedingt aber 3nm sonst wird es teuer.
High end interessiert nur am Rande würde nvidia nicht die Konkurrenz fürchten wäre lovelace extrem effizient wie gesagt der ad104 mit 256bit und theoretiche 20tf bei 116w
wird aber real etwa 275w brauchen da man ans maximum oc wird. derzeit sind 2,3ghz angepeilt.
Der cut müsste etwa 15% weniger brauchen 218w das wird aber nicht die rtx4060 sondern die 4060ti
Die rtx4060 ist der ad106 mit 32sm 2,2ghz und etwa 16tf bei 175w
Sku preis etwa 389€ ohne intel konkurrenz mit 8gb vram und 128 bit wäre es noch schlechter aber man käme auf etwa 299€.
Als upgrade etwas zu wenig da hier noch 18gbits vram genutzt wird mit 128bit
Für 2025 und min 500gb/s reicht das nicht.
Mit gddr7 wäre das problem aber weg
Das aber ist unklar daher gehe ich davon aus das ad106 also rtx4060 nicht vor ende q2 2023 kommt.
dann wären 504gb/s mit 16tf drin
Und eine fasst klare Empfehlung
Der ad104 wäre aber zu bevorzugen 256it 32gbits=1024gb/s mehr als ausreichend
Wahrscheinlicher ist aber gddr6 24gbits von hynix 768gb/s
ich werde mit hoher Wahrscheinlichkeit die rtx40 seire überspringen und erst bei der rtx50 serie einsteigen von amd bin ich nicht abgeneigt aber bisher sprach alles dagegen.
Da ich auch retro gamer bin und die Treiber bei nvidia traditioneller besser sind in dem Bereich.
Leidgetragender gcn Nutzer gewesen am laptop. 5cu 384 gflops oft limitiert auf 16gb/s und das merkt man effektiv nur 200 gflops nutzbar.
Häufige Bildfehler bis Darstellungsfehler in games da der amd Treiber dies verkackt hat. besonders unterhalb von dx9
ogl generell langsamer und Falschdarstellung.
Ob das mit rdna2 besser ist keine Ahnung aber ich werde bald dies prüfen mitn r7 6800u laptops . Wenn diese mal kommen .
Davon hängt es ab ob ich amd ein dgpu am desktop in Betracht ziehen werde. Was dann rdna4 ab 2024 sein wird.
Solange das nicht klar ist bleibt es nvidia zu der zeit rtx5060 23tf mit gh107 und vermutlich 5 gpc = 6720 fp32
3nm etwa 177mm² vermutlich 12gb gddr7 96bit 32gbits 8$ ~439€ bei 120w mit 2,3ghz
+504gb/s effektiv
ideale gpu bis zur Taktexplosion 2028 (änderung an dem transistor an sich und taktraten bis 4ghz gpu clock und 8ghz cpu clock).
Was Cpu angeht da sieht es auch rosig aus ipc steigerung
2022 +35% zen4 5ghz allcore vs zen3
2023 +50% zen4d vs zen3
2024 +75% zen 5 vs zen3
Fazit gpu Leistung sprung Einstiegsbereich
2022 +60%
2024 +120%
1440p wird ab 2024 Pflicht für die 60er klasse von gpu von nvidia.
DXR allerdings wird dies verhindern. Sofern man stärker darauf designen wird aber bis zu ps5 pro sehe ich das nicht kommen.
So nebenbei meine rtx 3060 kämpft in 1080p dxr ohne dlss um die 40fps bei den derzeitgen dxr injektionen die genutzt werden.
Ohne dlss also kaum nutzbar.
Dabei muss gesagt werden das dies nur die tripple a spiele sind. (bsp cyberpunk 2077 psycho settings, watch dogs legion, metro exodus ee extrme setimgs,control)
Andere kommen auf etwa 60fps ohne dlss mit wenig bis keine wirklichen kosten maxed 15% bsp bei dying light 2 ~52fps vs 60fps
Ähnlich sieht es in fc6 aus cpu limitiert 65fps vs 75fps
Es werden immer mehr dxr spiele kommen später Vorzugweise in UE5 und unity
Bin selber gespannt wann sony au den dxr zug aufspringt und uns mitn horizon forbidden west am PC beglückt
Und andere PS Klassiker wie etwa komplette ratched and clank series oder olle shooter neu aufgelegt wie killzone und black.
mal wieder etwas mehr detail zum sound wäre gut
aber wir immer es geht nach Spiel trends und das ist Multiplayer wo man kräftig angeben kann.
bevorzugt natürlich bezahlte Angeberei. Siehe free to pay