Ist ja abenteuerlich das einige glauben mit uv mehr takt zu bekommen.
Seitdem amd und nvidia die auto OC in ihren treiber und gpu eingebunden haben ist quasi manuelles Oc komplett sinnfrei man kann das nur noch mit den vorgaben vom Tool des treibers/amd treiber sogar intrigiert nvidia die bekannten tools wie afterburner und co oc oder stromsparen
Da aber uv immer mit dem pt zusammenhängt lässt sich so der maxed takt ermitteln
Wer aber glaubt dann mit nur 80% PT dann maximalen takt erreicht wird enttäuscht so geht das nicht
manuelles eingreifen in die vcore tabelle im vbios kann man sich gleich sparen in software resultiert das dann zu irreführende angaben.
In hardware blockt der treiber das gilt bei amd sowie nvidia.
Einzige lösung um die effizienz des chips festzustellen pt herunter standard clock belassen
Dann erkennt man wie weit am die gpu oc kann. mit 20% pt erhöhung bevor eine wand kommt. Die zusätzliche energie aufwand faktor 1,33 oder mehr sollte man aber beachten bei ner rtx3090 die schon ab werk am limit ist
Lässt sich das nur nur durch hardware mod oder viel glück beim chip was herausholen
Die 375-400w PT sind eine mauer und der vram frisst alleine 34w und wie vom mir gesagt wird der 3090ti 2gbits chips habe und der strombedarf halbiert also nur noch 17w
Das bringt mehr w an die gpu was dann bis zu 5% bringen wird bei 25% mehr strom bedarf
Vom tbp 450w ausgehend wäre das 275*1,44=413w bei 1,20v und dann 2,1ghz bis man beim power limit ankommt.
Was bringt das maximal vs jetzt 10% wovon 5% wegen der shader und 5% wegen des taktes.
und ich gehe vom optimum aus das 275w bei 1,85ghz und 275w chip zieht
Da hier der vollausbau etwas effizienter unterwegs ist (wegen chipqualität)
Natürlich können da hier und da 1-2% mehr oder weniger sein.
Wie gesagt die rx6900xt kommt der rtx3090 zu nah was definitiv ein cpu limit besteht.
Nur mit was testen wo man kein cpu limit hat 8k?
ich sehe keine chance das ab dieser gpu klasse irgendwas bring zu oc selbst in 4k bringt das nix
ich würde eher die gpu auf 90% pt setzen und hoffen das der ga102 auf 1,8ghz mit nur noch 250w zieht. bei angenommenen 1,1v was bei 1,9,ghz dann in 300w resultiert
laut dieser rechnung kommt der ga102 auf maxed 1,12v bevor das pt limitiert=344w+34w vram
ich gehe von nen sweetspot von 1,75ghz bei 227w aus+34w vram
Aber die gpu load wäre hier sehr interessant.
womit testen das ist die frage stabilität das übliche timespy und port royal
Eventuelll heaven benchmark (sehr temp fordernd) das sind aber nur indizien für stabilität
UV ist sehr schwer herauszufinden mit mit @stocks Settings Takt und 80PT und beobachten ob der takt sinkt hat man ne indiz wie weit man oc kann gibt chips die sind so schlecht das sogar bei 90% pt schon der takt sinkt.
aber auch chips die erst ab 70% PT der takt sinkt
Was man dann maxed Oc an 100mhz pro 10% versuchen kann.
Diese methode wirkt und ist zumindest stabil als auf gut rate mal vcore und takt anzuheben.
Maximal 3-5% wie zuletzt bei mir lohnt das nicht die samsung 8nm node läuft schon vom fabrik aus am limit.
idealtakt bei samsung 8nm ist 1,7ghz alles darüber wird zum quadrat ineffizienter
Das sehe ich allein an meiner rtx3060 1,8ghz 1,1v=165w vs 1,7ghz 1,05v = 135w
So gesehen ist die 8nm Fertigung in sweetspot nur 10% schlechter als tsmc 7nm am limit getaktet
Was bei 5nm tsmc bis 50% effizienter oder 30% mehr takt, dann in 40% effizeienter oder 30% mehr takt für nvidia lovelace resultiert.
Da ich an 3,0ghz gpu nicht glaube wird vermutlich 15% takt und 20% effizienter werden.
1,95*1,15=2,24ghz und 264w chip bei 80sm
geht nvidia den harten Weg also volle 30% takt dann sind es gleichbleibende 330w für chip und dann 2,53ghz
Da ad106 mit 80sm sicher sind ist das anzunehmen wäre aber dumm sofern nvidia sich dazu entscheidet am desktop nur den ad106 zu bringen was Herstellungstechnisch Sinn macht +20% leistung für dann 999€ uvp
Und das bei derzeitigen kosten von 20k $ wafer und 13$ pro gb an gddr6+ 24gbits an 16 chips =768gb/s
Ein 384bit Si wäre möglich ist aber unsinnig dann wäre es besser mit 1150gb/s
kein wunder das lovelace kein ad107 bekommt.
Und nvidai stattdessen auf 6nm ampere refresh setzen wird ab 2023 +10% effizienz +15% takt. = im schnitt 15% schneller
Modelle sehe ich so
rtx quadro AD (ad104 vollausbau) 120sm 500w tbp hbm2e +71% 4000€ aufwärts 64gb vram
rtx titan ad ad104 100sm 450w tbp mit hbm2e +42% ~1800€ vermutlich 32gb vram
rtx 4090 ad106 +20% vs rtx3090 preis bei 999-1199€ am limit getaktet 375w 2,53ghz
rtx 4080 ad106 72sm preis bei 699€-799€ gleich schnell wie die rtx3090 +20% zur rtx3080 275w 2,24ghz
rtx4070 ad106 unklar 60sm -20% zur rtx4080 etwa gleichschnell wie die rtx3080 ~599€ 12gb vram 235w 2,24ghz chiptakt
rtx4060ti ga104 refresh in 6nm 539€ +100% vs rtx3060 8gb vram 2,07ghz chiptakt.
rtx4060 ga104 38sm in 6nm +60% vs rtx 3060 8gb vram 2,07ghz chiptakt 479€
rtx4050ti ga106 28sm +15% vs rtx3060 349€ 6gb vram
Das Hauptproblem sind die immensen vram kosten diese müssen sinken auf dann hoffentlich 1gb für 6$
Dann sehen die preise auch besser aus.
rtx 4060ti 539€ 16gb vram statt 8gb
rtx4060 419€ 8gb vram
rt4050ti dann mit 12gb vram 349€
Ihr seht der Ausblick ist nicht rosig entweder nvidia scheisst auf die Effizienz was dann zu immensen tbp führt, wir reden hier von 550w und 450w tbp (ad 104 und ad106)
Und den kleineren sku gleichbleibende verbrauch von 250 und 165w (ga104, ga 106)
Das aber hängt primär davon ab ob amd den mcm am desktop bringt Darum erwarte ich auch einen release der lovelace arch bzw ampere refresh arch erst nach amd release der rx7xxx (rdna3) Serie.
Eine sku hat man schnell in der firmware angepasst ~4 Wochen release in dann 12 Wochen
Was derzeit zwischen q4 2022 und q2 2023 sein wird.
Das Thema hängt zusammen und wie von mir angedeutet das CPU limit wird zum Problem.
schon jetzt zeigt dieser Test das wir selbst in 4k im cpu limit hängen