Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Ampere: PCB einer mutmaßlichen „GeForce RTX 3090“ abgelichtet
Ich bin natürlich von der aktuellen Serie ausgegangen und nicht von einem 6 Jahre alten NT das es praktisch nicht mehr zu kaufen gibt. Hätte schon dadurch klar sein sollen, dass es vom alten 10er gar keine 550W und 650W Versionen gibt.
Ich nehme an, Nvidia liefert mit den neuen Karten die ersten 8k-Gamingfähigen Karten ab. Zumindest was die 3090 betrifft. Das hier so viele über die angeblichen 350W jammern versteh ich auch nicht. Ist das zuviel? Dann begrenzt es einfach im Afterburner auf euren Wunschverbrauch. Sollte jeder hinkriegen...mit allen Vor- und Nachteilen!
Angenommen nvidia würde sich DLSS noch einmal vorknöpfen und angenommen sie würden die Jitter/Samplezahl und Akkumulation erhöhen, also mehr Rechenleistung in die Rekonstruktion des Bildes stecken und der Auswertung der Bewegungsvektoren investieren, dann wären die 8K auch mit einer 2080TI bereits (gut) möglich.
Durch KI und moderne Bildabtastungs- und Rekonstruktionsverfahren wird so etwas wie eine rein physische Brutforce- Rasterauflösung bald der Vergangenheit angehören. Das in Kombination mit einem erweiterten, intelligenteren variable rate shading oder auch hier einem akkumulierenden oder interpolierendem shading und schon verlieren Auflösungen ihren schrecken.
Was man aus DLSS 2.0 gelernt hat ist, dass das einzige wovon man (noch) in Sachen Bildrekonstruktion seine Finger lassen sollte, die Texturverarbeitung ist.
Durch KI und moderne Bildabtastungs- und Rekonstruktionsverfahren wird so etwas wie eine rein physische Brutforce- Rasterauflösung bald der Vergangenheit angehören. Das in Kombination mit einem erweiterten, intelligenteren variable rate shading oder auch hier einem akkumulierenden oder interpolierendem shading und schon verlieren Auflösungen ihren schrecken.
Weia, dazu müßte die Rechenleistung aber noch erheblich gesteigert werden. Nochmal, Imagination ging vor Jahren von 50GFLOPs minimum für eine einzige Szene aus. Und die redeten von FP32. Rasterizing wird noch eine Weile leben. Und ich denke schon, daß Nvidia sich nochmal DLSS vornehmen wird. Ist es doch das, was sie im Consumerbereich von den Konkurrenten unterscheidet. DXR werden wohl bald alle unterstützen.
Raytracing wird ja aus genau dem Grund nicht mit FP32-Shadern, sondern den spezialisierten RT-Cores berechnet.
Bei UHD und 60fps bist du bei einer halben Milliarden Primärstrahlen pro Sekunde, das kriegt die 2080TI mit ihren 10GRays/s schon locker hin. Mit zukünftigen Optimierungen für Sekundärstrahlen und Anti-Aliasing wird man das schon flüssig hinkriegen.
Zusätzlich hängt Raytracing nicht vom Takt ab. Du kannst einfach per Node-Shrink die doppelte Anzahl Einheiten darauf loslassen und kriegst (ohne Bottleneck beim Speicher) die doppelte Leistung.
Hoffe die 22-24GB Speicher GPU kommen um die gleichen Preise wie jetzt auch, dann müssen die ganzen Freaks ihre dann schrottigen S 2070-2080TI "Schrottkarten" verkaufen weil mit 8GB kommt man ja nicht weit.