womit auch bei
N4P oder
N4X nahezu sämtliche Leistungszugewinne über eine verbesserte Architektur, eine höhere Leistungsaufnahme oder aber einen offensiveren
DLSS-Einsatz gestemmt werden müssten.
Nein.
Einfach nein.
DAS Mittel der Wahl, welches seit Jahrzehnten den Fortschritt treibt, ausgerechnet in einer Computerpublikation wegzulassen ist erstaunlich.
Moore's Law
Leistungsaufnahme ist im Endeffekt nur ein Produkt aus Architektur, Größe und Takt, insofern korreliert das natürlich.
Aber DAS was seit JAHRZEHNTEN dafür sorgt dass unsere smartphones mittlerweile mehr Rechenleistung haben als Supercomputer der 90er, sind Transistoren.
Sieht man gut an Apple Silicon, deren RISC-CPUs sehr breit aufgestellt sind um somit auch bei relativ niedrigem Takt hohe Rechenleistung zu bieten.
nVidia geht seit Jahren, mit der 4000er Serie (abseits der 4090) sehr extrem, den anderen Weg: immer kleinere SoCs die teilweise sehr weit oberhalb ihres sweetspots laufen. Die community feiert es dass die GPU mit 300W statt 400W ohne merkliche Leistungsverluste betrieben werden kann, aber eigentlich zeigt es nur wie nVidia kalkuliert - Transistoren kosten wafer-Fläche, das kostet Marge.
Was muss nVidia machen um die nächste Generation schneller werden zu lassen?
Mehr Transistoren.
Breitere Speicheranbindung.
Mehr shader, mehr ALUs.
Dann benötigt es auch keinen neuen Fertigungs-node.
Als Vergleich mal die Chips von 3060Ti und 4060Ti nebeneinander gestellt.
https://www.topcpu.net/de/gpu-c/geforce-rtx-3060-ti-vs-geforce-rtx-4060-ti-8-gb