Botcruscher schrieb:
Wirklich lustig ist eher das Verhältnis der Recheneinheiten. Ich sehe da einen Trend zur wirtschaftlichen "Optimierung".
3070 -> 3090TI Faktor 1.83
4070 -> 4090 Faktor 2.78
5070 -> 5090 Faktor 3.4
Naja, weil es natürlich immer mehr kostet einen größeren Chip herzustellen, als einen kleineren.
Die Hersteller geben die Kosten an die Kunden weiter, täten sie das nicht, würde niemand GPUs in dieser Größenordnung produzieren und entwickeln wollen.
CPUs sind gemessen an der Chipfläche und dem Beiwerk einer GPU (PCB, Kühler, Anschhlüsse, Lüfter etc.) viel teurer, aber die Leute kritisieren immer nur GPU Preise. Verstehe ich nicht.
Schau dir die Preise der Threadripper CPUs an. Die haben auch eine Größe von 850mm² und kosten irrwitzige 9999 Dollar.
Botcruscher schrieb:
Eine hypothetische 5060 mit 20% der Einheitenzahl des Topchips hätte man früher Abfall genannt und die wäre nicht mal als lowend "macht Bild" Karte durchgegangen.
Zwischen 3070 und 3090 Ti liegen rund 70% mehr Leistung laut CB in 4K.
Zwischen 4070 und 4090 liegen rund 80%, also werden zwischen 5070 und 5090 wahrscheinlich 90% liegen, also viel weniger als die reinen Rechenkerne vermuten lassen.
Natürlich könnte Nvidia mehr Speicher auf den kleineren Modellen verbauen, würde aber dann AMD und Intel keine Luft zum Atmen lassen, bzw. sich eigene Margen dann kaputt machen.
Irgendwo muss man AMD auch noch Argumente lassen, ansonsten werden sie kein Interesse mehr daran haben High End Produkte anzubieten.