Bei Turing gibt es pro SM dagegen 64 FP32-Einheiten und zusätzlich 64 weitere INT32-Einheiten, die damit zwar nicht so flexibel (und oft) einsetzbar sind, aber exklusiv für Integer-Berechnungen genutzt werden und daher die FP32-Einheiten nicht blockieren. Laut Nvidia kommen in modernen Spielen im Durchschnitt auf rund 100 Floating-Point-Berechnungen 36 Integer-Aufgaben.
Wenn die Aufteilung etwa 1:3 ist, warum wurden dann die Einheiten 1:1 genommen? Müssten damit die INT32-Einheiten nicht teilweise brachliegen?
Und wozu dann nicht gleich den Vollausbau?
Bei dem Preis hätte ich den Vollausbau erwartet. Abgesehen davon, sind ja auch RT-Cores gesperrt, welche für ein besseres Raytracing hätten genutzt werden können.
Ich bezweifel, dass AMD da jetzt schnell einen Hammer gegen setzen kann, der ein zurückhalten deswegen rechtfertigen würde.
Und wie soll dann der Vollausbau preislich gerechtfertigt werden?
Für eine RTX2080TI-mine-is-bigger dann 1400+ € verlangen?
Ansonsten bin ich eigentlich weniger auf das Raytracing gespannt, dafür kostet das zu viel Leistung, auch wenn es ansich nicht schlecht sein mag. Auch DLSS interessiert hier weniger, wenn das für ein paar ausgewählte Spiele verfügbar ist.
Interessant wird für mich ein Vergleich zwischen den Generationen, also 2080TI vs 1080TI, 2080 vs 1080 und 2070 vs. 1070. Vor allem bei Spielen, die Raytracing nicht unterstützen.
Edit: Und auch wie sich die neuen Karten dann gegen AMD mit Vega 64 schlagen wäre interessant zu wissen.