mibbio schrieb:
AMDs Weg hätte aber den Vorteil, dass Recheneinheiten zur allgemeinen Performance beitragen können, wenn kein Raytracing berechnet werden muss oder kann die Leistung generell flexibler aufteilen. Bei Nvidia liegt ohne Raytracing (oder DLSS) die Leistung der RTX Cores ja mehr oder weniger brach.
Kann ein Vorteil aber auch ein Nachteil sein, denn wenn Raytracingberechnungen durchgeführt werden müssen, können diese auch nichts anderes Berechnen. Auf dem Papier musst du dich also entscheiden, welchen Nachteil das im spiel macht, wissen wir stand heute nicht. Wir wissen auch nicht, wie effizient und schnell die RTX Berechnungen der TMUs im Vergleich zu den RTX Cores von Nvidia ist. Und auch die angepassten TMUs werden entsprechend ein paar zusätzliche Transistoren benötigen, um beide Berechnungen durchführen zu können.
Beide Ansätze haben da auf dem Papier Ihre Vorteile, aber auch Ihre Nachteile. Das Ergebnis muss man abwarten und kann man nicht abschätzen.
Herdware schrieb:
Hätte Nvidia den Platz auf den Chips, den Tensor- und RTX-Cores einnehmen, für klassische Recheneinheiten genutzt, sähe die Performance der Turing-GPUs ganz anders aus. Oder sie wären deutlich billiger, wenn die spezialisierten Cores ganz gegelassen würden und die Chips entsprechend kleiner wären.
Die Tensorcores sind wohl eine der besten Investitionen in Chipfläche seit langem. Sieht man ja teils sehr schön bei DLSS, wo man trotz vergleichbarer Qualität 30-100% Mehrleistung aus dem Chip bekommt, ohne extreme leistungsaufnahmen. Denn man hat damit am Ende auch eine extreme Effizienz.
Natürlich kann man so einen riesigen Chip auch nur mit Recheneinheiten vollpacken. Das hat aber ziemliche Nachteile. Je mehr Recheneinheiten, umso schwerer sind diese auszulasten. Zum anderen Steigt die Leistungsaufnahme extrem. Eine Custom 2080Ti liegt schon gerne mal bei deutlich über 300 Watt. Hätte man die Fläche der Zusatzfunktionen für Shader verwendet und das gleiche Taktniveau gehalten, dann wären wir irgendwo bei um die 500 Watt angelangt.
Gleichzeitig wäre man zwar in klassischen Spielen etwas schneller, aber man käme nicht an Die Leistung von DLSS in entsprechenden Spielen heran.
Die Chips wären günstiger, dass stimmt. Aber Turing wird in einem günstigeren 12nm Prozess gefertigt, der pro Flächeneinheit nur etwa die Hälfte von TSMCs 7nm Prozess kostet. Man kann also im Grunde etwa die doppelte Chipfläche pro Preisklasse wie die Konkurrenz bringen.
Gleichzeitig sind die Chips mit den Zusatzfunktionen so mehrfach verwendbar. RTX Cores und Tensor Cores sind nicht nur für Spieler interessant. Sie sind für professionelle Anwender sogar noch viel interessanter und so kann man den gleichen Chip sowohl in einer Spielerkarte, als auch in Professionellen produkten verwenden. Das spart am ende auch Geld, womit es wohl auch der günstigste Weg ist.