Ebu85
Seitens AMD gibt es doch kaum offizielles und das hier ist ein "größerer" Leak seit langem, den man halbwegs wahrnehmen kann und zu den ersten Leaks, die tatsächlich an Wert haben auch nicht widersprechen.
Siehe erster Leak damals mit OpenVR, wo die Karte 17% schneller war, als 2080TI OC und der Leak aus Asien (Foundery nahe, anzunehmen) bezüglich 505 mm^2 Chip. Würde man den Hochrechnungen von 3D Center nämlich glauben, müsste eine 80 CUs große GPU kleiner ausfallen.
Kurz, eine Erwartung kann zu einer Enttäuschen führen, aber anzunehmen, dass RDNA 2 nur 2080TI erreicht, wie so einige hier meinen, halte ich dann doch eher für das untere Ende. Klar, kann es aber auch eintreten.
Man muss aber auch bedenken, dass RDNA1 laut CB die selbe IPC wie Turing hat. Der TU102 (2080TI) hat 72 SM zu je 64 ALUs, was ja der selbe Wert ist wie bei den CUs, ebenfalls 64 Shaders, So gesehen hat RDNA2 bereits mehr CUs. Auch mehr Takt und eben (vermutlich) höhere IPC, sonst könnte man nicht von 50% bessere Watt Performance erwarten, was ich ihnen aber auch glaube, denn die 50% hatte man mit RDNA zu GCN sogar erreicht (sogar etwas übertroffen).
Ich erwarte jetzt nicht, dass es eine 3080 oder 3090 wird, aber ich erwäge es als möglich, dass man wie IgorLab es sagt, dass man die 3070 durchaus schlägt, dabei nicht wesentlich mehr verbraucht (eben da der Chip größer ist im Vergleich zu den verwandten Chip der 3070) aber auch etwas schwächer als die 3080/3090, weil im Vergleich der Chip größer ist.
Somit nüchtern gesagt, erwarte ich mir mindestens das RDNA1 zu Turing Verhältnis, nur dass man dieses mal nicht nur einen Mittelklasse Chip hat, sondern auch einen Chip drüber. Kann man da wirklich noch von Hyper-Train sprechen ?
Übertrieben wäre es, AMD schlägt die 3090 mit weniger Verbrauch ^^ Aber wenn das passiert, dreht sich das Platt sowieso deutlich, egal ob da noch einige DLSS rufen. Denn klar das ist n Mega Feature, aber es ist auch gehyped. Denn auch wenn NV an einem allgemeinen Algorithmus für die Adaption in weitere Games arbeitet, ist es noch ein erheblicher Aufwand und NV muss starke Ambitionen verfolgen, das durchzudrücken. Und bisher ist ihnen in der Vergangenheit solche Ein-Weg Lösungen nicht mehr gelungen. Cuda war der letzte große Software-Hardware-Standard, denn sie durchgedrückt haben (erfolgreich). GSync ist ein Beispiel für die beste "Hardware. Lösung". Wenn man aber bedenkt, dass man AMDs Alternative kostenlos bekommt, sobald die Schnittstelle das unterstützt.
Und so ähnlich wird es bei AMD Alternative zu DLSS vermutlich (wenn überhaupt) auch aussehen. Konsolen benötigen solche Algorithmen und man hatte bereits bei den Vorgänger klügere Upscaler und CO gesehen. Auch MS und Sony werden da weitere Bemühungen und Generationen haben.
Da auch NV ML Schnittstelle von MS unterstützt und teils mitgewirkt hat. Diese in Konsolen hineinfliest, spricht vieles dafür, dass hier ein Standard bezüglich AA kommen könnte und in DX direkt eingebettet wird.
Und MS selbst ist ein etwas größeres Kaliber als NV und hat durchaus was Software angeht etwas zu sagen. Wo wir weiters zu Streaming kommen. MS wird auch hier mit AMD zusammenarbeiten, damit Streaming verbessert wird und dazu wird man ebenso neben Kompression vermutlich AI-Ähnliche Techniken entwickeln.
NV ist eine super Firma, wenn es um KI geht. Aber sie sind neben MS, Facebook, Amazon und viele andere eben nicht die einzige Firma. Und es gibt auch Hürden für DLSS, welches ich meine. DLSS funktioniert gut für Spezialwerte/Titel, aber Studios müssen trotzdem extra an Ressourcen und Aufwand investieren, damit ein Gamer mit NV Karte dann grafisch am PC eine Vorteil hat. Und als Studio kann man sich durchaus die Frage stellen, ob man das finanziell dann für jedes Spiel stemmen will. Es hat schon ein Grund wieso DLSS aktuell nur bei gewissen Games vorhanden ist und übrigens zufällig auch jene Games vorzeige Titel für die 3000RTX sind.
Mein Tipp also, es wird schon noch was "allgemeines" kommen, ich erwarte es mir von MS. Einen offener Standard, wie bei RT, Tessellation und co. Aber natürlich nicht so effizient, aber eben redundanter von den Studios einsetzbar und auch allgemein für NV, AMD Karten aber auch Konsolen anwendbar.
cypeak
Laut Konsolen speziell XBOX X Serie, von der man die Chipgröße und Daten weiß, müsste Big Navi auch kleiner sein als 505 mm^2. Somit kann was hinter dem Cache stecken (klar ist ein Gerücht). Es scheint auf alle Fälle eine Lücke zu geben, welche Spekulationen zulässt.
PS: Wenn es nach mir geht, interessiert mich sowieso nur das Battle der 3070 vs einer AMD Konkurrenzkarte. Einfach weil ich auch kein Bock habe, falls ich mir überhaupt eine neue Karte gönne, mehr als 500 Euro ausgeben. Das höchste der Gefühle waren bisher 400 Euro.