Notiz GPU-Gerüchte: AMD Navi 21 mit 80 CUs auf Basis von RDNA2

@ZeroZerp woher kommt eigentlich das ursprüngliche Bild mit extrem hoher interner Auflösung, was sich dann DLSS zu nutze macht? Die KI Muss ja auf Daten zugreifen und die können sie ja schlecht aus irgendeiner Cloud streamen. Das wäre viel zu langsam und die Datenmengen zu groß. Da die spiele aber auch keine 500 GB groß sind frage ich mich grad wo diese intern berechneten Bilder eigentlich herkommen.
 
PS828 schrieb:
Die KI Muss ja auf Daten zugreifen und die können sie ja schlecht aus irgendeiner Cloud streamen. Das wäre viel zu langsam und die Datenmengen zu groß. Da die spiele aber auch keine 500 GB groß sind frage ich mich grad wo diese intern berechneten Bilder eigentlich herkommen.
Derzeit liefert nividia den inferencing- Datensatz mit den Treibern zusammem aus.

Und der inferencing- Datensatz ist wiederum die Essenz des Trainings der KI im nvidia Rechenzentrum mit extrem hochaufgelöstem und mit 32x-64x Supersampling versehenen Basismaterial.

LG
Zero
 
Ah okay, danke dir. Schon spannend wie AMD das ganze lösen wird.
 
@ZeroZerp wie verhält sich das inzwischen mit den einzelnen Karten? War es nicht anfangs so, dass DLSS nicht für jede RTX-Karte in jeder Auflösung verfügbar war? Und wird der Algorithmus auch für frühere Titel verbessert?
 
@[wege]mini Mir ist bekannt, dass man beim Hochskalieren keine Details wiederbekommen kann wo keine sind. Darum geht es aber bei Echtzeitgrafik nicht und darum ging es noch nie. Da geht es immer um den besten Kompromis aus Leistung und Optik, die einigermaßen plausibel ist. Und ob jemandem im Spiel und in der Bewegung die besseren Details bei einem DLSS-bearbeiteten Bild auffallen, sofern die Umsetzung entsprechend ist, ist dann nochmal eine ganz andere Frage.

@ZeroZerp Technische Möglichkeiten und bisherige Implementierungen sind natürlich zwei Paar Schuhe, die Anzahl der DLSS-Implementierungen bis jetzt ist aber ziemlich sicher mit dürftig zu bezeichnen; und wenn man nach Dir geht auch die Qualität dieser mit einer einzigen Ausnahme. Das mag eine ganz tolle Idee sein, aber das ist für einen Benutzer völlig egal, wenn die Umsetzung aus welchen Gründen auch immer nicht wirklich besser ist als bestehende Lösungen, die außerdem einfacher und schneller einzusetzen sind.
 
  • Gefällt mir
Reaktionen: v_ossi und LukS
bigfudge13 schrieb:
Eine Verdoppelung wäre ja 16 GB. Und AMD geizt ja schon bei der 5600 XT mit Vram, das ruft bei mir nicht gerade Euphorie hervor.
Nun ja ich bezog mich dabei auf Nvidia, sprich 22-24GB für das Topmodell und 16GB für 70er/80er Karten und wenn AMD dann in einer der Klassen zu finden ist sollte sie auch so viel anbieten, deswegen schätze ich mindestens 16GB. Mal schauen, ob ich recht behalte, ist nur eine Vermutung.
 
Angenommen Navi 21 bohrt das Speicherinterface auf 384bit und wechselt von 14GBps auf 16GBps Speicherchips, dann wären es 70% mehr Speicherperformance im Vergleich zu Navi 10. Das ist das maximum an Leistung was raszuholen sein wird.

Damit sind es 20-30% über der 2080Ti.

nVidia kocht genauso mit Wasser und wenn sie nicht auf 512Mbit/s wechseln wird das auch die Leistungsklasse der 3080Ti. Ein 512 Interface wird sich schon platztechnisch schwer ausgehen.
 
Rage schrieb:
Technische Möglichkeiten und bisherige Implementierungen sind natürlich zwei Paar Schuhe, die Anzahl der DLSS-Implementierungen bis jetzt ist aber ziemlich sicher mit dürftig zu bezeichnen;
Ja- Alles vor Control war eine herbe enttäuschung und ich denke, dass ich nicht der einzige war, der sich die Frage gestellt hat, was die von nvidia geraucht haben, als sie DLSS vorgestellt haben.

und wenn man nach Dir geht auch die Qualität dieser mit einer einzigen Ausnahme.
Die Umstellung von DLSS wurde mit Control in die entscheidende Richtung entwickelt.
https://www.nvidia.com/en-us/geforce/news/dlss-control-and-beyond/
Mit deliver us the moon verbessert und in Wolfenstein Youngblood sieht das ganze jetzt richtig gut aus.

Eine gewisse Lernkurve muss man neuen Technologien schon zugestehen.

Das mag eine ganz tolle Idee sein, aber das ist für einen Benutzer völlig egal, wenn die Umsetzung aus welchen Gründen auch immer nicht wirklich besser ist als bestehende Lösungen, die außerdem einfacher und schneller einzusetzen sind.
Dem Benutzer ist aber auch völlig egal, wie was umgesetzt wird, wenn die Lösung besser aussieht und schneller läuft.

Das hier wäre dann wohl die für AMD interessante Variante:
https://www.pcgameshardware.de/Rade...ia-DLSS-Alternative-Machine-Learning-1273319/

LG
Zero
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Zum Vergleich:

RTX 2070 aka TU106 hat aktuell 2304 Shader, 256Bit SI - 8GB
RTX 3070 aka GA104 hätte dann 3072 Shader, 256 Bit SI - 8GB

RTX 2080 aka TU104 hat aktuell 2944 Shader, 256 Bit SI - 8GB
RTX 3080 aka GA103 hätte dann 3840 Shader, 320 BIT SI - 10GB

für sich stimmig. Denkbar dass der GA103 hier ein Teilaktiver Chip ist und eigentlich 384 Bit SI bietet.
Der GA102 hätte dann ggf statt 60 SM 72 SM, also 4608 Shader und 386 Bit SI - würde damit quasi einem Shrink des TU102 entsprechen.

Anzunehmen dass man noch eine Variante darüber findet die eventuell wieder auf HBM setzt.

Mir kommen die Zahlen etwas klein vor angesichts 7nm. Da würde ein Big Navi darüber liegen.

So recht traue ich einem GA103 Braten noch nicht, zumal noch nie ein 103er Chipsatz aufgemacht wurde, soweit ich mich zurueck erinnern kann.

Natuerlich koennte man einen solchen einfuehren, nur ist nVidia doch zu einem gewissen Grad ein Gewohnheitsverein und wuerden die Kosten explodieren, denn man hat ja seit jeher eigentlich den 104er Vollausbau fuer eine 80er Karte einer nVidia GPU-Generation verwendet und ebenso die abgespeckte 104er Version fuer eine 70er Karte (Turing faellt mit dem TU-106er fuer die Vanilla RTX 2070 da natuerlich arg aus der Reihe, aber Ampere wird evt. auch wieder eine 2-Jahreskarte wie Maxwell oder Pascal werden und nicht wie Turing oder Kepler im Folgejahr refreshed, denn das rechnet sich mehr (zumal ich davon ausgehe, dass nVidia Ampere ein ausreichendes Leistungspolster vor AMD/RTG Navi-RDNA2 bleiben wird und deutlich erfolgreicher als Turing werden wird).

Turing brauchte auch den "Super" Refresh, damit nVidia noch halbwegs die Turing Vanilla Karten absetzen konnte, die aufgrund von dem Vaporware-RTX-Feature zur Veroeffentlichung und den zu hoch angesetzten Preisen im Vergleich zu Pascal relativ bleiern nach anfaenglichen Early Adopter und Fan-Kaeufen in den Haendlerregalen lagen.

Ich gehe also persoenlich von GA-104 Vollausbau in Form einer RTX 3080 aus mit 384Bit SI und 12 GB, wobei der GDDR6 hoeher getaktet sein duerfte (bspw. mit 16 GB/s, laut Micron sollen ja bis zu 20GB/s moeglich sein) als beim GA-104 fuer eine RTX 3070 mit gleichem SI, die ebenfalls auch 12 GB aber bspw. mit nur 14GB/s bekommen koennte (weil 8GB selbst fuer nVidia mit Blick auf die Kartenleistung und RT-Raytracing zu sehr limitieren wuerden) und weil sie relativ guenstig den GDDR6-Speicher eingekauft haben.

Die evt. ein knappes halbes Jahr spaeter anstehende RTX 3080Ti mit beschnittenem GA-102 wuerde dann ein 512 Bit SI bekommen und volle 16GB (weil AMD mit Sicherheit ebenfalls 16 GB bei Big Navi aufbieten wird) GDDR6 Speicher getaktet auf 16GB/s (an 18GB/s oder 20GB/s glaube ich noch nicht, zumal das eine Option fuer den GA-102 Vollausbau/RTX Titan Nachfolger sein koennte).

Das waeren so meine relativ unspektulaeren Glaskugelvisionen/-einschaetzungen zu den 7nm (EUV?) Ampere Ober- und Enthusiastenklasse-GPUs ;)

… was Shader und verbesserte RT- und Tensoren-Kerne bei den Ampere-Chips angeht, tappe ich eher im dunkeln und lasse mich ueberraschen und auch was AMD/RTG mit RDNA2 als Gegenstueck auf Anhieb aus dem Hut zaubern wird (um hoffentlich mit nVidias zweiter RTX-GPU-Generation halbwegs mithalten zu koennen).
 
@ZeroZerp Naja, oder man bringt halt fertige Technologien auf den Markt, soweit ich das weiß stellt nVidia ja hier den Großteil für die Entwickler. Wie und wo es in Zukunft implementiert wird, wird wie immer die Zukunft zeigen müssen.

Den Vergleich zu Bildschärfern halte ich trotzdem nach wie vor für legitim, denn auch wenn es in 1-2 Spielen bessere Ergebnisse mit DLSS gibt, ist das in den restlichen Titeln anders und erst recht in denen, in denen es kein DLSS gibt. Denn auch Spieler von solchen Spielen sind gegebenenfalls mit langsamer Hardware unterwegs, wo Hochskalierung und Nachschärfen einen guten Kompromis aus Bildqualität und Leistung darstellen können.
 
Unnu schrieb:
schon mal in der QA gearbeitet? ;)
Nein, aber meine Freundin hat öfter mit sowas zu tun....anderes Gebiet, aber mir ist klar, dass das viel Arbeit ist.
Da muss es zu jedem Problem und dessen Lösung eine QM Dokumentation geben, die den Mitarbeitern die später daran arbeiten, eine Anleitung geben, wie Probleme vermieden werden können.
Es muss Teamtreffen geben, wo die Probleme vorgestellt werden, damit auch alle überhaupt von deren Existenz wissen und darauf achten können.

Und bevor etwas in den produktiv Einsatz geht oder in diesem Fall der Treiber freigegeben wird, muss es Qualitätskontrollen geben.

Naja und da scheint es ja in allen Punkten bei AMD Nachholbedarf zu geben. :(

Fehler die es schonmal gab, tauchen wieder auf, was für mich dafür spricht, dass nicht dokumentiert wurde wie sie vermieden werden können.
Und Fehler die mir in den ersten paar Minuten mit dem neuen Treiber auffallen zeugen davon, dass die Qualitätskontrollen nicht stattfinden oder keine Ahnung haben was und wie sie testen sollen.....was machen die? Gucken die ob der Rotton im Treiber auch wie vom Designer vorgegeben umgesetzt wurde?

Klingt eventuell hart, aber da erwarte ich einfach inzwischen mehr von AMD.

Sie pumpen neue Features raus, was an sich nicht schlecht ist...dabei wäre es besser wenn sie erstmal verfeinern was sie bis jetzt haben.

Gamers Nexus hat ja wohl auf der CES mit einigen Leuten bei AMD über den Zustand ihrer Treiber gesprochen und viele mussten sich erstmal zeigen lassen was das für Probleme sind....angeblich haben die versprochen sich mehr zu bemühen, aber das wird sich wohl in 1-2 Monaten zeigen, ob es Früchte trägt.
 
  • Gefällt mir
Reaktionen: fox40phil, LukS und Cpt.Willard
Chismon schrieb:
So recht traue ich einem GA103 Braten noch nicht, zumal noch nie ein 103er Chipsatz aufgemacht wurde, soweit ich mich zurueck erinnern kann.

ja das wundert mich auch. Aber die Frage is dann wieso ein "leak" genau diese Nummer aufgreifen sollte.
Ich gehe also persoenlich von GA-104 Vollausbau in Form einer RTX 3080 aus mit 384Bit SI und 12 GB aus

genau davon wäre ich an sich auch ausgegangen. Außer der GA100 is das Topmodell. u Maxwell Zeiten setzte High End ja plötzlich auf den 104er Chip. Je nach dem wie "groß" Nvidia Ampere geplant hat könnte das auch wieder anders werden.

Naja man wird sehen. Irgendwas muss noch drüber kommen. Ein GA102 mit "nur" dem gleichen Ausbau wie aktuell macht wenig Sinn außer er wird wie gesagt noch getoppt. Und angesichts einer kommenden Big Navi sollte das auch nötig sein da ich nicht glaube dass wir plötzlich 2.5 Ghz GPU sehen werden.
 
MrNejo schrieb:
Nun ja ich bezog mich dabei auf Nvidia, sprich 22-24GB für das Topmodell und 16GB für 70er/80er Karten und wenn AMD dann in einer der Klassen zu finden ist sollte sie auch so viel anbieten, deswegen schätze ich mindestens 16GB. Mal schauen, ob ich recht behalte, ist nur eine Vermutung.

Gab es da nicht eine Meldung Anfang des Jahres, dass GDDR6 teurer wird?
16GB werden wir höchstens als Option erleben, wofür es mal Zeit wird, aber kaum direkt als Standard. Es gibt jetzt übrigens auch 1,5GB-große GDDR6-Module, da würde dann also aus 6GB 9GB und aus 8GB 12GB, was ja erstmal auch schon sehr ordentlich ist.

Zu den Ampere-Gerüchten:
Fällt da niemandem auf, dass der angebliche GA104 mit 48 SMX und 256Bit exakt dem TU104 entspräche und der GA103 mit 60 SMX und 320Bit genau zwischen TU104 und TU102 mit 72 SMX und 384Bit läge?

Daher halte ich diese Daten für reine, pure Fiktion. Ampere wird 7nm auf jeden Fall für mehr SMX ausnutzen, wie schon zuletzt immer, der Schritt dürfte gar größer sein als von Pascal zu Turing. Einen Zwischenchip zwischen 256Bit und 320Bit wird es aber nicht geben, das wäre zuviel klein-klein in einem Segment mit geringen Stückzahlen.

Für mich zählt dabei nur eine Überlegung: Wird die RTX 3070 so schnell wie die 2080S oder schneller und wird sie soviel kosten wie aktuell die 2070S, oder eher wie die 2080S? Selbst in ersterem Fall ist sie mir zu teuer, in zweiterem sowieso. So günstig wie aktuell manche 2070 ohne Super wird sie anfangs wohl kaum.
Wird die 3060 weiterhin auf 192Bit beschränkt oder hat man gelernt und produziert direkt einen Chip mit 256Bit, aber weniger Shadern, wie den TU106? Dann ist das meine Karte, bei 6GB uninteressant, bei 9GB@16GHz@192Bit vielleicht.
 
yummycandy schrieb:
Anhang anzeigen 867765

Wann die Karten kommen, steht natürlich noch nicht fest.

Wenn das so kommen sollte wie von einem Boardpartner in Aussicht gestellt, dann waere das schon fein, aber es koennte immer noch auf den Sommer 2020 hinaus laufen, bspw. die Computex in Taiwan boete sich da auch fuer nVidia an als moeglicher Showdown (gegen AMD/RTG) im Juni ;).

Ob Big Navi wirklich schon mit RDNA2 zur Jahresmitte fertig entwickelt sein kann und vor einem Navi10-Refresh kommen wird? Ich hege da eher Zweifel, lasse mich aber gerne positiv ueberraschen.

Vielleicht wird es auch einfach ein vorheriges nVidia Event geben, so dass man zur Computex auch noch im Gespraech bleibt bzw. schon die Mittelklasse (RTX 3060) ankuendigt, wer weiss (?), um AMD/RTG nicht mit Big Navi bei der Computex moeglicher Weise die Buehne alleine zu ueberlassen, sondern -wie ueblich - versuchen etwas die Show zu stehlen.
 
Krautmaster schrieb:
ja das wundert mich auch. Aber die Frage is dann wieso ein "leak" genau diese Nummer aufgreifen sollte.
Das ganze Gerücht ist meiner Meinung nach Quatsch. Da wird "MyDrivers" ins Blaue hinein geraten haben. Weder glaub ich bei der Platzersparnis an gleichbleibende Shaderanzahl (wird wohl erhöht werden", noch ein ein A103. Und das SI ist auch höchst zweifelhaft.
Ergänzung ()

Chismon schrieb:
Ob Big Navi wirklich schon mit RDNA2 zur Jahresmitte fertig entwickelt sein kann und vor einem Navi10-Refresh kommen wird? Ich hege da eher Zweifel, lasse mich aber gerne positiv ueberraschen.
Es ist immer noch die Frage, ob überhaupt ein Nachfolger für Navi10 erscheinen wird. Ich halte es für vorstellbar, daß eine Anpassung des Prozesses kommt und eben eine 5750 erscheint, aber das steht nicht fest. Es wird aber voraussichtlich mehrere größere Chips als Navi10 geben.
 
  • Gefällt mir
Reaktionen: Tigerfox
Chismon schrieb:
So recht traue ich einem GA103 Braten noch nicht, zumal noch nie ein 103er Chipsatz aufgemacht wurde, soweit ich mich zurueck erinnern kann.
Klingt für mich auch unrealistisch.

Chismon schrieb:
Ich gehe also persoenlich von GA-104 Vollausbau in Form einer RTX 3080 aus mit 384Bit SI und 12 GB, wobei der GDDR6 hoeher getaktet sein duerfte (bspw. mit 16 GB/s, laut Micron sollen ja bis zu 20GB/s moeglich sein) als beim GA-104 fuer eine RTX 3070 mit gleichem SI, die ebenfalls auch 12 GB aber bspw. mit nur 14GB/s bekommen koennte (weil 8GB selbst fuer nVidia mit Blick auf die Kartenleistung und RT-Raytracing zu sehr limitieren wuerden) und weil sie relativ guenstig den GDDR6-Speicher eingekauft haben.

Die evt. ein knappes halbes Jahr spaeter anstehende RTX 3080Ti mit beschnittenem GA-102 wuerde dann ein 512 Bit SI bekommen und volle 16GB (weil AMD mit Sicherheit ebenfalls 16 GB bei Big Navi aufbieten wird) GDDR6 Speicher getaktet auf 16GB/s (an 18GB/s oder 20GB/s glaube ich noch nicht, zumal das eine Option fuer den GA-102 Vollausbau/RTX Titan Nachfolger sein koennte).
Also ich glaub irgendwie nicht so recht an ein 512bit Interface (aber wer weiß), da empfinde ich 22GB an 352bit wahrscheinlicher, ich glaube an maximal 864GB/s (384bit mit 18Gbps) wenn Nvidia nicht doch überraschend HBM verbaut (für 16GB bei der 80ti und dann 384bit und 12GB beim 04er Chip). Somit wären es 16GB für den 04er Chip möglicherweise bei der 70er beschnitten auf 14GB dafür mit höherem Takt. Auch möglich, halte ich aber für sehr unwahrscheinlich, dass Nvidia einen Deal mit zB Samsung hat für 1,5GB GDDR6 Chips und somit 18GB bei 384bit und 12GB bei 256bit, aber wie gesagt unwahrscheinlich und höchst spekulativ:D:D trotzdem lustig
 
bigfudge13 schrieb:
Natürlich wird Navi21 für Highend-Karten verwendet, für was sonst?
Für Midrange gibts doch Navi10, der in der RX 5700 XT als Vollausbau verfügbar ist.

Vielleicht gibts dann noch eine beschnittene Variante dazwischen.
Die RX 5700 Xt ist eine beschnittene Version. Der Vollausbau geht exklusiv an Apple.
https://www.computerbase.de/forum/t...n-pro-w5700x-mit-16-gbyte-fuer-apple.1911085/

Die 5500 Xt ist auch eine beschnittene Version, der Vollausbau geht exklusiv an Aplle Notebooks.

Es ist wahrscheinlich, das der navi 21 Vollausbau für Profikarten reserviert ist und nur der Verschnitt in den Retail Markt geht. Eine hohe Rohleistung bei etwas niedriger Taktung ist Ideal für Profiumgebung. Beschneidet man den Chip, lässt er sich etwas besser kühlen und höher Takten, das käme dann dem Gaming entgegen.
Ergänzung ()

Chismon schrieb:
Laut WccfTech (MyDrivers) werden jetzt sogar ganze 20 GB fuer eine RTX 3080 und 16 GB fuer eine RTX 3070 fuer moeglich gehalten … das scheint mit dann doch zu ueppig, denn nVidia hat ja eher den Ruf mit Speicher zu geizen.
Turing wurde entwickelt, als DRam Spitzenpreise hatte. Der Preis ist seit dem deutlich gefallen und die Kritik der Spieler hat man schon bei der 2060 relativ schnell erkannt und die 2060S nachgeschoben. Ich glaube nicht, dass man sich hier erneut eine Blöße gibt.
 
  • Gefällt mir
Reaktionen: fox40phil
Tigerfox schrieb:
Gab es da nicht eine Meldung Anfang des Jahres, dass GDDR6 teurer wird?
16GB werden wir höchstens als Option erleben, wofür es mal Zeit wird, aber kaum direkt als Standard. Es gibt jetzt übrigens auch 1,5GB-große GDDR6-Module, da würde dann also aus 6GB 9GB und aus 8GB 12GB, was ja erstmal auch schon sehr ordentlich ist.
Ich finde diese Überlegung auch interessant, hatte ich ja bereits geschrieben, jedoch werden doch diese Chips aktuell nicht produziert, oder? Ob Nvidia da eine eigene Ladung ordert?
Bzgl. der Preise, ist GDDR6 aktuell trotzdem noch günstig und im „Notfall“ gibt Nvidia das halt weiter :rolleyes:
Tigerfox schrieb:
Für mich zählt dabei nur eine Überlegung: Wird die RTX 3070 so schnell wie die 2080S oder schneller und wird sie soviel kosten wie aktuell die 2070S, oder eher wie die 2080S? Selbst in ersterem Fall ist sie mir zu teuer, in zweiterem sowieso. So günstig wie aktuell manche 2070 ohne Super wird sie anfangs wohl kaum.
Wird die 3060 weiterhin auf 192Bit beschränkt oder hat man gelernt und produziert direkt einen Chip mit 256Bit, aber weniger Shadern, wie den TU106? Dann ist das meine Karte, bei 6GB uninteressant, bei 9GB@16GHz@192Bit vielleicht.
Mhh ja bei Ampere sehe ich auch noch viele Fragezeichen, gibt es einen großen Sprung (Maxwell -> Pascal zB), sprich 3070 auf 2080ti Niveau und drüber oder einen kleinen Schritt um AMD auf Distanz zu halten. Bei der 3060 kann ich mir diesen „Rückschritt“ vorstellen also wenn wir 9/12GB sehen sonst halt weiterhin 8 an 192bit.
 
Zuletzt bearbeitet: (Ergänzung zu GDDR Preisen)
Zurück
Oben