Notiz GPU-Gerüchte: AMD Navi 21 mit 80 CUs auf Basis von RDNA2

Baal Netbeck schrieb:
All die schonmal gehobenen Bugs, die im AMD Treiber wieder auftauchen sind für mich unverständlich...
Sie sind idiotisch! Leider verständlich.
schon mal in der QA gearbeitet? ;)
 
@ZeroZerp danke für das Update bezüglich DLSS. Das hat noch bisher immer abgeschreckt, da ich nur sehr ungern Unschärfe in Kauf nehmen würde.

Aber was Wolfenstein auch offenbart hat, ist dass wir hier einen RT Titel haben, welcher die 6 GB der 2060 derart beansprucht dass es zu signifikanten Einbrüchen kommt und die 6 GB hier zum ersten Mal wirklich zum Problem bei RT werden, auch in Full HD.
Auf den anderen RT Karten läuft es dagegen anstandslos
Ergänzung ()

Deshalb ist es meiner Meinung nach auch essenziell dass die hersteller im zukünftigen high end und in der Mittelklasse aufhören VRAM zu sparen.. Ich will RT auch mal oberhalb vom Full HD spielbar sehen. 4k am liebsten ^^
 
  • Gefällt mir
Reaktionen: jemandanders
PS828 schrieb:
Aber was Wolfenstein auch offenbart hat, ist dass wir hier einen RT Titel haben, welcher die 6 GB der 2060 derart beansprucht dass es zu signifikanten Einbrüchen kommt und die 6 GB hier zum ersten Mal wirklich zum Problem bei RT werden, auch in Full HD.
Die 2060 geht nur dann in die Knie, wenn man manuell die Streaming- Einstellung auf einen Wert erhöht, der selbst über dem Wert der Qualitätsstufe "mein Leben" steht.

Das ist ein next- Gen- Schalter, der auch einer 2080TI speichertechnisch zusetzt. Insofern würde ich das jetzt nicht wirklich als Maßsstab nehmen.

Deshalb ist es meiner Meinung nach auch essenziell dass die hersteller im zukünftigen high end und in der Mittelklasse aufhören VRAM zu sparen.. Ich will RT auch mal oberhalb vom Full HD spielbar sehen. 4k am liebsten ^^
Entgegen meiner vorhergehenden Einstellung dazu und dadurch dass ich in Sachen DXR Programmierung ein wenig Erkenntnisse gewonnen habe, stimme ich dem inzwischen zu.

Wir werden künftig mehr Speicher brauchen. Nicht nur, dass man durch RT einen größeren Teil der Szenerie im Speicher behalten muss und auch mehr Texturen vorhalten muss, nein- auch für den Mesh- Shader Ansatz auf Rasterebene wird zusätzlicher Speicher benötigt, soll die GPU künftig Aufgaben wie fortgeschrittenes Culling bzw. Lod- Management übernehmen...

LG
Zero
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Das schöne an so einem next gen Schalter ist halt aber auch, dass er zeigt dass die 6GB ein wenig kurz gegriffen waren.

Die Programmierhintergründe sind mir nicht weiter bekannt, ist auch nicht mein Fachgebiet, aber die hersteller werden das beim Speicher sicherlich erkennen und entsprechend handeln damit sie satte Zuwächse verzeichnen können was die leistung angeht.
Auch spielt dann damit rein wie gut die einzelnen Implementierungen von Nvidia und AMD miteinander harmonieren. Es wäre sehr schlecht für RT im ganzen wenn es immer nur entweder RTX oder AMDs Variante nativ unterstützt. Sowas muss fließend sein mit geringen Abweichungen. Sonst ist das ganze Konstrukt unattraktiv, da man dann effektiv zwei Karten bräuchte damit man jedes Spiel ideal genießen kann. Sowas kann nicht gewollt sein und die beiden Kontrahenten Tuen gut daran hier und da an einem Strang zu ziehen. Sonst schadet es beiden
 
Unnu schrieb:
Häh? Ist es denn nicht mittlerweile so, dass alle Produkte mal mehr (Zen), mal weniger gut mit ihrer jeweiligen Node quasi verschmolzen werden, um das Optimum zu erreichen?
Da würde nVidia ja aus der Reihe tanzen, täten sie das nicht auch für Volta. Kannst Du mir das bitte erklären was Du mit dieser Aussage meinst? Merci

nVidia hat den 16nm Prozess, der aktuell 12nm genannt wird, für ihre Produkte praktisch mit TSMC über Jahre für sich verfeinert und auf ihre eigenen Produkte mitoptimiert. Der 7nm/7nm+ ist jedoch ein Prozess der für nVidia gänzlich neu ist und nicht noch nachträglich über Jahre für nVidia optimiert wurde, sondern da waren andere die großen Abnehmer. Da der Prozess noch mehr wichtige Kunden hat, vor allem Apple und AMD (Apple soll wohl dieses Jahr schon den 5nm nutzen), kann nVidia da weniger Einfluss auf den Prozess nehmen, zumindest so lange sie nicht (wie beim 16nm/12nm) der größte Abnehmer sind. Sie müssen also dieses mal nutzen was vorhanden ist und können nicht wie vorher den Prozess auch mitverfeinern für ihre eigenen Produkte.
 
  • Gefällt mir
Reaktionen: Unnu
yummycandy schrieb:
Klar, das schon. Nur versuchen sie sowieso DIE-Fläche zu sparen, um die Kosten zu senken. Die werden sich keine APU einbauen, bei der die GPU nochmals größer als NAVI10 wird. Es sei denn RDNA2 bringt nochmals einen sehr großen Performancevorteil gegenüber RDNA1, was ich persönlich nicht annehme.

man sieht doch am xbox series x die dass die gpu mindestens so groß ist wie navi 10
 
PS828 schrieb:
Das schöne an so einem next gen Schalter ist halt aber auch, dass er zeigt dass die 6GB ein wenig kurz gegriffen waren.
So ein next gen Schalter ist das, was er umschreibt. Next gen.
Wenn dieser richtig gestaltet ist, lässt er alle zu dieser Zeit erhältlichen Grafikkarten in dafür nicht vorgesehene Workloads laufen.

Die Programmierhintergründe sind mir nicht weiter bekannt, ist auch nicht mein Fachgebiet, aber die hersteller werden das beim Speicher sicherlich erkennen und entsprechend handeln damit sie satte Zuwächse verzeichnen können was die leistung angeht.
Da bin ich mir sicher....

Auch spielt dann damit rein wie gut die einzelnen Implementierungen von Nvidia und AMD miteinander harmonieren. Es wäre sehr schlecht für RT im ganzen wenn es immer nur entweder RTX oder AMDs Variante nativ unterstützt.
Die müssen nicht miteinander harmonieren. Sowohl die Hardwarelösungen von AMD als auch NVIDIA waren schon immer proprietär. Das wichtige ist nur, dass sie DX oder Vulkan kompatibel sind.

NVIDIA benutzt ja einen "offenen" Standard, nämlich DXR. Würde die Khronos Group mal in die Pötte kommen, könnte man auch da auf einen offenen Standard setzen.

Sowas muss fließend sein mit geringen Abweichungen. Sonst ist das ganze Konstrukt unattraktiv, da man dann effektiv zwei Karten bräuchte damit man jedes Spiel ideal genießen kann. Sowas kann nicht gewollt sein und die beiden Kontrahenten Tuen gut daran hier und da an einem Strang zu ziehen. Sonst schadet es beiden
Genau- Das ist ja der ureigene Gedanke von Schnittstellen wie DirectX, auf welchen 99% der Spiele basieren.
Man schafft eine für alle zugängliche und standardisierte Andockstelle und die Grafikkartenhersteller kochen im Hintergrund dazu kompatible hardware.

So hätten Sie DXR auch einfach DX13 nennen können....
Das ist mit das größte Misverständnis, wenn es um RT geht. Da ist bis auf die übliche Hardware nichts proprietär:

Ab 6:45:

LG
Zero
 
  • Gefällt mir
Reaktionen: Cpt.Willard und PS828
Bleibt nvidia bei TSMC? Ich dachte die wollten groß/exklusiv bei Samsungs 7nm EUV einsteigen.
 
@ZeroZerp mit dem Schalter wollte ich eigentlich Aussagen: klar kommen alle aktuellen Karten ins Schwitzen, aber wenn eine gpu nach gerade einmal einer Generation schon stark einbricht wegen des Speichers und die anderen nicht dann ist das ein klares Indiz dass 6 GB ein Fehler waren und die Lebenszeit der Karte recht schnell zuende ist. Nvidia hat das offenbar selbst eingesehen und die 2060S gebracht die mit 8 GB daher kommt. Und die schneidet in besagtem Szenario um einiges stabiler ab. Mit Grund wie sich gezeigt hat.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
MrNejo schrieb:
Erscheint mir niedrig angesetzt, ich halte eine Verdopplung in den meisten Leistungsbereichen für möglich und realistisch. Könnte mir 384bit und 24GB vorstellen, wenn man auf GDDR6 setzt.
Eine Verdoppelung wäre ja 16 GB. Und AMD geizt ja schon bei der 5600 XT mit Vram, das ruft bei mir nicht gerade Euphorie hervor.
 
  • Gefällt mir
Reaktionen: fox40phil
PS828 schrieb:
@ZeroZerp mit dem Schalter wollte ich eigentlich Aussagen: klar kommen alle aktuellen Karten ins Schwitzen, aber wenn eine gpu nach gerade einmal einer Generation schon stark einbricht wegen des Speichers
Auch die 2080TI brechen bei jeder Software je nach Einstellung der Regler stark ein.
Deshalb ist es kein schlüssiges Indiz auf irgendetwas.

Wenn ich auf der RT Einsteigerkarte meine, Regler über die Standard- Maximalsettings hinaus stellen zu müssen und mich dann wundere, dass die Frameraten einbrechen, dann hat nicht der Hersteller die Einstiegskarte zu niedrig dimensioniert, sondern ich den Sinn von Reglern, geschweige denn next- gen Einstellungen nicht verstanden, noch die Klassifizierung meiner Karte.

Dass mehr VRAM natürlich, soweit genutzt, auch immer besser wäre, steht ja außer Frage...

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
@Zero_Point AMD als Preisdrücker hat auch keinen nennenswerten Marktanteil bei Spielern gebracht. Warum also Marge herschenken? Navi 10-basierte Produkte sind auch so scheinbar sehr erfolgreich.

Was DLSS angeht: Davon ist scheinbar auch nVidia so sehr überzeugt, dass es jetzt umfangreiche Bildschärfungsoptionen im Treiber gibt, die CAS-basiert sind wie RIS.
 
Die Aussage stammt von dem Gesichtspunkt dass ich für gewöhnlich immer Karten emfehle und verbaue die (hoffentlich) einige Jahre für den Nutzer zufriedenstellend laufen. Daher lieber etwas mehr, die Zeit der Nutzung kommt sowieso.

Aber ehrlicherweise hätte ich privat auch mindestens auf die 2080S gesetzt, da ich aber erstmal abwarten wollte wie sich RT entwickelt habe ich alles ausgelassen und werde jetzt noch entweder für Ampere oder RDNA2 entscheiden. Und da ich abseits der vom gaming noch vom VRAM profitieren kann fallen solche Sachen auch noch in die Kaufentscheidung rein.
 
  • Gefällt mir
Reaktionen: .Sentinel.
v_ossi schrieb:
Die "Über"-Karte zum Selbstkostenpreis wird es nicht mehr geben. Von keinem Hersteller.

Völlig richtig....

Wenn ich dir aber jetzt verifizierbare Daten über die Geschwindigkeit beider High-End Karten geben würde, würden die aktuellen Karten in den Regalen versauern.

Da kommt viel schönes und "billig" werden die Teile auf keinen Fall.

Doppelter Preis der neuen Konsolen bei doppelter Leistung....darauf kann man sich einstellen. :bussi:

Und da gibt es "nur" die Graka, für 1.2k Tacken aufwärts. :stock:

mfg
 
Rage schrieb:
Was DLSS angeht: Davon ist scheinbar auch nVidia so sehr überzeugt, dass es jetzt umfangreiche Bildschärfungsoptionen im Treiber gibt, die CAS-basiert sind wie RIS.
DLSS ist kein Filter für Bildschärfe.

DLSS ist ein KI getützter Algorithmus, der anhand eines Ursprungsbildes, welches in x- Facher Auflösung und 32x Supersampling vorliegt das Ausgangsmaterial in niedrigerer Auflösung daran annähert.

Du erhältst z.B. in Wolfenstein Youngblood dadurch sowohl eine höhere Bildqualität, als auch eine gesteigerte Framerate, als auch eine sauberere Kantenglättung.

Fast zu schön, um wahr zu sein.... Bis auf immer seltener werdende Ausrutscher funktioniert das bei Wolfenstein Youngblood aber genau so.

Da sehen die Anfangsimplementierungen von DLSS dagegen richtig, richtig alt aus...

DLSS (Quality Einstellung)
1579527324859.png


Natives Bild
1579527339609.png


Ich hoffe dass von Seiten AMD etwas Ähnliches dann in Richtung DirectML kommt...
Denn gesteigerte Qualität bei erhöhten Frameraten und besserer Kantenglättung ist ein Killerfeature.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil, TheUngrateful, Cpt.Willard und eine weitere Person
@ZeroZerp Im direkten Bildvergleich ist das hochgerechnete und von Bildschärfern bearbeitete Bild trotzdem oft mindestens so gut, wie das von DLSS bearbeitete Bild. Für den Nutzer am Ende egal, was zwischendurch passiert ist. Der CAS-Bildschärfer braucht dafür aber keine Implementierung vom Entwickler und kostet auch kaum Leistung.

Für direkte Bildvergleiche, siehe zum Beispiel hier.
 
ZeroZerp schrieb:
DLSS ist ein KI getützter Algorithmus, der anhand eines Ursprungsbildes, welches in x- Facher Auflösung und 32x Supersampling vorliegt das Ausgangsmaterial in niedrigerer Auflösung daran annähert.

Die neuen Konsolen haben ähnliche Technik nativ.....da geht dann einiges ;D

Oder glaubt hier irgend jmd., die Konsolen wären schnell genug für "echtes" 4K gaming :evillol:

Rage schrieb:
hochgerechnete und von Bildschärfern bearbeitete Bild

Nein, nein und nein....du kannst keine Pixel "erfinden"....runter Skalieren ist "easy". Hoch Skalieren ist für noobs.

mfg
 
Zuletzt bearbeitet:
Naja, solche Techniken werden relevant für höhere Auflösung. RT Abkürzung 1 waren die dezidierten Einheiten und Abkürzung 2. Sind Techniken zur Lastreduzierung bzw Beschleunigung kritischer Bereiche, welche die aktuelle Leistung determinieren.

Sowas Hand in Hand ist ganz hervorragend :D
 
Rage schrieb:
@ZeroZerp Im direkten Bildvergleich ist das hochgerechnete und von Bildschärfern bearbeitete Bild trotzdem oft mindestens so gut, wie das von DLSS bearbeitete Bild.
Das trifft eben nicht mehr zu... Das schreibe ich doch die ganze Zeit. Deine Beispielbilder zeigen wieder nur die ersten alten und schlechten DLSS Beispiele....

Der Bildschärfer kann technisch NIE ein qualitativ besseres Bild haben, als das nativ berechnete Bild.
Wo keine Details sind, kann ein Bildschärfer keine dazuzaubern.

Da die Ground- Truth der KI bei DLSS aber qualitativ deutlich über dem liegt, was dann nativ dargestellt werden muss, erhältst Du tatsächlich mehr Information, als es das nativ berechnete Bild liefern kann.

Das ist ja der Witz vom Inferencing.

LG
Zero
 
  • Gefällt mir
Reaktionen: [wege]mini
Zurück
Oben