News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

KlaasKersting schrieb:
Meint ihr ernsthaft, AMD hat den heiligen Gral entdeckt? Die +50% Performance pro Watt werden genau so an einem schöngerechneten Punkt in der Kurve sein wie bei Nvidia.
Einfach mal abwarten oder ?
Es wird nicht nur die 6900XT vorgestellt, sondern mehrere Karten und schätzungsweise, da es ja Infos gibt, auch Navi 21. Die könnte man sich nämlich als 6700XT mit ebenfalls 40 CUs als Vergleich zu Navi 10 ebenso gut vorstellen.

Und auch was die Fertigung angeht, steht noch nichts fest. Samsung beschreibt den verwendeten Prozess von der XBOX X APU als "7nm enhanced" und bei APUs verwendet AMD bekanntlich GPU libs.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
HAse_ONE schrieb:
Also ich hab generell nichts gegen DLSS. Aber dass hier immer ständig geschrieben wird, dass ohne DLSS AMD verlieren wird,
Wieviele der anderen nvidia exklusiv Features haben es denn zur Marktdurchdringung gebracht solange die auf die eigene Hardware beschränkt waren?
Das direkte GPU Physx ist faktisch in der Versenkung verschwunden und läuft im Gameworks Kleidchen sein verstecktes Revival auch auf der Hardware der Konkurrenz. Das ursprüngliche G-Sync ist praktisch nur noch absolute Niesche und unter dem Label "G-Sync Kompatibel" wanderten zuletzt auch noch normale adaptive Sync Modelle auf die Geforce die sonst unter dem FreeSync Label auf der Radeon laufen. Und sonst?
Im übrigen wird nicht geschrieben das DLSS ohne AMD verlieren wird sondern solange es auf nvidia beschränkt ist.
 
  • Gefällt mir
Reaktionen: Benji18
foo_1337 schrieb:
Das Vendor Lock in gehst du als User ja nicht ein, da es keine Alternative gibt. Du hast die Wahl: Entweder DLSS, dann Nvidia oder kein DLSS, dann AMD. Im Prinzip kannst du also, bei ähnlichem P/L Verhältnis nur gewinnen, wenn du DLSS hast.
Du widersprichst Dir hier. Habe ich jetzt die Wahl oder nicht?
Und es gibt eine Alternative. Die ist offen und im Moment noch weit hintendran. Na und? Spielen ohne RT hat mich bisher nicht umgebracht und wird es auch weiterhin nicht tun.

Hmmmm, lass mich mal überlegen, wo wird die Entwicklung schneller gehen? Dort wo sich eine Firma und ein paar Game-Entwickler-Hanseln hinsetzen und RT "à la Vendor" implementieren, oder dort, wo sich quasi die gesamte restliche Industrie beteiligen kann ... und wird, wenn man sich mal ansieht auf welcher Hardware die konsolen laufen. DLSS auf Konsole? ... der war gut.

foo_1337 schrieb:
Den Lock-In geht erstmal der Entwickler ein. Das einzige, was dir passieren kann, ist ein lock-out. Nämlich mit AMD oder (bald) Intel.
Aha, ich habe also eine Firma, die eine OS-Alternative unterstützt, eineen "Newcomer", der ebenfalls keinen Zugriff auf DLSS hat, ... Hm, na was wird der wohl implementieren um im RT-Eycandy Race mitzuhalten? DLSS?
(Es sei denn, sie kaufen nVidia, oder lizensieren DLSS, DANN wird's spannend, aber auch nur dann.
Und wie freizügig nVidia proprietäre Technik lizensiert haben wir ja die letzten Jahre gesehen!)
G-Synch?

foo_1337 schrieb:
Der Großteil der Gaming Szene basiert auf "proprietärer Scheisse" namens DirectX (runtime). Frag mal nen Linux oder macOS User. Was glaubst du wie abgefuckt wir Ende der 90er/Anfang der 2000er waren, dass Microsoft mit Direct3d ankam und die Entwickler auch noch größtenteils darauf aufgesprungen sind, anstatt den offenen OpenGL Standard zu nehmen. Immerhin kamen die besten Ego Shooter damals von ID und da fiel die Wahl auf OpenGL
RICHTIG! Warum glaubst Du nutze ich jetzt auch eine Dose? Weil immer noch die Auswirkungen von dem damaligen Scheiß zu spüren sind (ok, und mein AG ein WIN-Shop ist).

DANN gab es natürlich noch ein paar weitere Gründe, warum Linux nicht so wirklich für Spiele war. Bspw. war die Community "professionell" und ein ein "echter" Linuxer spielt eben eher mit e-mac oder vi. Clicky bunti war verpönt. Anderes Thema.

Also soll ich jetzt die Fehler von damals gerade nochmal wiederholen, nur weil DSLL halt geil ist?
Ohne mich!
 
  • Gefällt mir
Reaktionen: pipip
Zumindest alle 3 Titel, auf die aktuell viele Gamer warten unterstützen es: Cyberpunk, Cold War und Watch Dogs Legion. Und es werden definitiv mehr werden.
Der Kern von DLSS ist u.A. das ML, was nVidia 24/7 auf seinen DGX Farmen betreibt. Selbst wenn DLSS offen wäre: Woher sollen die Daten kommen? Soll nVidia die einfach verschenken?
Ergänzung ()

Unnu schrieb:
Du widersprichst Dir hier. Habe ich jetzt die Wahl oder nicht?
Ich habe folgende Wahl: Ich kaufe ne NV 30xx Karte und hab ne sehr gute Leistung und eine noch bessere bei DLSS und/oder RT enabled Spielen. Kaufe ich AMD, habe ich “nur” die normale, sehr gute Leistung.
Unnu schrieb:
Hmmmm, lass mich mal überlegen, wo wird die Entwicklung schneller gehen? Dort wo sich eine Firma und ein paar Game-Entwickler-Hanseln hinsetzen und RT "à la Vendor" implementieren, oder dort, wo sich quasi die gesamte restliche Industrie beteiligen kann ... und wird, wenn man sich mal ansieht auf welcher Hardware die konsolen laufen. DLSS auf Konsole? ... der war gut.
Du würfelst jetzt RT und DLSS. RT kommt via DXR und wird bei Nvidia Karten dann von den Tensor Cores bearbeitet. Bei AMD Karten gibt es diese nicht und es wird von der normalen Leistung abgezwackt.
Mit DLSS und Konsolen hat das nix zu tun. Sony macht ein eigenes Süppchen und was MS macht, kA.
Unnu schrieb:
Aha, ich habe also eine Firma, die eine OS-Alternative unterstützt, eineen "Newcomer", der ebenfalls keinen Zugriff auf DLSS hat, ... Hm, na was wird der wohl implementieren um im RT-Eycandy Race mitzuhalten? DLSS?
Hä? Kannst du das bitte elaborieren?

Unnu schrieb:
DANN gab es natürlich noch ein paar weitere Gründe, warum Linux nicht so wirklich für Spiele war. Bspw. war die Community "professionell" und ein ein "echter" Linuxer spielt eben eher mit e-mac oder vi. Clicky bunti war verpönt. Anderes Thema.
Er nennt sich emacs, nicht e-mac ;)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Unnu, stevefrogs, Strubbel99 und eine weitere Person
XTR³M³ schrieb:
dafür dann nen überschärftes bild... sry, solange DLSS(2.0) keine qualität wie nativ abliefert isses für mich -der immer alles auf rechts stellt, wegen maximaler BQ- absolut nutzlos...
DLSS 2.0 liefert bessere Qualität als 4K Nativ, hier werden Sie geholfen:
 
  • Gefällt mir
Reaktionen: Unnu, stevefrogs, KlaraElfer und 4 andere
hoffen wir einfach, dass AMD und die Konsolendevs ein Upscaling bringen dass DLSS ebenwürdig ist oder gar in den Schatten stellt. Gerade die Konsolen werden diverse Inhalte ggf gern auf 4K skalieren wollen, bei marginalen Qualitäts Einbußen.

Angeblich sollen die Versuche mit ML bei AMD und den Konsolen ganz gute Ergebnisse gebracht haben, mal sehen ob AMD also dahingehend auch zum Release der neuen Karten mehr zeigen kann. Ein Standard der Unabh. von Games funktioniert (Quasi wie ein zuschaltbares AA) wäre super.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Haldi
Schön, wie das wieder zur DLSS-Diskussion eskaliert. DLSS 2.0 ist immerhin schon wesentlich weiter verbreitet als Nvidia Hairworks! :D
 
  • Gefällt mir
Reaktionen: pipip, Haldi, milliardo und eine weitere Person
Überhaupt entwickeln Firmen so eine Technologie ja nicht aus purem Spaß. Das sind immer noch Firmen, welche damit Geld verdienen wollen.
Dass AMD da offener ist, was ihre Technologien angeht, hat dabei auch nichts mit menschenfreundlichkeit zu tun und Altruismus. Das liegt nur daran, dass sie weniger Marktanteile haben.
Wenn du da mit einer Technologie ankommst und sagst der spielefirma "läuft aber nur auf 30% der Karten" dann werden die dafür weniger wahrscheinlich Ressourcen zur Implementierung einsetzen, als wenn der platzhirsch ankommt und sagt "läuft zwar nur auf nvidia, aber das sind eh 70% aller Karten auf dem Markt."

Das ist eben auch der Grund warum sich DirectX durchgesetzt hat.
Sollte AMD weiter an Marktanteile gewinnen und eine neue Technologie entwickeln, dann wird diese sicherlich genauso AMD-Exklusiv.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn, pipip, Strubbel99 und 3 andere
TigerNationDE schrieb:
Für mich ist DLSS einfach eine Mogelpackung mit der man die eigentliche Leistung der Karte optisch nach oben schiebt. Würde es persönlich sogar begrüßen wen AMD sowas NICHT entwickelt, sondern auf die Eigenleistung der Karte setzt.
Für mich sind die bisherigen "klassischen" Renderverfahren bei Spielen allesamt Mogelpackungen. Light, Shadow, Bump Maps, Screenspace Reflections etc.: Alles "Fake" - aber über die Jahrzehnte unglaublich perfektioniert. ;)

Ich spiele gerade - endlich! - The Witcher 3. Verglichen mit meinem Einstieg Wolfenstein/Doom I lassen diese Mogelpackungen mir auch heute die Kinnlade runterklappen. Ich finde das visuell umwerfend.

Wenn mir zukünftige Verfahren wie DLSS nun allerdings ermöglichten, einen vergleichbaren Bildeindruck mit weniger Rechenaufwand zu erzielen, greife ich da gerne zu. Das hieße nämlich auch weniger Wärme und Lärm.
 
Zuletzt bearbeitet: (Formulierungen)
Vendetta schrieb:
DLSS 2.0 liefert bessere Qualität als 4K Nativ
Checkerboard ist nicht "nativ"... und (schlechtes) TAA auch nicht.

Wäre aber klasse, wenn es zurück zum Thema gehen könnte.
 
  • Gefällt mir
Reaktionen: Iscaran und bad_sign
interessanterweise habe ich bisher in Death Stranding keine Grafikfehler hinsichtlich DLSS gemerkt beim Wechsel 980 TI (kein DLSS) zu 2080 Ti (DLSS).

Aber nungut, es is auf jeden Fall wahnsinnig interessant was dahinter steckt und eine tolle Analyse in dem Video. Man merkt auch wie wichtig es ist die Sache "in Motion" zu beurteilen.

Ich stelle mir gerade auch sowas wie das heutige Fernsehen vor mit teils 540p, - das könnte man mit entsprechender Technik wohl immer besser zur native Resolution upscalen. Genauso alte Filme oder Filme die bei weit weniger Auflösung platzsparend komprimiert und dann upscaled werden. Müsste doch auch fürs Encoding / Decoding interessant sein.

Umso mehr bleibt die Hoffnung dass AMD hier auch was tolles vorstellt.

Gerade wenn man Neuland wie DL Upscaling / RT betritt kann ein Geistesblitz für das bessere Ergebnis sorgen. Da reicht unter Umständen eine zündende Idee oder ein wichtiger Unterschied im Ansatz / Model aus um einen Unterschied zu machen.
 
  • Gefällt mir
Reaktionen: Unnu und Strubbel99
Krautmaster schrieb:
Ich stelle mir gerade auch sowas wie das heutige Fernsehen vor mit teils 540p, - das könnte man mit entsprechender Technik wohl immer besser zur native Resolution upscalen.
Die PS3 (Cell) war damals herausragend (DVD Upscaling) im vergleich zu den 0815 Chips in den anderen Playern zu diesem Zeitpunkt. Eben weil es einen guten Algo gab, der von den Cell Kernen gestemmt werden konnte.

Und wer anzweifelt, dass man solche Technologien, ob sie nun DLSS heißen, oder nicht, dringend benötigt, lebt leider hinter dem Mond.
 
  • Gefällt mir
Reaktionen: Krautmaster
Vendetta schrieb:
DLSS 2.0 liefert bessere Qualität als 4K Nativ, hier werden Sie geholfen:

das ist NICHT nativ - das ist checkerboard, also upsampling.

die vergleiche in death stranding mit 4k + TAA post process blurfilter vs DLSS sind auch eher mäßig aussagekräftig.

dlss 2.0 ist gut, aber nicht "schärfer als die realität" gut - diese aussage ist pures marketing mit einigen "*" in den fußnoten. bei solchen aussagen findet man auch nie screenshots von den artefakten, die bspw. in dem digital foundry video weiter hinten folgen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Iscaran, Blekota und eine weitere Person
Machine Learning bietet generell Lösungen für viele Probleme die man bisher schwer greifen konnte. Und wenn man das hinreichend gut geschafft hat kann man das wieder in Silizium pressen und mit sehr kleinem Aufwand ein Chip erstellen der genau das zB gut kann, Upscaling / Interpolation oÄ.- das ist ja der Vorteil.
 
  • Gefällt mir
Reaktionen: Strubbel99, iron-man und foo_1337
MarkoK schrieb:
Der hat spätestens durch die gemurkste Analyse des 3080 Stabilitätsproblems jegliche Kompetenz abgegeben.
Clickbait verteufeln, aber selbst jeglichen rationalen Bewertungsmaßstab vermissen lassen. Läuft!
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Cpt.Willard, bad_sign und eine weitere Person
foo_1337 schrieb:
DLSS ist ein Ass in Nvidia's Ärmel. Sie wären sau dumm, wenn sie das rausgeben würden. Auch wenn ich persönlich ein Open-Source Fuzzi bin, kann ich das nachvollziehen. Und mit DLSS 3.0 werden die Devs fast gar nichts mehr machen müssen. Da ist es dann auch egal, ob es offen ist, oder nicht.
Sony wird sein Patent auch nicht öffnen, warum auch?
umgekehrt wird ein schuh draus. die Konsolen werden es nicht benutzen, ebenso viele Pc spiele nicht.
von daher wird es sich nicht durchsetzen.
gute Sache, aber es muss überall laufen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Muuhh schrieb:
umgekehrt wird ein schuh draus. die Konsolen und TVs werden es nicht benutzen, ebenso viele Pc spiele nicht.
von daher wird es sich nicht durchsetzen.
Viele aber doch, sieht man jetzt schon. Und wie gesagt, mit DLSS 3.0 wird die Sache nochmals anders aussehen. Und bei DLSS 2.0 ist der Aufwand für die Entwickler geringer, als man vielleicht denkt.
Was du mit TVs meinst, ist mir nicht ganz klar!?
 
Zurück
Oben