News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

TigerNationDE schrieb:
Ich bin auch für technischen Fortschritt, aber dann sollte man diesen Transparent gestalten. Und nicht sagen "Oh hier, wir haben die geilste Karte, die schafft in Spiel XY mit DLSS XY% mehr FPS.
Also die Funktionsweise von DLSS ist ja nun sehr transparent, du kannst dir massig Literatur von Nvidia dazu durchlesen.
TigerNationDE schrieb:
Mir ist aber schon klar das die Mehrheit der Geforce Käufer wahrscheinlich Gamer sind, und denen ist es wahrscheinlich auch egal wie die Karte ihre FPS generiert. Dennoch ist es für mich mit fast 30 Jahren Hardwareerfahrung schwer zu verdauen, wie locker das alle so hinnehmen.
Was heißt "hinnehmen"? Ich interessiere mich auch dafür, wie die Karten ihre FPS generieren und finde DLSS sogar richtig gut, da man damit eben sehr viel mehr an FPS Leistung aus der Hardware rausholen kann, ohne an Qualität einbüßen zu müssen.

VRS wäre z.B. in dem Sinne dann auch ne "Mogelpackung", oder wie schon erwähnt GPU Culling, oder auch TAA Anti-Aliasing.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, KuroSamurai117, stevefrogs und 2 andere
@TigerNationDE:

Wenn DLSS/AMDVariante mehr FPS, mehr Effizienz und ggf. sogar bessere Bildqualität liefern, dann kann das mir das doch 100% egal sein, wie die das machen. Technik? Magic? Whatever. Es gibt keine Verlierer in der Geschichte.

Deine Argumentation: Wenn die Leistungssteigerung nicht über mehr Shader/Recheneinheiten und mehr Takt wie in den vergangenen 30 Jahren kommt, dann will ich sie nicht. Essgewohnheiten von Landwirten und so. Is doch affig.
 
  • Gefällt mir
Reaktionen: Strubbel99, stevefrogs, evilhunter und eine weitere Person
Prophetic schrieb:
Warum sollte man es auch nicht locker nehmen? Und mich interessiert schon, wie bzw. womit und mit welchen Techniken die FPS generiert werden. In diesem Fall halt mit Hilfe von DLSS bzw. AI. Und das ist ein großartiger, technischer und sogar wissenschaftlicher Fortschritt. Ich kann deine Ablehnung hier nicht nachvollziehen.

Genau genommen müsste er dann jegliche softwareseitige kantenglättung ebenfalls ablehnen, da ja ebenfalls "getrickst" wird als gleich höher aufzulösen.
Wir kommen hardwareseitig auf jeden Fall immer mehr an physikalische Grenzen, was die Generierung von mehr Leistung angeht.
Durch KI-basierte bildberechnung ist aber weiterhin noch sehr viel möglich.
Und ja, am Ende des Tages interessiert mich als gamer nur, wie das Bild aussieht und wieviel fps ich habe und nicht was für Voodoo für dessen Erzeugung nötig war. Warum auch?
 
  • Gefällt mir
Reaktionen: stevefrogs
Ich bin so gespannt!!!
Allerdings finde ich es immer gefährlich, wie krass der HypeTrain bei AMD explodiert, dagegen sind NVIDIA-Ankündigungen geradezu langweilig. Wobei man von NVIDIA ja mehr erwarten sollte als von dem Underdog AMD.
Also ich wäre schon zufrieden, wenn die höchste Ausbaustufe der 6000er Serie mit der 3080er mithalten kann. Paar Spiele AMD besser, paar Spiele NVIDIA. Das wäre so mein Traum. Wohlgemerkt für ungefähr den gleichen Stromverbrauch und nicht wieder bis exitus geprügelt, was schon so häufig bei AMD vorkam <.<
Und, wenn sie von der Leistung leicht darunter bleiben ok, solange wie das P/L-Verhältnis dann besser ist, gekauft!

Meine Ryzen/Vega-Kombination läuft hier seit Jahren wie ein Uhrwerk, bin sehr zufrieden. Hoffentlich ist das bei der neuen Kombination Ryzen/Navi auch so :)
 
  • Gefällt mir
Reaktionen: frozenCube
milliardo schrieb:
Das ändert sich bei den Herrschaften erst dann, wenn AMD auch auf den Zug aufspringt. Dann wird aus Ablehnung selbstverständliche Akzeptanz.
Nur komisch das ich einer der "Herrschaften" bin der auch immer Nvidia Karten nutzt und mich das Feature DLSS trotzdem nicht interessiert.
Für mich ist und bleibt DLSS eine Mogelpackung, und das ist meine persönliche Meinung, und ob solchen "Herrschaften" wie dir das passt oder nicht geht mir auch sonstwo, punkt.
 
TigerNationDE schrieb:
Was ich verstehe is, das wir durch künstliche Intelligenz etwas erschaffen was in der realität nicht mehr von der Karte verarbeitet wird. Ergo kann ich einen Benchmark mit DLSS machen und verkaufe dann die Karte natürlich als mega tolle Karte mir XY% Leistungszuwachs, dabei generiert die Karte als solches diese Rohleistung gar nicht.

Der Endkunde will Leistung haben. Wie das im Hintergrund technisch abläuft, ist ihm sicherlich egal. Wenn die Bildqualität mit bloßem Auge nicht mehr vom "Original" zu unterscheiden ist, nenne ich das technischen Fortschritt (von dem du gesprochen hast) z. B. mit gleichem Einsatz mehr Output zu schaffen. Wozu soll die Karte die zusätzliche Rohleistung noch selbst generieren, wenn sie das gar nicht mehr nötig hat?

"Schummeln" kann man in diesem Fall einfach als technologischen Wettbewerbsvorteil ansehen. AMD weiss das natürlich auch. Nicht umsonst haben sie mit DirectML experimentiert. Die Frage ist, wie energisch sie das Projekt noch verfolgen.
 
  • Gefällt mir
Reaktionen: stevefrogs
Gipsy Danger schrieb:
7 Tage noch dann lässt AMD die Hosen runter und wir werden sehen was Navi 21 kann , und ob ich einen Naquadah Generator brauche um das Ding anzutreiben .
NA ja wenn es nur ein Naquadah generator ist, dann darf man ja schon zufrieden sein. Bei nVidia braucht man ja neben dem Naquadah Generator zusätzlich noch ein Atomreaktor auf Flüssigmetallbasis, um die Spikes abzufangen.
 
  • Gefällt mir
Reaktionen: ChrisM
.Sentinel. schrieb:
Natürlich- Wer braucht schon erheblich mehr FPS mit zeitgleich höher möglicher Bildqualität bei geringerem Stromverbrauch? Würde mich beim Kauf einer Grafikkarte auch nicht die Bohne interessieren, wenn sie sowas kann....

Sind wir hier tatsächlich noch in einem Computertechnikforum?
Nichts für ungut aber ähnliches gibt es schon seit zig Jahren.
Hau in entsprechenden Spielen die Render Skalierung z.B. auf 200% und ziehe in der heutigen Zeit z.B. nochmal einen entsprechenden Schärfefilter drüber. Schon kommst du auf den gleichen Leistungsgewinn, welcher zwar nicht auf die gleiche Qualität kommt aber dafür unabhängig vom GPU Hersteller funktioniert.
Wer es noch einfacher haben will läßt das Bild einfach gleich in der kleineren Auflösung rendern und das Bild anschließend von der GPU oder dem Bildschirm hoch skalieren.

Wege um auf die gleichen Leistungsgewinne zu kommen gibt es also genug, Nvidia geht mit DLSS nur einen etwas anderen Weg der wie so oft auf die eigene Hardware beschränkt ist und wird schon deshalb eine ähnliche Marktdurchdringung erreichen wie all die anderen Ansätze davor.
 
Warum ich lieber nicht DLSS 2.0 verwende ?
Weil es nur bei einer handvoll Spiele von nVidias "Gnaden" funktioniert (und funktionieren wird)

Weil es eine alternative GIBT die sogar auch auf nVidia-Karten (for free) läuft (siehe ArsTechnica Test) !
FidelityX (mit CAS)

https://www.reddit.com/r/Amd/comments/hri67n/death_stranding_dlss_20_vs_native_vs_fidelityfx/
https://arstechnica.com/gaming/2020...of-death-stranding-is-the-definitive-version/
https://www.dsogaming.com/screensho...ative-4k-vs-fidelityfx-upscaling-vs-dlss-2-0/
https://www.hardwareluxx.de/communi...-und-fidelityfx-cas-im-leistungstest.1273853/

Weil FidelityFX weniger Performance kostet
Weil FidelityFX wesentlich einfacher und flexibler eingestellt werden kann

Und schliesslich und zuletzt. Es ist ein Gerücht dass DLSS 2.0 BESSER aussieht als "nativ". Das ist technisch nicht möglich, es sei denn du vergleichst Äpfel mit Birnen. Das gilt auch für FidelityFX (CAS)

Aber damit genug side-trolling in dem Topic.

Sorry for Offtopic.
 
milliardo schrieb:
Wenn DLSS/AMDVariante mehr FPS, mehr Effizienz und ggf. sogar bessere Bildqualität liefern, dann kann das mir das doch 100% egal sein, wie die das machen. Technik? Magic? Whatever. Es gibt keine Verlierer in der Geschichte.
Der Kunde wäre der Verlierer in der Geschichte denn der mit Abstand wichtigste Punkt fehlt. Die herstellerunabhängige Funktionsweise denn kein Spiele Hersteller würde sich die Kosten und den Zeitaufwand für die Implentierung von 2 vom GPU Hersteller abhängige Funktionen mit dem gleichen Funktionsprinzip ans Bein binden.
 
  • Gefällt mir
Reaktionen: daknoll und schkai
Wadenbeisser schrieb:

Der Unterschied ist nur, dass ersteres ein schlechteres Bild ergibt, bei besserer Leistung und dlss ein besseres Bild, bei besserer Leistung.
Aber klar "ist das gleiche"...
Und ob nvidia mit seinem Ansatz die Technologie auf eigene Karten zu begrenzen scheitert wird nur die Zukunft zeigen.
Aktuell steht die Technologie als verkaufsargument für nvidia Karten im Raum. Und wenn es dann in 5 Jahren eine offene Technologie gibt, welche dann überall genutzt wird, kann das nvidia egal sein, weil sie dann 5 Jahre lang einen Pluspunkt für ihre Karten hatten.
 
Zuletzt bearbeitet von einem Moderator:
MrChronos schrieb:
Der Unterschied ist nur, dass ersteres ein schlechteres Bild ergibt, bei besserer Leistung und dlss ein besseres Bild, bei besserer Leistung.

Das ist leider falsch - wie Benchmarks und Tests belegen.
Siehe ArsTechnica/DSO Gaming.

EDIT: Ah sorry - das bezog sich nur auf die "Alten Verfahren" und nicht FidelityFX (CAS)...dann stimmt die Aussage im Prinzip.
 
Iscaran schrieb:

FidelityFX sieht nur leider deutlich schlechter aus als DLSS 2.0.
Und technisch ist das "besser aussehen" als bei nativer Auflösung eben doch möglich. Denn die KI wird nicht mit 4k Bildern angelernt, sondern mit 8k Bildern. Deswegen sind dann bei 4k DLSS teilweise Details zu erkennen, die erst bei 8k nativer Auflösung zu erkennen wären.
 
Zuletzt bearbeitet von einem Moderator:
Wadenbeisser schrieb:
Vollzitat entfernt.

Willkommen in der freine Marktwirtschaft.

Ich finde DLSS eine interessante Technik, aber für mich speziell kein Kaufargument, ebenso wenig wie aktuell Raytracing. Das könnte allerdings daran liegen, dass ich es noch nicht wirklich genutzt habe.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: blackTEHhawk
Bitte lasst den AMD Hypetrain endlich gegen die Wand fahren das ist ja echt peinlich.

AMD Wird nichts mehr reißen.
 
Quelle: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12467476#post12467476


https://translate.googleusercontent....vCgsNNcBmg565A

Interessant: AMD scheint was an der Treiberausführung geändert zu haben. Die "Default" Wavegröße ist nun wohl auf 64 gewachsen - statt wie bisher 32.

Das hat wohl damit zu tun dass man dadurch mehr im L0 Cache "bleiben" kann - was also die GPU-Memory Bandbreite Effektiver gestaltet und somit die IPC erhöhen dürfte (Änderungen in dem Bereich (zusätzlicher L1 Cache usw, hatte man ja von GCN5 => RDNA1 gemacht um damit die IPC so drastisch zu erhöhen)

Das ganze liest sich ein bisschen so ähnlich wie die Anpassung die nVidia mit Ampere gebracht hat mit dem "Float only" modus für ihre Shader.

Auch bei der Wave64 Implementation würde die INT-Leistung übrigens scheinbar "halbiert" werden. (da nur noch 1 skalarbefehl Paralle pro Wave bearbeitet werden kann, wohingegen bei Wave32 das wohl 2 sind).

Die Japanische Übersetzung ist etwas schwierig, noch dazu für einen Laien was GPU-Programmierung betrifft :-).

Aber das sieht mir nach einem starken Indiz für die Frage aus:
Warum reichen 256bit SI
IPC-Optimierung => und damit P/W

FALLS AMD damit wirklich wie Ampere nochmal zusätzliche FP-Leistung rausholt dann kann das nochmal einen richtigen Schub in der Leistung geben (bei Ampere ja ca 30%).

Das hier ist auch interessant: Man kann wohl Treiberseitig einzelne CUs deaktiveiren:
https://translate.googleusercontent....S_HjT0x9n26g2Q

Coelacanth hat das sogar gebenchmarked für 2 CU, 4 CU usw bis 16 CU

Damit sieht man wie gut die Architektur mit CUs skaliert - nahezu linear bis 16 CU :-) für die simplen Tests - aber im 3D-Mark flacht die Kurve dann schon merklich ab (Power Target von 48 W?)
Würde mich mal mit 5700 XT interessieren so ein Test.
 
  • Gefällt mir
Reaktionen: Rockstar85 und ComputerJunge
Wir hatten diese DLSS und Fidelity Diskussion doch schon vor ein paar Seiten und dann alle 3 Seiten wieder. Und wie bei den unzähligen Diskussionenvorher werdet ihr die andere Seote nicht davon überzeugen das das Bidld dadurch besser, schlechter oder anders wird. Des Menschen Wille ist sein Himmelreich

€ Max war schneller
 
MrChronos schrieb:
Der Unterschied ist nur, dass ersteres ein schlechteres Bild ergibt, bei besserer Leistung und dlss ein besseres Bild, bei besserer Leistung.
Aber klar "ist das gleiche"...
lesen bildet......wo war noch gleich meine Aussage das es das Gleiche wäre...?

Die Argumentation über die Bildqualität finde ich in sofern witzig das man über die anderen Wege diesen FPS Zuwachs in allen Spielen und mit allen Grafikkarten erreichen kann, sowie die dafür typische FPS Junkie Fraktion genau jene ist die die Bildeinstellungen für möglichst hohe FPS runter schraubt oder gar noch in den Configs des Spiels rumfummelt um ein noch schlechteres Bild für noch höhere Frameraten zu erhalten.
Mit anderen Worten sind meist jene die nach möglichst hohen Frameraten gieren nicht gerade die die allso viel Wert auf Bildqualität setzen und womit wird das dann nur allso gern begründet? Sieht man bei dem schnellen Spielgeschehen ja eh nicht.

Das hat ein wenig was von den damaligen Diskussionen um die RTX Effekte bei Spielen wie Battlefield und was die Spiegelungen doch alles ermöglichen würden, die aufgrund der Frameraten in der Praxis aber praktisch irrelevant waren.
 
@Rockstar85

noch kann man ja kaum jammern, keiner weiß wie schnell die Karte ist. Vielleicht rennt sie bei 2,4 Ghz ja selbst de 3090 davon, es ist immerhin die doppelte Leistung der 5700 XT + deutlich mehr Takt + RDNA 2. Rechnerisch müsste sie also sogar die 3090 abhängen.

Und wenn sie dabei 300-350W frisst, dann soll sie das.

Edit: Die 5700 XT taktet mit ~1800 Mhz im schnitt (Game Clock)
https://www.computerbase.de/2019-07...hnitt_die_tatsaechlichen_taktraten_unter_last

Die 3080 FE ist aufs % doppelt so schnell im GPU Limit
1603265962781.png


Angenommen AMD schafft es die CU halbwegs brauchbar auszulasten, dann hätte man also schon bei 1800-2000 Mhz und 80 CU die Performance der RTX 3080 FE inne.

2,4 Ghz Game Clock würden ~33% mehr Takt entsprechen, also rechnerisch ohne Betrachtung der Architektur würde ein 80 CU RDNA 2,4 Ghz Chip etwa 266% der RX 5700 XT leisten.

Außer AMD hat wieder mal ein Auslastungsproblem, wie zB bei der Vega usw, unter 200% Scaling über eine 5700 XT bei dem massiven Takt wäre schlicht schlecht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und Strubbel99
LikeMikeSter schrieb:
Ich finde DLSS eine interessante Technik, aber für mich speziell kein Kaufargument, ebenso wenig wie aktuell Raytracing. Das könnte allerdings daran liegen, dass ich es noch nicht wirklich genutzt habe.
Das ist es durchaus aber aufgrund der Beschränkungen aber am Ende chancenlos am freien Markt.
Es wandert wohl mal wieder nur so lange in Spiele wie nvidia wie auch immer dafür zahlt und ist in der heutigen Form dann wieder weg vom Fenster.
 
  • Gefällt mir
Reaktionen: bad_sign
Zurück
Oben