Chillaholic schrieb:
Nein, wir sprachen ursprünglich über ne 2080S ohne RTX.
Du bist derjenige der reingegrätscht ist, meinen Satz aus dem Zusammenhang gerissen hat und ständig versucht mir Dinge vorzuwerfen die ich so nicht gesagt habe. Zuletzt sprachen wir dann über schlechte Verfügbarkeit von DLSS 2.0, nicht der Hardware. Denn die RTX-Serie ist weiterhin gut verfügbar.
DXR ist ein DX12 Feature, wie ich schon sagte.
Das setzt voraus, dass diese Spiele dann auch in aktuellen APIs laufen.
PS5 ist ne AMD-APU, also warum ist das interessant für mich?
Hast du nicht oben noch Leuten erklärt, dass AMD kein echtes RT hat?
Na wenn du dich stattdessen lieber auf wenige AAA-Titel fokussierst mach mal.
Ich zocke eher weniger AAA-Titel, daher für mich ziemlich uninteressant.
Cyberpunk wird wohl das erste AAA-Spiel seit langem, welches ich mir geben werde.
Übrigens zock ich in 1440p, nicht in 4K. 4K-Performance geht voll an mir voll vorbei.
1. Es gibt über 20 Titel mit DLSS 2.0 und es werden immer mehr. Ich weiß nicht wen du mit "wir" meinst, aber der Thread dreht sich um Ampere und du hast dich über Preise von Ampere beschwert, weil Tensorkerne auf der Chipfläche mitbezahlt werden müssen - und das aufgrund von angeblich weniger FPS. Diesen Zahn galt es zu ziehen und nichts anderes. Und da stimmen andere mit mir überein.
2. Die Next-Gen-Konsolen sind allesamt DXR- und somit DX12-fähig. Damit werden alle kommenden Ports und Meinstream-Spiele es auch sein. PS5 hat eine AMD-APU, korrekt. Das heißt es wird Möglichkeiten geben sowohl auf AMD als auch auf nVidia-GPUs so etwas wie DLSS 2.0 zu fahren - aber rate mal welche Kerne bei so einem Machine Learning-Ansatz die bessere Performance haben werden...
3. Oh, ich wusste nicht, dass man für Nicht-AAA-Titel so verdammt viel Leistung braucht. Komische Welt, die du dir da zusammenstrickst. Selbst für 3440x1440 reicht im Übrigen eine 1080 Ti locker für jeden Nicht-AAA-Titel; ich habe nämlich genau dieses Setup. Du solltest dich schon entscheiden ob es um deine persönliche Präferenz geht (dann war dein ganzer Beitrag völliger Nonsens) oder ob es um eine allgemein wirtschaftlich kluge Entscheidung geht (die nach FPS begründet ebenfalls Nonsens wäre).
Kacha schrieb:
Vielleicht solltest du dich vor dem naechsten Kommentar noch mal hinsetzen und dich ueber die Begriffe die du verwendest erkundigen. Du bringst einiges durcheinander.
Aber kurz fuer dich:
Raytracing Kerne != Tensorkerne.
RT Kerne sind Nvidias Implementierung in Hardware, AMD kann das komplett anders loesen und es ist trotzdem Hardware Raytracing.
RT und DLSS sind erstmal unabhaengig.
RT kostet Leistung.
DLSS kann auf eine hoehere Aufloesung skalieren.
RT nutz RT Kerne.
DLSS (ab 2.0) nutzt Tensorkerne.
DLSS war erstmal Nvidias versuch die Leistung von RT zu kompensieren.
Klar soweit?
Kann, machen aber die wenigstens. Erstens, weil sie noch aeltere Engines verwenden. Zweitens, weil es trotzdem mehr Aufwand ist und die grosse Basis der Kunden schlicht keine RT faehigen Karten hat. Und das wird auch noch einige Jahre dauern, bis ueberhaupt mal was mit RT als Requirement kommt.
Edit:
Das setzt aber keine RT Kerne voraus. Das ist nur das was Nvidia macht. Wenn AMD das anders implementiert und in ihre Shader integriert kommt es aufs selbe heraus. Es wird von der Hardware berechnet. Nvidia klatscht halt eigene Einheiten fuer RT, fuer KI, fuer was weiss ich drauf und hofft, dass das der richtige Weg ist. Wenn AMD alles in vorhandene Einheiten integriert hoffen sie eben darauf, dass das so klappt. Vorteil waere bei zweiterem Weg zumindest, dass die Einheiten nicht komplett brach liegen wenn man kein Raytracing verwendet.
1. Danke für die Erläuterung. Dann will ich meine Aussage umformulieren:
AMD hat keine dedicated Kerne für Maschinelles Lernen, worauf DLSS 2.0 aber nun mal basiert. Das heißt der Klon von Sony wird das Ganze zwar GPU-beschleunigt können, aber bei ähnlichem Algorithmus auf keinen Fall so gut wie Tensorkerne.
Und darum ging es mir.
Die RT Leistung an sich könnte bei AMD sogar besser sein, sofern die Konsolenports nicht nennenswert optimiert werden, da es auf derselben Architektur basiert.
2. Stalker Clear Sky und Stalker Shadow of Chernobyl sind hoffentlich von der Engine her alt genug für dich, dass du einsiehst, dass deine Aussage Mist ist. RT als absolutes Requirement wird bei modernen Engines wahrscheinlich nie kommen (es sei denn ein Spiel ist nur für Pathtracing gedacht) - aber genausowenig zwingt dich irgendwer 30 FPS zu schaffen. Es ging bei der Diskussion um Wirtschaftlichkeit von Tensorkernen.
3. Du versuchst dabei wirklich zu behaupten ein generischer Rechenkern kann genau so gut sein wie ein hochspezialisierter Rechenkern? Ich glaube du solltest dich noch einmal im Bereich der theoretischen Informatik umsehen. Dass generische Rechenkerne für alle nicht-RT/-DLSS/-whatever Games besser sind und dafür keine Leistung brachliegt ist genau der Grund warum AMD diesen Weg gegangen ist. Vielleicht ist das sogar der klügere Weg, aber das ändert nichts an den bisherigen Aussagen und der Entscheidung über Wirtschaftlichkeit von RT-/Tensorkernen.