SKu schrieb:
Hängt stark vom Spiel selbst ab und nicht alles sieht schlechter aus. Es gibt auch Szenen, die sehen mit DLSS besser aus.
Es gibt sicherlich (noch) keine Szenen, in denen DLSS besser aussieht als
natives UHD. In FFXV profitiert DLSS nur davon, dass das TAA völliger Käse ist. Vor allem verglichen mit dem von z.B. idTech.
SKu schrieb:
Die Rede war von RT. Davon steht in den Anforderungen nichts. Davon abgesehen benötigt The Division 1 nur einen Bruchteil an VRAM bei gleicher Engine. Warum sollte z.B. der VRAM Verbrauch in 1440p um 100% ansteigen gegenüber 1080p, obwohl die Pixelzahl nur um 70% steigt? Weiterhin sind auch die Angaben der CPUs nicht wirklich nachvollziehbar. Für 1440p High soll also ein R7 1700 mit geringem Boosttakt (3,2Ghz auf allen Kernen) ausreichend sein und für 4K soll dann auf AMD Seite ein 2700X für "Elite" herhalten während bei Intel schon ein 10-Kerner von Nöten sein soll? Gerade der Sprung von 6700K, also von Quad mit HT auf Deca-Core mit HT, während AMD in beiden Fällen mit Octa-Cores und SMT angegeben wird ergibt doch überhaupt keinen Sinn.
Nein, die Rede war von steigendem
Speicherbedarf. Und inwieweit jetzt die CPU-Angaben nachvollziehbar sind, ist eine andere Geschichte. Es geht einzig um den Speicherbedarf. Wenn Ubisoft für UHD mit entsprechenden Settings 11GB empfiehlt, dann wird man sicher nicht mit 8GB auf den höchsten und besten Einstellungen spielen können.
Denn der steigende Speicherbedarf ist auch eine direkte Folge für RT - denn wenn das in Benutzung ist, steigt der Bedarf zusätzlich zu dem immer weiter benötigen Speicherplatz noch weiter an. Siehe z.B. das DF-Video zur 2060 und RT in BFV.
SKu schrieb:
Kann man machen aber im Endeffekt wird man kaum einen Unterschied dazu sehen, zumal die Texturen in der Demo alle ziemlich verwaschen und unscharf aussahen.
Kaum ein Unterschied wäre aber trotzdem ein Unterschied dafür, dass es keine Leistung kostet.
SKu schrieb:
Klar gibt es keine Garantie dafür. Ich kann mich aber bei AMDs Produktvorstellung zu Vega noch an die Primitive Shader erinnern und was danach passiert ist wissen wir alle. Eine Garantie gibt es auch bei Nvidia nicht aber zumindest existiert mit Turing die Option dafür. Bei Vega haben wir ja auch Features wie HBCC oder RPM bekommen und am Ende wurde das kaum genutzt.
Woher weißt du, inwiefern der HBCC von den Endusern genutzt wird oder nicht? Den kann jeder via Treiber aktivieren, insofern halte ich diesen Teil der Aussage für gewagt.
SKu schrieb:
Die NVIDIA GPUs laufen ootb schon recht nahe am Sweetspot. Ist es jetzt lobenswert, dass man bei Vega erst Hand anlegen muss, damit sie auch an ihren Sweetspot kommt oder nicht? Für mich ist das eher ein Negativpunkt, wenn ich als Kunde noch Hand anlegen muss, wofür eigentlich der Hersteller zuständig sein sollte.
Es sagt niemand, dass es lobenswert ist. Sondern dass es eine Möglichkeit gibt, einen gerne angeführten Kritikpunkt auf einfache Art und Weise zu eliminieren.
Und seit wann es ein Negativpunkt ist, wenn man die Möglichkeit hat, ein gekauftes Produkt nach seinen eigenen Wünschen anzupassen ist mir schleierhaft. Wenn der Fernseher ootb ein mieses Bild hast, ist das dann auch ein Negativpunkt, wenn man das übers OTD nach seinen eigenen Wünschen anpassen kann?
Nach deiner Logik dürftes du dir im Prinzip keinen Fernseher (oder Monitor) kaufen, weil man da fast immer Hand anlegen muss, um das Bild noch zu optimieren.
SKu schrieb:
Als Prosumer-Karte ist die Radeon VII mit Sicherheit interessant. Als Gamerkarte jedoch bleibe ich dabei, dass sie nicht wirklich umhaut und für ihre Leistungsfähigkeit zu spät auf den Markt kommt. Das ist, wenn wir es mal nüchtern betrachten, Leistung, die NVIDIA bereits in 16nm mit Pascal auf die Beine gestellt hat - quasi vor 2 Jahren. Ob die Radeon VII oder die TITAN RTX jetzt die bessere Wahl wäre, hängt doch vor allem von der Software der sogenannten Prosumer ab. Wer die Karten dafür einsetzt um damit Geld zu verdienen, die kaufen doch nicht wirklich diese GPUs für diese Preise. Das wird dann abgeschrieben und gut ist. Für Gamer sind beide Karten einfach nicht wirklich interessant.
Natürlich spielt auch die Software eine Rolle. Genauso wie das Preis-/Leistungsverhältnis eines Produktes, was bei der Radeon VII aufgrund von 1TB/s mit 16GB HBM2 und FP64 seinesgleichen sucht. Was bringt es mir, wenn die Titan 30% besser performt, aber 300% mehr kostet?
Ich finde die Radeon VII weiterhin sehr interessant für UHD-Gaming. In Kombination mit einem VRR-fähigen Monitor ist das mit den 16GB perfekt für UHD mit bester Bildqualität. Dass Leute, die auf dreistellige fps-Zahlen stehen nicht in UHD spielen werden, ist logisch. Aber wer reine Bildqualität bevorzugt kommt an UHD nicht vorbei. Und eigentlich auch nicht an den minimum 11GB einer 1080Ti/2080Ti.