Test Control mit RTX & DLSS im Test: Von sehr hübsch bis fehlerhaft ist alles dabei

ZeroZerp schrieb:
Ich habe mir das Spektakel mal näher angesehen. Ich denke, dass die Engine eine enorme Belastung durch die Dynamik erhält. Jeder Baustein einer Szene ist dort veränderbar/wandelbar. Es gibt eine Shitload an Physikspielereien inkl. physikalisch simulierter Partikeleffekte.
Auch wenn das Artdesign bewusst "schlicht" gehalten ist, gab es bisher kein Spiel, was einen ähnlichen Detailreichtum geboten hat.
Diese Fexibilität fordert ihren Tribut.

Wenn man sich an Zeiten von Bethesdas Oblivion zurückerinnert, wo man in den ersten Demos noch dynamische Soft- Shadows bewundern konnte, sie aber dann aus Performancegründen zurückrudern mussten,
weil bewegbare Objekte damit unglaublich viel Leistung kosten, dann kann man sich vorstellen, was bei Control auf die Engine "einprügelt".

Du darfst hier einfach keine tiefergehende Außeinandersetzung mit dem Thema erwarten.
Da wird nur kurz draufgeschaut und dann wird schnell eine Meinung dazu abgegeben.
Wenn man zum Beispiel ein Fass aufhebt und es in seine Gegner schleudert, interagiert die Physik und die Beleuchtung mit allen Elementen , sowie auch der veränderten Umgebung. Ich glaube ehrlichgesagt nicht, dass es das in dieser Qualität vorher schon einmal gegeben hat.
 
  • Gefällt mir
Reaktionen: Bccc1, chris333, .Sentinel. und eine weitere Person
Ein Titel der massiv auf RTX setzt, aber mit DX11 besser läuft als mit DX12 das für RTX Pflicht ist...
Raytracing schön und gut, aber in solchen Genres will ich mir, seitdem ich 144Hz gewohnt bin, diese FPS nicht mehr antun, obwohl ich eigentlich eine Grafikhure bin.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: schkai, Vollkorn und Mcr-King
Welches Feature Set von Turing wird eigentlich verwendet, dass die Arch hier so dominiert, RT mal außen vor.
 
Ed40 schrieb:
Schon schade das man die interne Kantenglättung nicht deaktivieren kann, ich mag diese matschige Unchärfe der Texturen bzw Objekte überhaupt nicht. Obendrein sind die Frameraten insgesamt ein Witz. Mein erstes Spiel, das ich für über 60 Frames in Low Quality spielen muss? Never ever. Und ich tue Nvidia nicht den gefallen und tausche meine GTX 1080 deswegen gegen eine dieser überteuerten RTX Karten aus.

Pascal ist zwar schon extrem alt, hält aber noch hervorragend mit. RT ist zwar hübsch anzuschauen aber die Anforderungen an die GPU sind zu hoch und die performance leidet einfach zu stark.
GTX1080 und GTX1080Ti sind die mit großem abstand besten GPU´s der vergangenen fünf jahre.
GTX1080 ist fast vier jahre alt. Es ist unglaublich wie die karte heute noch performed und auch die effizienz ist kaum schlechter als bei den ganzen neuen modellen.

Es macht daher überhaupt keinen sinn zu upgraden auf Turing oder RDNA.
Im durchschnitt ist RTX2070 um lächerliche 10% schneller und auch ein upgrade auf RTX2080 ist nicht gerade sinnvoll.
Es sollten schon mindestens 80% sein, so sehe ich das zumindest.
Ich finde diese seite ist für Leute die sich über die performance informieren möchten perfekt, alle professionellen testberichte werden hier zusammengefasst und der durchschnitt wird angegeben. Das sind ca. 30 professionelle testberichte, besser gehts nicht.

http://www.3dcenter.org/artikel/lau...080-ti/launch-analyse-rtx-2080-2080-ti-seite3

Die performance bei Control finde ich katastrophal. Wenn aktuelle GPU´s die magischen 60FPS nicht halten können in FULLHD, dann ist das ein absolutes NO GO ! Das tollste und bestaussehendste Spiel bringt mir nichts, wenn es extrem mies performed und das ist hier leider der fall.

Control sieht optisch ganz in ordnung aus, nicht mehr und nicht weniger.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: grossernagus, Recharging, -GL4x- und 3 andere
ZeroZerp schrieb:
Schau Dir die neueren Engines an und wo sie sich hinentwickeln. Wenn genau eine Entscheidung von NVIDIA zu 100% für alle Szenarien (Rasterbasiert/RT) die Richtige war dann die Möglichkeit eben Int+FP Parallel ablaufen lassen zu können.
Ich kenne die Möglichkeiten der neueren Engines und weiß auch wohin sie sich entwickel. Ich hab mich da vielleicht gerade etwas zu ungenau ausgedrückt, aber was du da schreibst ist jetzt zu pauschal und da auch falsch.

In GCN waren die einzelnen Vektoreinheiten schon recht flexibel und auch Kontextlos, so dass in einem Shadercluster zum Beispiel 3 der 4 Vektoreinheiten FP32-Berechnungen durch führen konnten, währen eine sich um die INT32-Werte kümmerte.

Pascal war da etwas unflexibel, wenn in den Shader auf FP32 ausgelegt wurden, dann mussten alle erst mal die FP32-Befehle aus führen, die INT-Befehle kamen danach. In soweit ist es also schon richtig, dass nVidia hier nun die ermöglicht parallel die INT32-Befehle auszuführen.

Aber ist es wirklich der "bessere" Weg für alle möglichen Datentypen bei nVidia gesonderte Recheneinheiten zu nutzen? Klar, auf den ersten Blick ist es toll, auf den zweiten Blick steigt aber der Verwaltungsaufwand wieder an und es könnte passieren, dass man den Shader-Block eben nicht mehr so ausgelastet bekommt, wie man möchte.

Im Endeffekt ist das aber eine "Implementierungsfrage". Welcher Weg jetzt besser ist, also flexible Vektoreinheiten wie bei AMD, oder die recht staren INT und FP-Einheiten bei nVidia, das kann man so nicht sagen, denn aktuell sind die "Shader-Blöcke" von beiden Grafikkarten am Ende gleich stark. (Den 1% zu Gunsten RDNA lassen wir mal bei CB unter den Tisch fallen.)

Hier wird es sich zeigen, aber GCN war bereits massiv flexibel, was seine Vektoreinheiten angeht. Das sieht man auch daran, dass Vega64 gegen den alten Konkurrenten in neuren Spielen auch besser wurde. ;)


ZeroZerp schrieb:
Rein technisch ist das jedoch abzusehen, weil gleichzeitiges Int+FP das berühmten "fine wine"-Potenzial in sich birgt.
Gegenüber Pascal auf jeden Fall, das war aber eine spezielle Schwäche von Pascals und der Vorgängerkarten, keine Schwäche der GCN und nun auch RDNA.

Das Potential ist primär den eigenen Karten Vorgängern gegenüber geben. Nicht der Konkurrenz gegenüber. Das liegt aber - wie ich dargelegt habe - auch in den Unterschiedlichen Herangehensweisen von nVidia und AMD bei den Shadern, nach außen hin sind zwar ein paar Eckdaten gleich, aber darunter wird es lustig. ;

ZeroZerp schrieb:
Mesh shader, die ganzen adaptive shading Möglichkeiten und vor allem das Speicherzugriffs,-Cache Management, dass Unmengen an Diespace verbraucht, aber eben genau auf die zukünftigen Anforderungen gemünzt ist.
MeshShader - in ähnlicher Form - sind auch in Vega bereits implementiert. Hier ist es wichtig, dass sowohl in DX12 als auch Vulkan entsprechend nun ein gemeinsamer Standard gefunden wird und dieser genutzt werden kann.

Genau so ist es ja mit Adaptive Shading, hier gibt es zum Glück VSR. Hier hat AMD zwar mit der RDNA1 noch zwei mal das nachsehen, aber nur im ersten Augenblick, wirklich fehlen tut eigentlich aktuell nur VSR.

Wenn man nun "gemein" sein will: nVidia holt hier teilweise zu Vega eigentlich nur auf. Was bei Vega und GCN schon möglich ist, kann nVidia jetzt erst mit Turning. ;)

Aber wir sind nicht gemein. Turning hat nun wichtige Schritte gemacht, die moderne Techniken nun ermöglichen. AMD war da teilweise bei einigen Sachen mit GCN zu vorschnell. Aktuell befinden sich beide Hersteller auf dem richtigen Weg, sie dürfen jetzt nur nicht einschlafen.

ZeroZerp schrieb:
Turing wird eine Architektur sein, die verhältnismäßig langsam altern wird.
Mag ich nicht wirklich beurteilen. Wie ich bei meinem Gemeinenteil schon sagte, hat nVidia bei einigen architektonischen Aspekten zu AMD nur aufgeholt. ;)

Im Endeffekt hängt die Alterung von Turning, aber auch RDNA aktuell davon ab, wie schnell sich die Spiele nun weiter entwickeln und was als nächstes so ansteht. Ich würde da eine Wette eingehen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
ZeroZerp schrieb:
[...]Die überwiegende Anzahl an Spielern spielt die Spiele einfach nur. Ohne FPS Counter.
Und haben nebenbei womöglich sogar noch mit Konsolen Spaß.[...]

So sollte es auch sein, aber warum zwingt Remedy (und bei der Art der Werbung für RTX die Control darstellt, indirekt auch NVidia) mich jetzt dazu deutliche Abstriche zu meinen bisherigen Gewohnheiten zu machen für Verbesserungen, die mir evtl. gar nicht wichtig sind?

Und warum ist das zwangsläufig etwas Gutes?

Und warum verteidigst du das einerseits so verbissen, zeigst andererseits aber auch Verständnis dafür, dass das grafische Gesamtbild aus mehr als physikalisch korrekten Lichtern, Reflexionen, etc. besteht?

Mir als grafisch "anspruchslosem" Kunden reichen bei Shootern 1440p@60fps. Und da müssen es nicht die Ultra Einstellungen sein, Hoch oder Mittel sehen in meinen Augen meist annähernd gleich gut aus.
Andere Genres kann ich mit 30fps immer noch genießen.

Aber jetzt kommt das Highlight: Gut gefaked reicht mir oftmals. Die besagten Reflexionen aus Hitman 2 mögen für dich der absolute Immersionskiller sein. Für mich sind sie das nicht. Und für @ZeroStrat und wohl einige andere User sind sie das auch nicht.
Für mich ist aber die Tatsache, dass ich für Control auf meinem 1440p Monitor eine neue GPU bräuchte um auch nur Niedrig bis Mittel befeuern zu können und dann hässliche bis keine Reflexionen habe durchaus ein Immersionskiller.
Von (durch DLSS und die grundlegenden Eigenschaften der Engine) verwaschenen 1440p mit RT und den Kosten für die entsprechende GPU ganz zu schweigen.

Und natürlich bin nicht blind, ich sehe auch, dass die Screenshots mit RT bisweilen merklich besser aussehen, als ohne, aber warum zwingt man mich dazu zwischen ohne Reflexionen und "hässlich" und mit Reflexion und dafür "unspielbar" zu wählen?

Remedy opfert in meinen Augen gerade auf dem RT Altar die Spielbarkeit für 95% der Kunden, indem man mindestens eine RTX 2070 oder RX 5700XT voraussetzt um in 1080p die 60fps mehr schlecht als recht zu halten.

Mit RT und DLSS sieht's auch nicht besser aus.

Wenn man RT nicht flüssig liefern kann, dann sollte man es vlt. noch gar nicht liefern, wenn die Alternative ist, dass der Großteil der Spieler das Spiel nur mit sehr rudimentären Reflexionen überhaupt flüssig spielen kann und selbst "Schwergewichte" wie die GTX 1080 oder Vega 64 in 1080p noch nicht einmal 60fps im Schnitt halten können und bei den Frametimes sogar weit davon entfernt sind.

Und als persönliche Frage: Warum bringst du überhaupt Zelda BotW ins Spiel?
Warum ist es da in deinen Augen in Ordnung, wenn Auflösung und Framerate nicht den Ansprüchen der PC Master-Race entsprechen, weil der Spielspaß davon nicht beeinträchtigt wird, aber bei Control ist es kein valides Argument, dass für andere User durch die RT-Einbußen eben der Spielspaß beeinträchtigt wird und man mit Fake Reflexionen und Beleuchtung glücklicher wäre.

Misst du da nicht mit zweierlei Maß?
 
  • Gefällt mir
Reaktionen: Recharging, Zitterrochen, Heschel und 2 andere
Welcher Treiber wurde denn hier verwendet für Nvidia-GPUs? Nvidia hat vor wenigen Minuten einen neuen für Control veröffentlicht. Den 436.15 mit neuer NGX-Komponente. Bitte mal nachtesten.
 
  • Gefällt mir
Reaktionen: KlaraElfer, Ballermann69 und Kev2one
Lübke82 schrieb:
Welcher Treiber wurde denn hier verwendet für Nvidia-GPUs? Nvidia hat vor wenigen Minuten einen neuen für Control veröffentlicht. Den 436.15 mit neuer NGX-Komponente. Bitte mal nachtesten.
Alles nochmal testen bitte.
 
  • Gefällt mir
Reaktionen: Jan
Der 436.15 kam raus. Er ist für Control optimiert. Der 436.02 war anscheinend noch nicht für Control optimiert.

Oh, zu lame.
 
  • Gefällt mir
Reaktionen: Lübke82 und Vollkorn
Teralios schrieb:
Aber ist es wirklich der "bessere" Weg für alle möglichen Datentypen bei nVidia gesonderte Recheneinheiten zu nutzen? Klar, auf den ersten Blick ist es toll, auf den zweiten Blick steigt aber der Verwaltungsaufwand wieder an und es könnte passieren, dass man den Shader-Block eben nicht mehr so ausgelastet bekommt, wie man möchte.

Eine GCN CU hat doch auch gesonderte Einheiten?!
 
  • Gefällt mir
Reaktionen: .Sentinel.
Danke für den Test! Könnt ihr es mit dem neuen Treiber nochmal testen?:schaf:
2019-08-27 16_17_00-NVIDIA DRIVERS GeForce Game Ready Driver WHQL.jpg
 
  • Gefällt mir
Reaktionen: Lübke82
Lübke82 schrieb:
Welcher Treiber wurde denn hier verwendet für Nvidia-GPUs? Nvidia hat vor wenigen Minuten einen neuen für Control veröffentlicht. Den 436.15 mit neuer NGX-Komponente. Bitte mal nachtesten.
Auch der 436.02 war schon für Control optimiert. Wenn man sich die Release Notes anschaut, ändert der 436.15 nichts, was mit Control zu tun hat.
 
  • Gefällt mir
Reaktionen: meckswell, .Sentinel. und Vollkorn
Man kann die Renderauflösung übrigens doch 1:1 einstellen. Anders als im Artikel geschrieben. Sieht dann auch nicht matschig aus worüber ihr euch so ausgeheult habt.
 
  • Gefällt mir
Reaktionen: Lübke82
Kann mir wer helfen?
Beim Starten des Spiels sagt mir das Spiel, das mein System ROTGRÜN ist, es aber nur bei BLAUGRÜN startet.
 
Wolfgang schrieb:
Auch der 436.02 war schon für Control optimiert. Wenn man sich die Release Notes anschaut, ändert der 436.15 nichts, was mit Control zu tun hat.

Okay, mich wundert nur der recht hohe Sprung der Versionsnummer in der NGX-Bezeichnung. Ist die Komponente nicht für die RTX-Erweiterungen zuständig?
 
SKu schrieb:
Kann mir wer helfen?
Beim Starten des Spiels sagt mir das Spiel, das mein System ROTGRÜN ist, es aber nur bei BLAUGRÜN startet.
Falscher Prozessor drin. Intel wäre richtig.
 
  • Gefällt mir
Reaktionen: Alphanerd und wal
Das Ding hier schmeisst die übliche Performance-Treppe komplett durcheinander. Alles außer Turing performt massiv schlechter. Und jetzt sag mir noch mal einer, das hätte nichts mit Geld von nVidia zu tun. :rolleyes:
 
  • Gefällt mir
Reaktionen: Geckoo, Heschel, -GL4x- und 3 andere
Anstatt Ressourcen in RT zu verschwenden, hätten sie besser die Performance im allgemeinen optimiert so das man in 1440p @ Hoch 60 FPS hat mit einer VII/5700xt/Nv Pendant.

Hoffentlich hauen die bald einen Patch raus welcher die Performance ordentlich verbessert.
Ansonsten Danke Nvidia für ein weiteres schlecht Optimiertes Spiel, nur weil ihr euren rotz durchprügeln müsst.
 
  • Gefällt mir
Reaktionen: Mcr-King und eXe777
Zurück
Oben