Test Control mit RTX & DLSS im Test: Von sehr hübsch bis fehlerhaft ist alles dabei

pietcux schrieb:
Jetzt spiel doch einfach mal einige Stunden. Werd ich ab jetzt auch machen. Mit der gefakten Matschauflösung. Aber mit Raytracing.

Nein, danke. Da ziehe ich lieber native Auflösung samt RT auf Mittel statt hoch oder DX11 ohne RT vor.
 
pietcux schrieb:
Es ist klug hochskaliertes WQHD. Nicht mehr und nicht weniger. Das habe hier alle die es gut finden und nutzen kapiert. Na ja ich zumindest. So hat es Jensen Huang auch von Anfang an erklährt.
So einfach ist es halt nicht. Ja, es gibt Szenen, da sieht DLSS gut aus in Control. Und es gibt Szenen, da sieht es einfach nur schlecht und kaputt aus. Die Qualität von DLSS schwankt in dem Spiel enorm. Entsprechend gibt es Szenen, da sieht DLSS in der Tat besser aus als die eigentlich gerenderte Auflösung. Und es gibt Szenen, da sieht das keinen deut besser aus, manchmal gar schlechter. Im Schnitt kann man halt sagen, dass die Qualität bei DLSS schlicht so ist, als wenn man direkt in der Auflösung gerendert hätte. Da ist Control ja auch nicht das erste Spiel, wo es so ist.

Wenn du mit DLSS zufrieden bist, sei doch froh - dann ist es doch perfekt! Das gilt aber sicher nicht für Jederman.
 
  • Gefällt mir
Reaktionen: Recharging, pietcux und .Sentinel.
Falls es schon jemand geschrieben haben sollte, hab ich es leider übersehen:
Für diejenigen, die Lust auf das Spiel und ne Xbox One X haben: Ich habe ca. 2 h gespielt und finde das Spiel auf meine 4k TV (55") sehr stimmig von der Atmosphäre und schon deswegen auch optimsch beeindruckend, auch wenn die Effekte etc. vielleicht nicht immer Top Notch sind. Insgesamt (auf Englisch) für Leute, denen Alan Wake auch nicht zu wirr war, sehr empfehlenswert.
Wenn ich diese Version spiele, erscheint mir so gar nicht nachvollziehbar, dass sich Remedy übernommen haben sollte. Stellt sich vielleicht mal wieder eher die Frage, welche Priorität die PC Version hatte. Ich finde, das ist alles sehr nah an Quantum Break von der Optik.
 
Oha, Danke an cb für den Test!

Durchschnittliche Grafik mit herausstechenden Effekten und leider auch noch Grafikkfehlern... da ist die geforderte Hardware weit übertrieben.
Alleine schon der Abschnitt wo erwähnt wird das die neuen Grafikkarten massiv profitieren zeigt mir das für alte Gens wohl wenig bis gar nicht optimiert wurde.
Sind wohl jetzt langsam wieder an der Grenze zur neuen Konsolen-Gen und die Entwickler scheißen dann schnell auf alte Hardware und nehmen das neuste, Hauptsache mehr.

Für mich gibt es hier keinen logischen Grund warum ein durschnittlich aussehendes Game (abgesehen von den Effekten) mit zahlreichen Grafikfehlen so enorm starke Hardware benötigt. Hier ging wohl was schief, sehr schade.

Über Raytracing braucht man gar nicht erst zu reden, wie üblich bei Nvidia ist das mal wieder ein Joke und man benötigt die teuerste Hardware um überhaupt etwas davon zu haben und das wäre mir sogar noch zu wenig. Lächerlich.

Ziemlich schade, mag den Entwickler und diese Art Game, habe auch die vorherigen Spiele gerne gezockt. Würde mich jetzt halt mal noch interessieren wie die Konsolenversionen laufen, also nicht nur die PRo und X, sondern auch die normalen, wie dort die Optimierung ausgefallen ist...
 
  • Gefällt mir
Reaktionen: SchorschSepp
Captain Mumpitz schrieb:
....
Wie soll das nur auf Konsolen laufen und v.a. aussehen? 720p incoming!
Konsolen sind ganz anders optimiert, sieht man zB. sehr gut an Uncharted 4 oder Lost Legacy. Ist schon krass was man so aus der relativ alten PS4 Pro zB. "rausquetschen" kann.
 
  • Gefällt mir
Reaktionen: Zitterrochen und revan.
revan. schrieb:
Über Raytracing braucht man gar nicht erst zu reden, wie üblich bei Nvidia ist das mal wieder ein Joke und man benötigt die teuerste Hardware um überhaupt etwas davon zu haben und das wäre mir sogar noch zu wenig. Lächerlich.

Und wieder Jemand der keine Ahnung hat, was RT überhaupt bedeutet und auch von der Hardware fordert. Vor wenigen Jahren undenkbar fast im Gamingbereich und nun soll alles gleich in perfekter Geschwindigkeit laufen. Es ist halt der Anfang einer neuartigen Grafikimplementierung. Haben die Leute damals auch mit ihren AMD(ATI)-Karten so gejammert, als Tesselation so beschissen auf ihren Karten lief? Ist für mich die gleiche Situation damals gewesen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: .Sentinel., squadric und pietcux
pietcux schrieb:
Das habe hier alle die es gut finden und nutzen kapiert.

Ich habs verstanden und finde es trotzdem nicht gut. Nutzen würde ich es erst recht nicht. Und nun?

pietcux schrieb:
Jetzt spiel doch einfach mal einige Stunden. Werd ich ab jetzt auch machen. Mit der gefakten Matschauflösung. Aber mit Raytracing.

Nein, Danke. Noch dazu, dass selbst auf einer 2080Ti mit DLSS gerade mal so gut 60fps in WQHD zustande kommen. UWQHD auf brauchbaren Frameraten für einen Shooter mit dem Ding also unmöglich, selbst auf eienr 2080Ti. Und dann siehts nicht mal gut dabei aus.

Da halte ich es eher wie @SKu:

SKu schrieb:
Da ziehe ich lieber native Auflösung samt RT auf Mittel statt hoch oder DX11 ohne RT vor.

^

Wolfgang schrieb:
Im Schnitt kann man halt sagen, dass die Qualität bei DLSS schlicht so ist, als wenn man direkt in der Auflösung gerendert hätte. Da ist Control ja auch nicht das erste Spiel, wo es so ist.

Und so etwas sieht man. Ich hab das mal bei AC:O ausprobiert... Nee Danke, vermatschtes Bild, da hab ich deutlich lieber ein paar Details zurück gefahren.

Zu CRT Zeiten wäre das ganze noch akzeptabel gewesen, einfach ein oder zwei Auflösungsstufen runterstellen und mit ein paar pixeligen Kanten mehr leben. Aber heutzutage? Nein.

Lübke82 schrieb:
Haben die Leute damals auch mit ihren AMD(ATI)-Karten so gejammert, als Tesselation so beschissen auf ihren Karten lief?

Das hatte damals einen Slider, bei dem konnte man das ziemlich gut einstellen. Und der Performance-Verlust war damals bei weitem nicht so gravierend. Zugegebenermaßen gabs damals noch weniger Spiele, die das unterstützt haben, als jetzt mit RTX. :D
Tesselation ist dann auch erst einmal wieder verschwunden, bis es als Standard wiederbelebt wurde.
 
Lübke82 schrieb:
Und wieder Jemand der keine Ahnung hat, was RT überhaupt bedeutet und auch von der Hardware fordert. Vor wenigen Jahren undenkbar fast im Gamingbereich und nun soll alles gleich in perfekter Geschwingigkeit laufen.

Hm, komisch wie du beurteilen kannst wie viel Ahnung ich von RT habe, schließlich wurde von mir nur der vergleichsweise geringe Nutzen im Spiel in Relation zur verfügbaren Hardware beschrieben.
Worauf du hinaus willst was RT für eine Leistung ist, mit Verlaub, interessiert mich einen scheiß, wie es 99% aller Menschen nicht interessiert welche Technik in Ihren Geräten verwendet wird.
Wenn ich so einen Arsch voll Geld ausgebe und die BEWORBENE Technik dann nur schlecht oder gar nicht nutzen kann, ist das lächerlich.
Erinnert mich an die Sache mit Megapixel damals bei Kameras oder dieser Quatsch mit Werbung von HD und den ganzen Unterformaten. Da wird was beworben, was so einfach nicht in ausreichender Performance geliefert werden kann.
Es gibt keine Rechtfertigung für solche unsummen an Grafikkarte auszugeben und dann das beworbene Feature nur schlecht verwenden zu können.
Das dauert locker noch 1-2 Gens.
Wünsch dir aber viel Spaß dabei wenn du es jetzt schon benutzt, wer sich informiert kauft sich so einen Dreck erst gar nicht!
btw ist es noch nerviger dass viele Fanboys das Marketing von Nvidia auch noch nachlabern und selbst bei einer 2070 oder dergleichen meinen das ist eine RT Investition in die Zukunft, tja nächstes Jahr kaufen die Leute wieder die nächste Karte für weit über 500 Euro, haha. Und dann nicht mal gescheit das Feature nutzen zu können, würde vorher das Geld verschenken!
 
revan. schrieb:
Hm, komisch wie du beurteilen kannst wie viel Ahnung ich von RT habe, schließlich wurde von mir nur der vergleichsweise geringe Nutzen im Spiel in Relation zur verfügbaren Hardware beschrieben.
Worauf du hinaus willst was RT für eine Leistung ist, mit Verlaub, interessiert mich einen scheiß, wie es 99% aller Menschen nicht interessiert welche Technik in Ihren Geräten verwendet wird.
Wenn ich so einen Arsch voll Geld ausgebe und die BEWORBENE Technik dann nur schlecht oder gar nicht nutzen kann, ist das lächerlich.
Erinnert mich an die Sache mit Megapixel damals bei Kameras oder dieser Quatsch mit Werbung von HD und den ganzen Unterformaten. Da wird was beworben, was so einfach nicht in ausreichender Performance geliefert werden kann.
Es gibt keine Rechtfertigung für solche unsummen an Grafikkarte auszugeben und dann das beworbene Feature nur schlecht verwenden zu können.
Das dauert locker noch 1-2 Gens.
Wünsch dir aber viel Spaß dabei wenn du es jetzt schon benutzt, wer sich informiert kauft sich so einen Dreck erst gar nicht!

Danke für den Beweis meiner Behauptung.

Du musst ja auch nichts kaufen!

Guten Tag!
 
  • Gefällt mir
Reaktionen: pietcux und .Sentinel.
Lübke82 schrieb:
Danke für den Beweis meiner Behauptung.

Welcher Beweis welcher Behauptung? Nur mal am Rande, ich habe hier die Artikel zu RT bei cb verfolgt, nur weil das eine vielleicht laut dir bahnbrechende Technik ist, ist diese mit Verlaub eben nicht wirklich nutzbar.
Denke du hast 0 Argumente, versuchs aber mal!
 
MaverickM schrieb:
Bei Control hier, welches in DX11 besser rennt als in DX12 (!) gibt es dagegen absolut keine Erklärung für das Turing Verhalten.

Doch, auf PCGH hat Raff eine Vermutung:

"Die Engine liebt Turing, das tat sie schon in Quantum Break. Wir vermuten, dass das an der immensen Dichte an Post-Processing-Effekten und dem daraus resultierenden Instruktionsmix liegt. Turing kann mithilfe seiner INT32-Einheiten parallel zu den FP32-Instruktionen abarbeiten, andere GPUs machen entweder das eine oder das andere."

Quelle:
https://extreme.pcgameshardware.de/...rks-ohne-raytracing-20-modelle-im-test-3.html


Würde doch der Sache recht nahe kommen warum neue Architekturen damit besser umgehen in dem Spiel
 
  • Gefällt mir
Reaktionen: .Sentinel., RuhmWolf und Ballermann69
MaverickM schrieb:
Ich habs verstanden und finde es trotzdem nicht gut. Nutzen würde ich es erst recht nicht. Und nun?



Nein, Danke. Noch dazu, dass selbst auf einer 2080Ti mit DLSS gerade mal so gut 60fps in WQHD zustande kommen. UWQHD auf brauchbaren Frameraten für einen Shooter mit dem Ding also unmöglich, selbst auf eienr 2080Ti. Und dann siehts nicht mal gut dabei aus.

Da halte ich es eher wie @SKu:



^



Und so etwas sieht man. Ich hab das mal bei AC:O ausprobiert... Nee Danke, vermatschtes Bild, da hab ich deutlich lieber ein paar Details zurück gefahren.

Zu CRT Zeiten wäre das ganze noch akzeptabel gewesen, einfach ein oder zwei Auflösungsstufen runterstellen und mit ein paar pixeligen Kanten mehr leben. Aber heutzutage? Nein.



Das hatte damals einen Slider, bei dem konnte man das ziemlich gut einstellen. Und der Performance-Verlust war damals bei weitem nicht so gravierend. Zugegebenermaßen gabs damals noch weniger Spiele, die das unterstützt haben, als jetzt mit RTX. :D
Tesselation ist dann auch erst einmal wieder verschwunden, bis es als Standard wiederbelebt wurde.
Ich spreche nur für mich. Hab ich doch wohl ausdrücklich geschrieben, oder?
 
Für das Spiel wäre die Snowdrop engine von Division 2 prädestinert. Da würden wohl mehr als zweimal soviele FPS rauskommen bei gleicher Bildqualität(RTX-off).
 
Dachte mir vor kurzem noch, dass mir der fortgehende Trend zum extremen Leistungshunger gar nicht gefällt.
Die Kurve der Leistungsanforderungen kommt mir eher wie eine Treppe vor.

Ich frage mich, was passiert, wenn ich das Game mit meiner R9 390 Nitro starte.
Hmm, werden wir wohl Morgen erfahren :D (Das wird bestimmt nen Ruckelfest :D, wer geht mit ? Wer wettet dagegen ??)

Lg

Edit : Alles auf "niedrig", außer die Texturqualität und das Game rennt bei 72FPS.
Sieht auch gar nicht mal so gut aus :lol:
 
Zuletzt bearbeitet:
revan. schrieb:
Welcher Beweis welcher Behauptung? Nur mal am Rande, ich habe hier die Artikel zu RT bei cb verfolgt, nur weil das eine vielleicht laut dir bahnbrechende Technik ist, ist diese mit Verlaub eben nicht wirklich nutzbar.
Denke du hast 0 Argumente, versuchs aber mal!
Es ist auch bahnbrechend, nicht nur in der Gaming Branche, auch Echtzeit ect. Die Technik gibt es schon lange, die Implementierung eben nicht. Nur weil Du das nicht erkennen kannst, heißt es nicht es wäre anders.
 
  • Gefällt mir
Reaktionen: .Sentinel.
@squadric
Du hast nichts gesagt was mir nicht bekannt war und keine Ahnung wie du darauf kommst ich könnte was auch immer nicht erkennen.
Fakt ist, in dem Game ist es genau so wie es im Test steht und auch mit teurer Hardware alles andere als befriedigend.
Würde hier von Note 6 sprechen.
Wie ich schon dem anderen Kollege sagte, es bringt mir nichts wie bahnbrechend RT ist, ich bezog mich auf jetzt und hier, dieses Game und die verfügbare Hardware dafür. Und das ist eben kacke.

Aber ich seh schon deine Signatur, muss man dann nicht wirklich weiter reden. ^^
 
Keine Ahnung was jetzt meine Signatur damit zu tun hat, ich hab auch überhaupt nicht über das Game geredet, sondern über RTX. Wenn Du damit meinst ich müsse meine Graka verteidigen, da liegst du aber komplett daneben. Hat eher was mit meinem Beruf zu tun...
 
Ja keine Ahnung was du gesagt hast ist mir bekannt also auf was willst eigentlich hinaus!?
Naja bei deiner Grakka kann man halt von ausgehen du verteidigst das und wenn du hier nicht über das Game redest und RT im Bezug darauf, bist hier eh falsch.
Genau das ist das Problem wenn ein Blinder von der Farbe spricht.
Ich habe hier der Technologie nicht das Potential oder was auch immer abgesprochen, schlicht auf das Testergebnis Bezug genommen.
Wenn du nicht der Meinung bist kannst du dem cb Test ja gerne widersprechen, aber dann einfach OT bleiben lassen.^^
 
Zurück
Oben