Test Control mit RTX & DLSS im Test: Von sehr hübsch bis fehlerhaft ist alles dabei

Ich meine das sharpening. Vsr geht sowieso immer. Man kann's ja auch manuell einstellen
 
Sharpening setzt aber GeForce Experience voraus und das nutzt nicht jeder.
Von Rytracing mal abgesehen ist die Performance für die gezeigte Bildqualität halt einfach zu schlecht.
Das Spiel spricht eigentlich nur Nutzer ab 2070 und aufwärts an, weil alles darunter nicht einmal ein flüssiges Spielerlebnis gewährleistet. Und selbst die 2070 droppt in der Testszene schon ohne RT Effekte auf knapp unter 50fps.

Sorry, das ist einfach zu wenig, gerade auch in dem Hinblick, wenn ich den Kunden auch abholen will. Es gibt noch dermaßen viele Pascal-Nutzer, genauso wie auch AMD Polaris&Vega, die ein noch schlechteres Erlebnis in dem Spiel hätten als die User mit preislich schon oben angesiedelten Turing-Karten.

Remedy hat hier keinen guten Job geleistet, muss man einfach so sagen.
 
  • Gefällt mir
Reaktionen: Heschel
snaapsnaap schrieb:
RTX is Krampf, Reflexionen und Spiegelungen waren vorher genauso schön darstellbar. Fallt doch nicht auf den Mist rein.
Nein- Es waren PUNKTUELL wahlweise kleinere Flächen (kleiner aufgehängter Spiegel) oder 2-3 seitige Reflexionen (dann unter starkem Verlust an Grafikqualität) möglich.
Ansonsten hätte ich gerne einen Beispielscreenshot, wo ein älteres Spiel einen in sich spiegelnden abgeschlossenen Raum darstellt.

Spoiler:
Du wirst ihn nicht finden...

Gamefaq schrieb:
Ich würde sagen das die Grafikengine von Remedy für den PC schlicht mies ist. Sie ist darauf optimiert auf Konsolen durch nutzen von einer deutlich geringeren Auflösung und dann die Grafik vor dem Hochskalieren auf FullHD wieder auf zu hübschen, sprich die Kanten zu glätten , also bevor die Konsole sie wieder ausgibt.
Ich habe mir das Spektakel mal näher angesehen. Ich denke, dass die Engine eine enorme Belastung durch die Dynamik erhält. Jeder Baustein einer Szene ist dort veränderbar/wandelbar. Es gibt eine Shitload an Physikspielereien inkl. physikalisch simulierter Partikeleffekte.
Auch wenn das Artdesign bewusst "schlicht" gehalten ist, gab es bisher kein Spiel, was einen ähnlichen Detailreichtum geboten hat.
Diese Fexibilität fordert ihren Tribut.

Wenn man sich an Zeiten von Bethesdas Oblivion zurückerinnert, wo man in den ersten Demos noch dynamische Soft- Shadows bewundern konnte, sie aber dann aus Performancegründen zurückrudern mussten,
weil bewegbare Objekte damit unglaublich viel Leistung kosten, dann kann man sich vorstellen, was bei Control auf die Engine "einprügelt".

Im Allgemeinen wird die Rechenpower der eigenen Hardware überschätzt bzw. unterschätzt wieviel Leistung einige Effekte schlucken.


MaverickM schrieb:
Sehe ich ähnlich. Als Ersatz-Effekthascherei reingemischt in klassisches Rasterbasiertem Rendering ist Raytracing ein Witz und ehrlich gesagt auch komplett verschwendet.

Interessant wird es erst, wenn Echtzeit-Raytracing das Rasterbasierte Rendering komplett ersetzt.
Es ist ja keine ersatz- Effekthascherei. Die Effekte werden nur im Hybrid- Verfahren in vorhandene Rasterengines "eingeblendet". Die Ausgabe auf Effektebene sieht bei einem Pathtracer nicht anders aus.
Nur muss man im Augenblick einfach mit dem "Hybriden" Ansatz leben, der viel Leistung schluckt.

Das Verhältnis der Verteilung des Raster- und RT Anteils wird sich mit fortschreitender Verbreitung ändern.
So ist es bei einigen Effekten nicht effizient diese zu Raytracen. Somit denke ich, dass es erst sehr sehr spät dazu kommen wird (wenn überhaupt), ein reines Raytracing zu fahren.

Der Anteil und der Renderpfad wird sich in Richtung Raytracing verschieben. Das Gamedesign wird diesbezüglich anders aussehen und es werden andere "Tricks" berücksichtigt werden, die das Ganze dann performant machen können.

MaverickM schrieb:
Da statische Reflektionen mit Rasterbasiertem Rendering schon lange möglich sind, und auch nicht alzuviel Leistung kostet (Half-Life 2, hallo!?), sehe ich da eher wieder ein typisches "nVidia wirft mit Geld um sich, nur um ein Feature zu pushen". Das Ergebnis sieht man hier.
Da ergibt sich wieder die Problematik der Rasterisierung. Du kannst mit den herkömmlichen Methoden genau EINE spiegelnde Ebene sinnvoll/korrekt in ein Spiel integrieren. Das würde Dich dann ungefähr 40% Leistung kosten, wenn man diese auf das grafischen Niveau einer Raytracing Spiegelung bringen würde.

lynx007 schrieb:
Die Engine bzw der Code dahinte ist Schrott. RTX wie auch DLSS können aus ner schlechten Engine doch keine gute machen. Aber klar, Raytracing koset leistung, insbesondere wen man alle Effekte nutzen möchte, wie Global Ilumination und Reflexionen...
Ich bin mir, wenn man das gezeigte sieht, ehrlich gesagt nicht sicher, ob die Engine nicht tatsächlich schon eher in Richtung Raytracing optimiert wurde und deshalb der Rasteransatz zumindest performancetechnisch drunter leiden muss.

Ich bin mir auch nicht sicher, ob Control nicht auch das Maximum der Fahnenstange darstellt, was die RT Technik aus der derzeitigen Generation an Hybridtechnik mit aktuellem Wissen rausholen kann.

Ehrlich gesagt, bin ich sogar eher positiv überrascht, dass es tatsächlich einer gewagt hat, den Multieffekt- Ansatz zu wählen und dieser unter 1080P mit dem Flagschiff bereits in spielbaren FPS auf den Markt zu werfen.
Ich weiss, dass der Satz bei einigen für Entsetzen sorgen muss, wer sich allerdings mit Raytracing beschäftigt, der weiss vielleicht, was ich meine.

7hyrael schrieb:
So lange man den Klump abschalten kann...
Klump liegt im Auge des Betrachters. Für mich als Grafik- Fetischist geht ein Traum in Erfüllung.

Phear schrieb:
Auch wenn das wohl Sarkasmus sein soll. Da wäre mal interessant zu wissen wie viele 2080 TI Besitzer tatsächlich noch in Full HD spielen. Der Anteil wird verschwindend gering sein
Hier! Auf einem FullHD Beamer in 60Hz mit 2,8Meter Leinwandbreite.

DocWindows schrieb:
Erklär bitte mal warum zwangsläufig die Hardware schuld sein muss, wenn die Software underperformed. Auch ohne RTX sind die FPS nicht der Burner. Und das letzte Spiel auf Basis dieser Engine hat genauso underperformed.
Wie ich weiter oben geschrieben habe, macht sich in mir das Gefühl breit, dass die standard- Rasterperformance tatsächlich einen Kollateralschaden ertragen muss, weil einige Designentscheidungen/Berechnungsgrundlagen der Engine eher Richtung Raytracing zeigen. Ansonsten wäre die Performance des Multieffekt- Ansatzes nicht so hoch (man Entschuldige mir das Wort hoch in diesem Zusammenhang) und geweisse Teile des Leveldesigns wären anders gestaltet.

Die Engine wird, wie viele anderen neuen Engines auch enorm auf Int32/Fp64 mixed Instructions zurückgreifen (stochastisches Rendering). Ein Indiz dafür liefert die abfallende Leistung der Pascal Grafikkarten.

Teralios schrieb:
Klar klingt es im ersten Moment toll, dass die Shader nun theoretisch 64FP-Befehle und 64Int-Befehle zur gleichen Zeit ausführen können. Gleichzeitig stell ich mir die Frage, ob das in der Form so notwendig ist und ein anderes Design nicht besser wäre.
Schau Dir die neueren Engines an und wo sie sich hinentwickeln. Wenn genau eine Entscheidung von NVIDIA zu 100% für alle Szenarien (Rasterbasiert/RT) die Richtige war dann die Möglichkeit eben Int+FP Parallel ablaufen lassen zu können.
Für moderne Spiele ist das in Zukunft unabdingbar und Du wirst beobachten können, wie sich in Zukunft alle Pascal- Karten- Besitzer "betrogen" vorkommen werden, weil ihre superstarke GTX Grafikkarte unter Umständen von den Low- Midrange RTX Karten eingeholt bzw. überflügelt werden.
Rein technisch ist das jedoch abzusehen, weil gleichzeitiges Int+FP das berühmten "fine wine"-Potenzial in sich birgt.

Denn im Endeffekt kommt man - wenn man jetzt echt genau und spitz findig ist - jetzt zur Situation, dass nVidia aus ihrer Architektur mit sehr vielen Recheneinheiten nur das gleiche leistet wie Navi mit ihren umstrukturierten Shadern, von denen aber dennoch nur 64 pro Cluster vorhanden sind. 64FP-Shader + 64SP-Shader schaffen das, was Navi mit ihren 64FP-Shadern schafft. (Takt bereinigt natürlich. ;))
Siehe oben- Der Fine wine liegt diesmal auf Seiten NVIDIA, da sehr viel in Richtung Zukunft gedacht wurde.
Mesh shader, die ganzen adaptive shading Möglichkeiten und vor allem das Speicherzugriffs,-Cache Management, dass Unmengen an Diespace verbraucht, aber eben genau auf die zukünftigen Anforderungen gemünzt ist.

Turing wird eine Architektur sein, die verhältnismäßig langsam altern wird. Außer bei einem der "Gimmicks" Raytracing - Dort werden wir in Zukunft solange es die Speicherbandbreiten hergeben, große Sprünge sehen können.

Aber eines überrascht mich halt nicht: Die RTX Serie führt das Feature ein, aber für Spiele, die später das Feature wirklich nutzen, ist die aktuelle Serie eigentlich zu langsam und DAS war vorher zusehen. Es war in der Form eigentlich fast immer so. Mit den aktuellen RTX-Karten hat man nicht wirklich in eine langfristige Karte investiert, denn bereits Quake 2 RTX zeigt auf, dass die Karten eigentlich zu langsam sind.
Der "normale" Softwarezyklus war über Jahrzehnte so gestrickt, dass die Hardware immer deutlich hinter dem zurückblieb, was die Designer/Spieleentwickler an Möglichkeiten in die Spftware integriert hatten.
Es könnte sein, dass uns eine solch ein Szenario wieder bevorsteht. Ultra könnte wieder das Ultra von früher werden (erst mit nächster Hardwaregeneration spielbar).

Teralios schrieb:
Wir wollen mal ehrlich bleiben: Man sprach um die Jahrtausendwende davon, dass RT mit diesem Featureset in ca. 10 vielleicht 15 Jahren den Markt erreicht. Man sprach um 2005, dass es noch so 10 - 15 Jahre dauern kann und auch 2010 sagte man, dass es wohl noch so 10 - 15 Jahre dauert.
Genau. Es waren eben immer 10-15 Jahre... Seit ich denken kann und auf dem Amiga zuerst mit dem Data Becker Raytracer und später mit Reflections meinen Szenen gebaut habe.

Genau so sagte man damals aber auch immer wieder, dass es wohl auch schneller gehen könnte, da die Tricks beim Rasterizer am Ende sind und unnötig teuer werden und man fand dann halt doch einen Weg, der es ermöglichte, dass man beim Rasterizer blieb.
So sieht es aus

Jetzt ist halt wirklich das Ende der Fahnenstange erreicht. Man hat im Endeffekt RT immer nur weiter nach hinten verschoben, weil man neue Tricks fand oder Lösungen, die es irgendwie ermöglichten. Das ist nun vorbei.
Genaus deshalb ist/war der Technologiewechsel notwendig.

Teralios schrieb:
Und zeigen gleichzeitig, dass die erste Generation der RTX-Karten alles andere als eine Investition für den Spieler in die Zukunft waren, weil die Hardware eigentlich dafür viel zu schwach ist. ;)
Niemand hätte zu Zeiten eines C64 gedacht, dass es so etwas wie ein Wolfenstein 3D dafür geben könnte...
Das zeigt die unfassbare Entwicklung der Effizienz und Geschwindigkeitsoptimierungen die rein im Softwarecode stecken.
Wer weiss, was man da in Zukunft noch aus der RT Hardware rausholen kann, bzw. welche Tricks und Kniffe und auch kleine Softwarerevolutionen dann wieviel aus den vorhandenen Ressourcen quetschen.

Man investiert mit einer RTX20x0 nicht in die eigene Zukunft, man ist nur als erstes mit dabei und bereitet den Weg. Ähnlich wie damals die ersten T&L-Karten, DX8 und ebenso DX9-Karten, genau so die ersten DX11-Karten. Man bereitet den Weg für die Zukunft, sobald es standard wird, ist man zu langsam.
Sehe ich ähnlich, zumindest was RT betrifft. Dennoch kann man auch jetzt schon diverse Vorteile dadurch geniessen UND hat insofern Zukunftssicherheit, als dass auch das Rasterbasierte Featureset und die Möglichkeiten für zukünftige Engines erheblich aufgewertet wurden.

Silverangel schrieb:
Aber wenn man dann Szenen hat (wie der hier dargestellte raum) wo man dann Effekte gegen keine Effekte gegenüberstellt ist das halt auch kein fairer Vergleich.
Doch genau das ist der faire Vergleich. Rasterisiert würde so ein Raum in einem Spiel schlichtweg nicht existieren, da designtechnisch verboten, weil es die Technik nicht hergibt.

Gab auch schon Beleuchtungen (weiß grad nichtmehr von was das war), wo das Original ohne RTX der Realität halt näher kam als die mit RTX umgesetzten Effekte.
Sie wird hächstens an Genauigkeit einbüßen.
Alles Andere ist physikalisch kaum möglich, da auch prerendered GI auf Raytracing basiert.

TheManneken schrieb:
RTX ist für mich noch umso fragwürdiger geworden nach diesem Test. Ich bin immer mehr überzeugt, dass es das gleiche Schicksal wie PhysX ereilen wird. Meine subjektive Annahme fußt allerdings auch auf subjektiven Empfindungen.
Bitte Hardware- PhysX dazuschreiben, sonst gibts nur wieder Misverständnisse, da PhysX mit Einsatz bei über 500 Titeln die erfolgreichste Physikengine aller Zeiten ist.

v_ossi schrieb:
Momentan ist das ein Schritt vor und 3 Schritte (teurere Hardware, Auflösung, FPS) zurück.
Ja- Ist halt die Einführung einer neuen Technologie, die immer mit Kompromissen behaftet sein wird, da nicht "ausgereift".

Hitman 2 hat es zwar nur gefaked und es gibt immer mal wieder Stellen, an denen die Implementation komplett fehlte, aber dafür läuft es in 4K60 statt 1080p60.

Dann schau Dir das hier nochmal an:
https://www.computerbase.de/forum/t...t-die-strahlen-sind-los.1836054/post-21944050
Ich kann in keiner Art und Weise nachvollziehen, wie gerade Hitman mit diesen rudimentären, schlechten Spiegelungen immer als Paradebeispiel hergenommen wird, wenn es in grausamer Weise genau das Gegenteil verdeutlicht.

Warum lässt man dem Spieler jetzt gar keine Wahl mehr?
Weil man am Scheideweg steht, wo ein "wir bauen für jede Technologie ein eigenes Spiel" aus Kostengründen nicht funktioniert. Zudem muss man diverse Grundlagen beim Rastern-/Raytracing halt unterschiedlich implementieren/berücksichtigen. Auch das Leveldesign und dessen Möglichkeiten unterscheiden sich signifikant bei beiden Ansätzen. Worin das Münden kann, zeigt das Beispiel von Taxxor, wo man in einem schwarzen Raum, statt in einem dunklen Raum mit spiegelnden Wänden steht.

Einen Tod wird man also sterben und es ist abzusehen, dass es als nicht RT- besitzer in Zukunft immer mehr sein werden. Das war aber schon immer so und bei jedem Technologieschub im Grafikkartensektor zu beobachten.

Klar, die RT Version ist physikalisch richtig, aber man kann sich ewig darüber streiten, was besser ist, schöner aussieht, etc. aber da spielen dann eben auch das Artdesign und viele andere Faktoren mit rein.
Absolut richtig. Und das wird hier auch oftmals ganz gerne verwechselt.

Natürlich sind auch die Ergebnisse ohne RT wenig berauschend, das wollte ich gar nicht bagatellisieren, aber gerade wenn ich das Spiel als Vorzeigetitel für mein neues Featureset nutzen will und damit die Hardwareverkäufe ankurbeln will (Control gibt es immerhin als Zugabe bei den entsprechenden Grafikkarten), sollte doch mehr dabei herumkommen, als das, was hier im Test gezeigt wird.
Was erwartest Du von der ersten Generation, die sich erst kurz auf dem Markt befindet denn noch zusätzlich?
Merkst Du nicht, welche Entwicklungssprünge RT hinlegt? Das ist im vergleich zu sonstigen Adaptionsraten von Technologieschüben (z.B. DX Featurelevel) geradezu rasend schnell.

Da wird eine Karte gekauft, das Spiel als Zugabe mitgenommen, das beworbene Feature angetestet und dann kommt die große Enttäuschung, wenn eine teure Karte wie die 2070 nur mit Hilfe von DLSS @960p halbwegs stabile ~50fps und ein recht unscharfes Bild bei 1080p ausgibt und bei 1440p schon recht deutlich einbricht.

Ja, in erster Linie ist das ein "Versagen" der Software, aber es fällt eben auf die Hardware zurück.
Die überwiegende Anzahl an Spielern spielt die Spiele einfach nur. Ohne FPS Counter.
Und haben nebenbei womöglich sogar noch mit Konsolen Spaß.

Ich nehme vermehrt zur Kenntnis, dass es inzwischen eine Vielzahl an Spielern gibt (gerade auch in diesem Forum), die sich nicht mehr auf das Spiel konzentrieren, sondern nur noch um die Technik drum herum.

Und ich rede hier z.B. von grafischer Qualität (Artdesign, Beleuchtung, Licht-/Schattenspiele, Spiegelungen etc.) und aber ebenso immer mehr Quantität (FPS, Auflösung).

Ich spiele Zelda BOTW auf der WII U, wo die Frameraten auch mal unter 20 FPS fallen können. Das tut der Grafik und dem Spielspaß jedoch keinerlei Abbruch.

Für einige besteht der Spielspaß aber wohl nur noch vordergründig aus quantitativ technischen Aspekten.

ZeroStrat schrieb:
Ich habe auch gleich an Hitman gedacht, als es um den Punkt ging. Schön, dass du auch ein Video passend dazu gefunden hast. 👍
Wie gesagt- Unterschiedlicher könnten Wahrnehmungen nicht sein. Gerade bei Hitman sind die Reflexionen FÜR MICH absolute Immersionskiller.
https://www.computerbase.de/forum/t...t-die-strahlen-sind-los.1836054/post-21944050

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: psychotoxic, Bccc1, RushSyks und eine weitere Person
was wenig förderlich für die Grafikqualität hat.
Finde es immer noch traurig, dass CB keinen Spellcheck verwendet.

Eigentlich wollt ich Control kaufen, aber nach diesem Test warte ich lieber noch ab, ob da noch etwas optimiert wird. Ev. hole ichs mir im Herbst oder Winter. Die Grafik fand ich für die Leistungsanforderungen ziemlich traurig. Den Unterschied zwischen "mittel" und "hoch" konnte ich in den Videos nicht erkennen.
 
Dai6oro schrieb:
DUKE NUKEM 3D :D Wäre jetzt das erste was mir einfällt.

nur schön sah das nicht aus. war eher belustigend wie die engine paar frames brauchte, bis das spiegelbild in eine andere von den wenigen animationsstufen umschaltete ;)
 
@ZeroZerp
Stimmt, mit Hardware-PhysX magst du Recht haben. Erinnere mich noch daran, wie es damals trendy war, eine zusätzliche, nicht ganz so starke 2. Grafikkarte ins System einzubauen, die rein für die PhysX Berechnungen zuständig war. Ohne sahen die Effekte leider auch nicht ganz so hübsch aus.

Das bringt mich auf ein Gedankenspiel: wäre sowas bei RT nicht auch möglich? 1. GPU für rasterbasierter Rendering, 2. GPU für RT

@Silverangel
Imho war es früher bei Spiegelung zum Beispiel nicht so, dass hier wirklich eine Echtzeitspiegelung errechnet wurde, eher so eine Art "Bild-im-Bild", bei der die gleiche Szenerie lediglich aus einem anderem Blickwinkel dargestellt wurde. Meistens aber auch mit Nachteilen, z.B. fehlender Objekte, stark verwaschen etc.

Was mir aber schon subjektiv aufgefallen ist, dass auch diese Fake-Spiegelungen heute schlechter als früher aussehen und wahrscheinlich für RT erst recht nicht mehr optimiert werden.
 
TheManneken schrieb:
Stimmt, mit Hardware-PhysX magst du Recht haben. Erinnere mich noch daran, wie es damals trendy war, eine ...
Das bringt mich auf ein Gedankenspiel: wäre sowas bei RT nicht auch möglich? 1. GPU für rasterbasierter Rendering, 2. GPU für RT
Mit dem Thema habe ich mich auch schon eingehend beschäftigt. Ein dedizierter RT- Beschleuniger hätte schon was :)

Leider ist gerade beim hybriden Ansatz derzeit weder die Anzahl der Shader, noch die Anzahl der RT Cores der eigentlich begrenzende Faktor, sondern die Speicher- und Kommunikationsstruktur dahinter.
RT im hybriden Ansatz ist diesbezüglich unglaublich fordernd.

Deshalb ist leider genau die schlechteste Option, die Einheiten, die auf Blitzkommunikation mit hohen Datenraten mit den anderen Gewerken angewisen sind, vom Rest der Renderpipeline abzukoppeln.

Ich glaube aber, dass sich das ganze wieder rentieren kann, geht man vom Hybrid- RT Ansatz in Richtung "vollständigem" Pathtracing- bzw. Raytracing.
Dort bestünde theoretisch sehr wohl die Möglichkeit in einer Art "SLI" einfach mehr Rechenkerne draufzuwerfen.
Reine Path-/Raytracer skalieren fantastisch mit der Anzahl an Rechenwerken.

LG
Zero
 
ZeroZerp schrieb:
Wie gesagt- Unterschiedlicher könnten Wahrnehmungen nicht sein. Gerade bei Hitman sind die Reflexionen FÜR MICH absolute Immersionskiller

Für eine gute Immersion müssen es nicht immer perfekte Details sein, wenn das meiste eh nur periphär wahrgenommen wird.

Aber mal ganz allgemein: ich schätze mal wieder deinen sachlichen Diskussionsstil sehr! 👍
 
  • Gefällt mir
Reaktionen: KlaraElfer und .Sentinel.
@ZeroZerp Wenn ich halt das vergleiche was dabei rüberkommt, die damit verbundenen Mehrkosten und die Einbußen an anderen Stellen, sind die winzigen Nuancen die RTX evtl. besser beherrscht ggü hohen FPS bei viel geringeren Kosten um diese zu erreichen es schon nicht wert. Dass es auf Basis von proprietärem Shit ala Gameworks passiert, macht es für mich sogar in weiten Teilen zum Krebsgeschwür.

Aber jedem das seine. ich weiß nur, dass ich das ganze so lange wie möglich noch umschiffen werde, und wenn das heißt irgendwann auf Medium spielen zu müssen weil meine GPU sonst nicht mehr mit kommt und die neuen GPUs alle den kram drauf haben den ich dann auch extra bezahlen darf, dann ist das halt so.
 
  • Gefällt mir
Reaktionen: .Sentinel.
ZeroStrat schrieb:
Für eine gute Immersion müssen es nicht immer perfekte Details sein, wenn das meiste eh nur periphär wahrgenommen wird.
Ich meinte ja nur, das gerade Hitman eben das beste Beispiel gleichzeit für die Rasterisierung aber eben auch dagegen in ein und demselben Produkt vereint.
Da hat man schon wirklich viel rausgeholt, was aber eben auch die engen Grenzen aufzeigt, in welchen die Rasterisierung solche Szenarien überhaupt "mittelmäßig" bewältigen kann.

Da werden die Fensterscheiben dann auch mal schnell zu 50% mit Fake- Glanzlichtern aufgehellt, um den Berechnungsaufwand zu senken und den Blick auf eine evtl. unsaubere Reflexionstechnik/die Auflösung/Detailreichtum zu verdecken:
815326


Alles OK- Alles bewundernswert und gute, einfallsreiche Tricks (intern überstrahlende Lichtquellen setzen und damit die Augen vom Detail wegzulenken).
Aber nicht wirklich schön und schon garnicht zu vergleichen mit den Reflexionen z.B. an den Fenstern von Control.

LG
Zero
 
ZeroZerp schrieb:
Aber nicht wirklich schön und schon garnicht zu vergleichen mit den Reflexionen z.B. an den Fenstern von Control.

Ich habe mich zugegebenermaßen auch schon sehr negativ über die Performance in Control geäußert. Ich bewundere die Technik dennoch, auch die Effizienz, also Qualität/Aufwand. Absolut betrachtet, reicht mir die Leistung einfach nicht. Bei unter 50 FPS wird's bei mir kritisch mit der flüssigen Wahrnehmung.

Das erinnert mich an ein Projekt, an dem ich mal gearbeitet habe. Es ging um optimierte Scanstrategien für 3D Scanner. Ich habe einen ziemlich ausgeklügelten Algoritmus entwickelt, um die Scandichte zu erhöhen und Redundanzen zu vermeiden. Ich habe Genetische Hybridalgorithmen eingesetzt. Optimierung und Numerik ist mein Spezialgebiet. Wahrscheinlich würde ich sogar einen Preis dafür gewinnen... ^^ Aber es wollte letztlich keiner haben, weil die Scandauer zu lange ist mit dem Ansatz. In Schönheit gestorben... :D
 
  • Gefällt mir
Reaktionen: psychotoxic und .Sentinel.
[wege]mini schrieb:
master race pc user sind ja mit 120 fps nicht zufrieden.....60 ist unzumutbar.

dass ihr "geruckel" im kino 24 fps hat und im fernsehen ihre bauer sucht frau sendung in 25fps läuft

Leider hat sich bei deiner "Haterei" scheinbar noch nicht zu dir rumgesprochen, dass digital erzeugte Bilder am PC ganz anders funktionieren, als mit einer echten Kamera aufgenommene Frames. Daher funktionieren die 24 Bilder in Filmen einwandfrei, dank natürlicher Bewegungsunschärfe in jedem Frame, im Gegensatz zu digitalen Bildern, die so etwas nicht aufweisen. Der Versuch, den viele Engines machen, Motion Blur künstlich hinzuzufügen hat dann auch direkt den Gegenteiligen Effekt: Das Bild wirkt ruckelig, obwohl die Framerate passt.

Achja, noch was, wo Du falsch liegst: Zu PAL und NTSC Zeiten waren es 50 und 60 Bilder pro Sekunde im Fernsehen. Das sah auch entsprechend nicht immer gut aus. Siehe Soap-Opera-Effekt. (Vom notwendigen 3:2 Pulldown um Filme auf die 50 Bilder des PAL Signals zu bekommen gar nicht erst reden...) Bei modernem digitalem HD-Fernsehen kann so ziemlich alles drin sein. Von 24 Frames bei Filmen über 29,97 Frames von Digitalkameras bis hin zu 50/60 Frames.

Bevor man also auf die PCMR schimpft, sollte man lieber sicher stellen, dass man wenigstens Ahnung davon hat, wovon man schreibt...

Captain Mumpitz schrieb:
Für all die lustigen Menschen die hier was von wegen "das sieht ja aus wie 2003" vom Stapel lassen...

Dass das eine Übertreibung von einigen war, ist dir klar?
Das Spiel sieht einfach nicht Zeitgemäß aus. Vor allem auch weil die Bildschärfe leidet und die Texturen teils wirklich nur Matsch sind.

ZeroZerp schrieb:
So ist es bei einigen Effekten nicht effizient diese zu Raytracen. Somit denke ich, dass es erst sehr sehr spät dazu kommen wird (wenn überhaupt), ein reines Raytracing zu fahren.

Irgendwo muss man anfangen, Raytracing einzusetzen, damit es sich am Markt später durchsetzen kann, das ist klar. Aber vielleicht sollte man das vorerst bei Effekten tun, die das Bild sinnvoll verbessern. Und zwar ohne so dermaßen auf die Leistung zu schlagen. Denn dann haben Käufer der RTX Karten auch was davon, und es verkommt nicht zu einer unspielbaren, da ruckeligen, Grafik-Demo.

ZeroZerp schrieb:
Du kannst mit den herkömmlichen Methoden genau EINE spiegelnde Ebene sinnvoll/korrekt in ein Spiel integrieren. Das würde Dich dann ungefähr 40% Leistung kosten, wenn man diese auf das grafischen Niveau einer Raytracing Spiegelung bringen würde.

Und was spricht dagegen, die Qualität runterzuschrauben!? Aktuell hat man in Control entweder gar keine Spiegelungen oder eben den massiven Leistungseinbruch durch Raytracing. Dabei wäre es ohne weiteres möglich gewesen, die "billigen", statischen Spiegelungen mit ein wenig Trickserei zusätlich einzubauen.

Aber dann kann nVidia halt nicht Werbewirksam auf das Spiel zeigen, ohne sich lächerlich zu machen, wenn man den geringen Grafiksprung in Relation zur Leistung die es kostet sieht. Ein Schelm, wer dabei Böses denkt. :freak:

ZeroZerp schrieb:
Alles OK- Alles bewundernswert und gute, einfallsreiche Tricks (intern überstrahlende Lichtquellen setzen und damit die Augen vom Detail wegzulenken).
Aber nicht wirklich schön und schon garnicht zu vergleichen mit den Reflexionen z.B. an den Fenstern von Control.

Und bisher hat das gestört? Natürlich sehen die Reflexionen mit RT besser aus. Aber vielleicht sollte man dem Nutzer die Wahl lassen, ob er bereit ist, den Leistungspreis zu bezahlen für ein bisschen mehr Effekthascherei!?
 
Zuletzt bearbeitet: (Typos, PAL Pulldown)
  • Gefällt mir
Reaktionen: psychotoxic und Digger-Deluxe
Artikel-Update: Der erste Patch für Control hat nicht nur die Leistung des Spiels ein wenig angehoben, sondern auch das von ComputerBase zum Start aufgrund vieler Darstellungsfehler kritisierte Echtzeit-Raytracing verbessert. Das positive Fazit: Nicht durchgängig, aber zu einem Großteil haben die Anpassungen positive Auswirkungen, wie neu aufgenommene Screenshots und Videos zeigen. Gleich geblieben ist dabei die Grafikqualität abseits von Raytracing. Sprich, die Optik bleibt durchwachsen. Es gibt Szenen im Spiel, die sehr gut aussehen und eine dichte Atmosphäre erzeugen. Geblieben sind aber auch die vielen Grafikprobleme. Und die durchweg gegebene Unschärfe.
 
  • Gefällt mir
Reaktionen: ImpactBlue, .Sentinel., DerKonfigurator und eine weitere Person
30FPS mit einer RX 580 in Full HD :freak:
Die Performance ist ja schlimmer als befürchtet. Da kann man ja gleich zur Konsolenversion greifen.
 
Also wenn ich jetzt 450€ für ne 5700XT hinlege würde ich im Mittel bei meinem WQHD Monitor damit bei höchsten Details gerade mal 45fps haben? Ja ne ist klar.... und die DX12 Implementierung hätten sie sich gleich sparen können. Da stört einen die EGS-Exklusivität auf einmal gar nicht mehr.
 
  • Gefällt mir
Reaktionen: Alphanerd
Teralios schrieb:
Sobald die ersten wirklichen RT-Engines kommen, ist die RTX20x0-Serie zu langsam dafür. Man investiert mit einer RTX20x0 nicht in die eigene Zukunft, man ist nur als erstes mit dabei und bereitet den Weg. Ähnlich wie damals die ersten T&L-Karten, DX8 und ebenso DX9-Karten, genau so die ersten DX11-Karten. Man bereitet den Weg für die Zukunft, sobald es standard wird, ist man zu langsam.

Da steckt schon was wahres dran, nur ist es nicht dann genauso mit den "Rasterkarten" jahrelang so gewesen, dass man immer eine neue Generation gekauft hat, die dann in 3 oder 4 Jahren wiederum zu langsam für hohe bis ultra Details war? Ich denke das wird nicht groß anders mit den RT Karten laufen.

corvus schrieb:
Also wenn ich jetzt 450€ für ne 5700XT hinlege würde ich im Mittel bei meinem WQHD Monitor damit bei höchsten Details gerade mal 45fps haben? Ja ne ist klar....

Die Beleuchtung und die Grafikqualität des Spiels ist mMn erstklassig und auch die Physik, das kostet alles Leistung. Eine 5700XT und 2060 Super, sind Mittelklasse und leisten in dem Spiel das gleiche, nur der Preis ist eben mit ~400 Euro recht hoch. Spiele entwickeln sich ja weiter. Eine GTX 1060 oder RX 580 muss ja auch langsam mal zum Alteisen gehören, wenn man Fortschritt will.
 
  • Gefällt mir
Reaktionen: .Sentinel.
ZeroZerp schrieb:
Ein dedizierter RT- Beschleuniger hätte schon was :)
Den hat du doch schon. Betrachte deine RTX Karte einfach als 2in1 Karte: GTX Karte + RT Beschleuniger ;) Dürfte eh performanter sein, als dafür 2 getrennte Karten zu nehmen, die sich dann über den PCIe Bus unterhalten dürfen.
 
Zurück
Oben