Bericht Cyberpunk 2077 mit Pathtracing: Die Community testet den Raytracing-Overdrive-Modus

rumpeLson schrieb:
So ganz verstehe ich das Argument nicht. Vor FG hat sich doch niemand an der Latenz ohne Reflex gestört.
Ich zitiere mal die Redaktion aus dem 4090 Test: "Auch der Einsatz von Reflex in Kombination mit Frame Generation ändert allerdings nichts daran, dass 100 statt 50 Frames über natives Rendering oder DLSS Super Resolution (DLSS 2) mehr wert sind als 100 statt 50 Frames mit DLSS 3 Frame Generation." Link

Du erhältst mit FG zwar mehr fps, hast aber am Ende die Latenz von weniger fps. Das heißt, dass du im schlimmsten Fall 60fps hast, die sich anfühlen wie 30fps. Siehst du auch wunderbar an den Tests der Redaktion.

Mit Performance+FG+Reflex hast du 100fps aber die Latenz von 70fps ohne Reflex, respektive 47fps mit Reflex.
Wenn du die gleichen fps vergleichst, hast du mit FG immer eine höhere Latenz.

Mir ging es auch letztendlich darum, dass FG hier als Allheilmittel dargestellt wurde, was es nicht ist. Es hat nun mal das Latenzproblem, was logisch ist Anhand der zugrundeliegenden Technologie. Des weiteren sind Bildfehler auch nicht ausgeschlossen, da es sich um generierte Bilder handelt.
Grestorn schrieb:
Natürlich fühlt es sich besser an. Und der Lag wird ja nicht schlechter. Also immer ein Gewinn.
Diese Aussage in Bezug auf FG ist eben falsch.

Wie gesagt, ob das am Ende bemerkt wird, oder nicht, hängt von der Person ab die spielt und den fps die ohne FG generiert werden können. Ändert aber nichts daran, dass dieser Nachteil da ist.
Ergänzung ()

Taxxor schrieb:
Dann schafft es eine 7900XTX eventuell in 1440p mit FSR3 Performance knapp auf die 60 FPS.
Dann kann ich mich ja über knappe 30 fps "freuen". Pathtracing ist halt aktuell nichts für AMD, ist halt leider so. Trotzdem kein Grund für mich nicht AMD zu kaufen. Den Kauf der 6800 hab ich auch nicht bereut, vor allem wegen des Speichers.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA
Taxxor schrieb:
Dass der komplette Flur nahezu gleichmäßig ausgeleuchtet ist, obwohl da nur 2 weit auseinander hängende lichtquellen vorhanden sind, ist also "nur etwas heller" ?
Das Licht im 2. Shot macht absolut keinen Sinn.

Auch die Schattenwürfe sind entweder falsch oder schlicht nicht vorhanden(siehe z.B. die Ecke in der Wand rechts oder der Türrahmen links).
Der zweite Shot ist Path Tracing. :)

Nun gut, ich sehe schon. Hier wird man nicht durch Anschein sondern durch seine eigene Investition und Markenpäferenz überzeugt. Was dadurch natürlich noch erschwert wird, dass eigentlich nur Ampere und Lovelace Nutzer das Feature überhaupt nutzen können.

Eine sinnvolle Diskussion ist so kaum möglich.
Ergänzung ()

u53r schrieb:
aaaaanyway.. meint ihr ne AMD wird das PathTracing mit FSR3 schaffen?
AMD muss aufwachen und endlich in die Puschen kommen. Man sollte auch mal die fast schon dogmatische Ablehnung von neuen Entwicklungen ablegen.

Es ist nicht gut, immer nur den Innovationen einer anderen Firma hinterherzurennen. Das ist bei AMD ein echtes Problem. RT, Upscaling, Frame Generation...

Und als einziges Gegengewicht kann man nicht immer nur die Mengen an VRAM und Cache anbringen, das man ohne jede Ingenieurleistung auf die Karte bzw. in den Chip pappen kann.

Man muss sich schon etwas um AMD Sorgen machen, denn nur über Preis und VRAM alleine wird man auf Dauer nicht bestehen können.
Ergänzung ()

_Cassini_ schrieb:
Ich zitiere mal die Redaktion aus dem 4090 Test: "Auch der Einsatz von Reflex in Kombination mit Frame Generation ändert allerdings nichts daran, dass 100 statt 50 Frames über natives Rendering oder DLSS Super Resolution (DLSS 2) mehr wert sind als 100 statt 50 Frames mit DLSS 3 Frame Generation." Link
Na, das hat ja auch niemand in Zweifel gestellt.

Nur um aus 50 fps 100 fps zu machen, muss man die Grafik schon massiv beinträchtigen. Also z.B. statt "native" DLSS Performance oder sogar Ultra Performance zuschalten.

Und das sieht man dann doch. Und zwar deutlich.

Dagegen ist FG optisch nahezu unsichtbar. Und die wenigen Artefakte, die ich bisher wahrnehmen konnte, haben sich eigentlich immer auf solche Dinge wie ein ganz leicht zitternde Fadenkreuz o.ä. beschränkt.

Also, lieber 100 fps mit FG statt 50 fps ohne. Oder auch 100fps mit zu heftigen DLSS Artefakten. Da führt kein Weg daran vorbei.
Ergänzung ()

_Cassini_ schrieb:
Diese Aussage in Bezug auf FG ist eben falsch.

Was ist daran falsch? Du hast wieder nur eine grundsätzliche Abneigung eben weil... es Dir nicht passt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mayima, NMA und derMutant
_Cassini_ schrieb:
Ich zitiere mal die Redaktion aus dem 4090 Test: "Auch der Einsatz von Reflex in Kombination mit Frame Generation ändert allerdings nichts daran, dass 100 statt 50 Frames über natives Rendering oder DLSS Super Resolution (DLSS 2) mehr wert sind als 100 statt 50 Frames mit DLSS 3 Frame Generation." Link
Das ist eine sehr einseitige Bewertung, die einen hinkenden Vergleich voranstellt. Denn ohne DLSS3 bekämst Du die Framezahl in einem Titel XY erst garnicht.

DLSS3 ist ja gerade auch ein Hilfsmittel, um die Frames in die Sync- Grenzen vorhandener Anzeigegeräte zu treiben.

Du erhältst mit FG zwar mehr fps, hast aber am Ende die Latenz von weniger fps.
Die Technik in sich betrachtet ja. In der Gesamtbetrachtung nicht.
Titel FG inkl. Reflex hat im Normalfall eine niedrigere Latenz als ein Titel ohne FG in welchem dann eben auch kein Reflex integriert wird.

Du trennst das ganze immer auf, obwohl Reflex ohne FG in den Titeln garnicht integriert worden wäre.

Das heißt, dass du im schlimmsten Fall 60fps hast, die sich anfühlen wie 30fps. Siehst du auch wunderbar an den Tests der Redaktion.
Mit dem "Anfühlen" habe ich als Entwickler immer so mein Problem. Bei tatsächlichen Blindtests, also ohne vorher den Zweck des Tests zu verraten, wurde die Option FG immer umgehend als deutlich besser spielbar bevorzugt. 100%.
Und das bei einem für FG schwierigen Szenario (FG auf 60FPS).

Mit Performance+FG+Reflex hast du 100fps aber die Latenz von 70fps ohne Reflex, respektive 47fps mit Reflex.
Wenn du die gleichen fps vergleichst, hast du mit FG immer eine höhere Latenz.
Siehe oben- Reflex zählt nicht, weil Du es ohne FG nicht im Titel hättest. Der Vergleich ist einfach unzulässig.
Du kannst nicht etwas als Verlust darstellen, was im Original überhaupt nicht vorhanden ist.

Mir ging es auch letztendlich darum, dass FG hier als Allheilmittel dargestellt wurde, was es nicht ist.
Es hat einen enormen Effekt auf die sichtbare fluidität. Mehr muss es nicht können.

Es hat nun mal das Latenzproblem, was logisch ist Anhand der zugrundeliegenden Technologie.
Dieses Latenzproblem wird vollständig von der zwingend vorausgesetzten Komplementärtechnik Reflex genullt.
Somit ist es kein Problem mehr.

Des weiteren sind Bildfehler auch nicht ausgeschlossen, da es sich um generierte Bilder handelt.
Diese sind im Normalfall nicht sichtbar.
Es ist schon irgendwie bezeichnend und auffällig, dass gerade die User, die bei den Grafikvergleichen die teilweise deutliche Änderungen aufzeigen, keine Unterschiede erkennen wollen, dann aber bei FG die kleinsten grafischen Glitches, die eventuell für Milisekunden irgendwo auftreten dann auch die Goldwaage legen und temporale Wahrnehmungsschwellen von wenigen Millisekunden "erfühlen".
Da passt dann einfach irgendwas nicht zusammen.

Wie gesagt, ob das am Ende bemerkt wird, oder nicht, hängt von der Person ab die spielt und den fps die ohne FG generiert werden können. Ändert aber nichts daran, dass dieser Nachteil da ist.
Siehe oben. Es gibt den Nachteil nicht, da der als Maßstab herangezogene Vorteil ohne die Technik fehlen würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Skaiy, Mayima, NMA und 4 andere
Man darf auch nicht vergessen, dass Reflex für sich alleine immer ein paar fps Verlust mit sich bringt.
 
System: System: RTX3080Ti OC, 5800X3D, DDR4-3733CL14
1.920 x 1.080, FRS 2/DLSS „Performance“: 90,57
2.560 x 1.440, FRS 2/DLSS „Performance“: 63,45
3.440 x 1.440, FRS 2/DLSS „Performance“: 51,24
1.920 x 1.080, native Auflösung: 35,25
2.560 x 1.440, native Auflösung: 21,37
3.440 x 1.440, native Auflösung: 15,08


Hab das Spiel jetzt einmal Komplett neu Runtergeladen, die Benchmarks davor waren seit Release nur geupdatet. Der Unterschied ist Massiv :O
Hier die Benchmarks mit der zu Tode Geupdateten Version https://www.computerbase.de/forum/t...-overdrive-modus.2139329/page-7#post-28091989
Teilweise ein Uplift von knapp 100% :freak:
 

Anhänge

  • 1920x1080 DLSS.png
    1920x1080 DLSS.png
    4,3 MB · Aufrufe: 132
  • 1920x1080.png
    1920x1080.png
    4,3 MB · Aufrufe: 121
  • 2560x1440 DLSS .png
    2560x1440 DLSS .png
    5 MB · Aufrufe: 123
  • 2560x1440.png
    2560x1440.png
    5 MB · Aufrufe: 123
  • 3440x1440 DLSS.png
    3440x1440 DLSS.png
    4,1 MB · Aufrufe: 127
  • 3440x1440.png
    3440x1440.png
    4,1 MB · Aufrufe: 124
  • Gefällt mir
Reaktionen: Mihau, Vitche und derMutant
Was für einen Hintergrund hat es Screenshots zu erstellen und sich dann hinzustellen und zu behaupten, dass es keinen Unterschied zu sehen gäbe ? Gleiches Spiel im Vergleich FSR und DLSS.

Dann schaltet es eben aus und/oder kauft eine Radeon, hat Keiner verboten .Obs Einem gefällt oder nicht, auch ok. Aber lasst den Quatsch, dass man keinen Unterschied erkennen würde was rein rationell unmöglich ist. Die Leute ,die daran arbeiten, drehen keine Däumchen.
 
  • Gefällt mir
Reaktionen: Mayima, derMutant, MrHeisenberg und 2 andere
Grestorn schrieb:
Was ist daran falsch? Du hast wieder nur eine grundsätzliche Abneigung eben weil... es Dir nicht passt.
Nein, ich habe keine grundsätzliche Abneigung, ich find das es sogar eine sehr gute Technologie ist, allerdings nicht so gut wie DLSS 2. Was bringt es denn die Nachteile nicht zu benennen?

.Sentinel. schrieb:
Dieses Latenzproblem wird vollständig von der zwingend vorausgesetzten Komplementärtechnik Reflex genullt.
Somit ist es kein Problem mehr.
Eben nicht, dann hättest du bei 100fps auch die Latenz von 100fps und nicht von 70fps.

.Sentinel. schrieb:
Diese sind im Normalfall nicht sichtbar.
Auch hier kommt es eben auf das Spiel an.

.Sentinel. schrieb:
Es fist bezeichnend dass gerade die User, die bei den Grafikvergleichen, die teilweise deutliche Änderungen aufzeigen keine Unterschiede erkennen wollen
Bin ich denn so ein User? Ich sage doch selber, das FG eine gute Technologie ist, mit Nachteilen.

.Sentinel. schrieb:
Siehe oben. Es gibt den Nachteil nicht, da der als Maßstab herangezogene Vorteil ohne die Technik fehlen würde.
Siehe oben, der Nachteil existiert, auch ohne Reflex.
 
_Cassini_ schrieb:
Nein, ich habe keine grundsätzliche Abneigung, ich find das es sogar eine sehr gute Technologie ist, allerdings nicht so gut wie DLSS 2. Was bringt es denn die Nachteile nicht zu benennen?
Im Gegensatz zu DLSS, das insbesondere in den hohen Stufen eben doch sichtbare Nachteile hat, sehe ich diese bei FG eben gar nicht. Wenn es richtig im Spiel implementiert ist, ist es unsichtbar und hat eigentlich nur Vorteile.
Ergänzung ()

Tornavida schrieb:
Was für einen Hintergrund hat es Screenshots zu erstellen und sich dann hinzustellen und zu behaupten, dass es keinen Unterschied zu sehen gäbe ? Gleiches Spiel im Vergleich FSR und DLSS.
Ich glaub, Dir ist die Ironie in meinem Posting entgangen :)
 
_Cassini_ schrieb:
Eben nicht, dann hättest du bei 100fps auch die Latenz von 100fps und nicht von 70fps.
Wir reden nicht von der Output- Latenz. Sondern von dem vom User "gefühlten" Input- Lag.
Und der ist von Titel zu Titel oft unabhängig der dargestellten FPS Zahl.

Auch hier kommt es eben auf das Spiel an.
Weniger auf das Spiel, als mehr auf die Implementation.

Siehe oben, der Nachteil existiert, auch ohne Reflex.
Der einzige Nachteil entsteht, wenn der Entwickler seine Polling- Raten nicht angleicht.
Sprich, wenn er den Input mit Aktivieren von FG nicht mit der FG FPS- Zahl synchronisiert, sondern mit der des nativen Inputs.
 
  • Gefällt mir
Reaktionen: Mayima und derMutant
Ich verweise hier mal auf das Digital Foundry Video, dass eben auch die Probleme von FG aufzeigt, eben auch die, die auffallen. Es hier hinzustellen, als ob es eine Technologie ohne Fehler und nur mit Vorteilen ist, halte ich für falsch. Wenn ihr das anders seht, dann ist das ok für euch, an den Tatsachen ändert es aber nichts.
 
_Cassini_ schrieb:
Ich verweise hier mal auf das Digital Foundry Video, dass eben auch die Probleme von FG aufzeigt, eben auch die, die auffallen.
FG wurde zwischenzeitlich deutlich überarbeitet und zeigt einige der dort vorgestellten Artefakte und Nachteile nicht mehr bzw. vermindert diese.

https://wccftech.com/nvidia-fps-inc...er-major-improvements-image-quality-in-games/

Es hier hinzustellen, als ob es eine Technologie ohne Fehler und nur mit Vorteilen ist, halte ich für falsch.
Das tut keiner.

Es ist nur immer eine Kosten-/Nutzenrechnung bzw. dem, was in der Praxis dabei rumkommt.
Da wählt eben 100% der unbedarften User im Blindtest ohne mit der Wimper zu zucken die mögliche doppelte FPS Zahl inkaufnehmend, dass für Milisekunden vielleicht auch mal unauffällige Glitches im Bild sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derMutant und Grestorn
Skaiy schrieb:
Das liegt an der Grafikkarte und nicht am Spiel. NVidia bekommt das hin, AMD nicht (so sehr).


Sehr unsachlich. Ich freue mich mit meiner 4070 Ti das Spiel mit PT mit fast 80 FPS zu zocken.

Selbst ohne FG 70 FPS. Wenn das eine 4070 Ti hinbekommt und eine 7900 XT(X) nicht, dann liegt das an AMD.

Vielleicht wäre das mit FSR 3.0 anders aber das lässt auf sich warten --> ebenfalls AMDs "Schuld".

Zudem handelt es sich immer noch klar kommuniziert um eine Tech Demo, die selbst nativ eine 4090 schwitzen lässt.
Warum sollte man eine native Auflösung von 4K extra auf 720p schrumpfen, damit man mit PT oder RT annährend spielbare fps schafft, aber die ganzen Details verschwinden, nur damit man hier und da ein Schatten mehr hat und eine Beleuchtung die wahrend des Spielens kaum auffällt, die mangelnde Auflösung und weniger Details aber schon.

Ne danke. Ich spiele nativ, immer! Und maximale Details und somit bleibt RT aus, weil nicht mal ne 4090 RT in 4K nativ schafft.
 
  • Gefällt mir
Reaktionen: mibbio
habla2k schrieb:
Grundsetzlich wäre RT aber auf jeden Fall eine Verbesserung für die Entwickler. Nur bis das dann auch auf Mittelsegment Karten läuft in der gewünschten Auflösung, dürften noch 10-20 Jahre vergehen.
Und so lange werden werden Spiele und deren Assets weiterhin so erstellt, dass sie mit Rasterization und dessen Tricks gut funktionieren, während RT (in unterschiedlich starker Ausprägung) erstmal ein optionales Extra bleibt.

So lange nur ein kleiner Teil der Grafikkarten überhaupt genug Leistung für Raytracing oder gar Pathtracing hat, würde sich jeder Entwickler ja ins eigene Fleisch schneiden, wenn er sein Spiel nur für diesen Kundenkreis optimiert und die Rasterization-Nutzer komplett Außen vor lässt.
 
WebBeat84 schrieb:
RT ist einfach nur dafür da, eine 4090 zu rechtfertigen.
Nein, einfach nur Nein! Genau das sind diese kindischen Reaktionen, die ich meine und die hier jedes mal die Stimmung vergiften.

RT ist kein Grund die 4090 zu rechtfertigen. RT kann man auch auf RDNA3 "endlich" halbwets vernüftig verwenden und es macht Spaß.
WebBeat84 schrieb:
Mehrwert bietet es nicht gerade.
Es bietet einen Mehrwert, nur ist dieser leider in der Regel sehr subtil und es fällt bei guten Spielen erst auf, wenn es wieder abgeschaltet wird, weil etwas "fehlt".
Skaiy schrieb:
Das liegt an der Grafikkarte und nicht am Spiel.
An der Stelle muss ich widersprechen, da machst du es dir deutlich zu einfach. CD Projekt arbeitet sehr eng mit NVIDIA zusammen, was ihre Engine angeht und die RT-Implementierung in Cyberpunk aber auch Witcher 3 wird teilweise von NVIDIA-Entwicklern beigesteuert.

Das schlechte Abschneiden von RDNA 2 und RDNA 3 gehen zu Teilen auf die Kappe des Spieles, aber auch zu Teilen auf die Kappe von AMD.

Der Pathtracer - also hier Overdrive - geht auch erneut auf die Kooperation von NVIDIA und CD Projekt Red zu rück und ist auch eindeutig auf Ada optimiert, das merkt man auch hier an den Benchmarks, dass Ada sich teilweise selbst von Ampere sehr deutlich absetzen kann. Die Pathtracer-Implementierung hier bietet einen standard Pfad und den auf Ada optimierten Pfad und entsprechend gut schneidet hier auch Ada ab.

Das ist sehr beeindruckend und zeigt an der Stelle auch, dass NVIDIAs-Anatz aus einer teilweise automatisierten Neusortierung der Shader, verbunden mit der Unterstützung der Entwickler in ihren Shadern, wirklich sehr viel bringt.

AMD und Intel haben hier nur "automatisierte" Verfahren, die an der Stelle etwas bringen - hier liegen je nach Auflösung zwischen 6900 XT und der 7900 XTX ca. 75 %, was auch zeigt, dass AMD hier gut an Leistung gewonnen hat.
Skaiy schrieb:
Selbst ohne FG 70 FPS. Wenn das eine 4070 Ti hinbekommt und eine 7900 XT(X) nicht, dann liegt das an AMD.
Auch hier muss man widersprechen. Das liegt nicht an ausschließlich an AMD, sondern an fehlenden Optimierungen für AMD im Pathtracer-Pfad. Das Hauptfeature, dass hier Ada hilft, wirklich schnell zu sein, ist SER. (Ein kleiner Einwurf, ein allseits beliebter Tech-Redakteuer setzt SER immer wieder mit Out-of-Order bei CPUs gleich, das ist freundlich geschrieben: Falsch. OoO funktioniert wirklich automatisch und macht sich ganz andere Effekte zu nutze.) SER benötigt, damit es wirklich gut funktioniert die Hilfe der Entwickler, genauso wie AMDs Ansatz der getrennten RT-Funktionalität zwischen TMU und RT-Core die Hilfe der Entwickler braucht.

Man sieht hier gut - man kann bei den Benchmarks die CPU "teilweise" etwas elemenieren, da hier eindeutig die GPU limitiert in den meisten Fällen - dass Ada im Vergleich zum "nicht optimierten" ursprünglichen RT Cyberpunk wesentlich weniger Leistung einbüß, als Ampere.

Bei Ampere liegt der gemittelte Impact - aus den fielen Tests hier - hier bei fast 50 %, bei Ada verringert sich die Leistung aktuell - nur die imperischen Daten hier - nur um ca. 33 %.

Bei einer 7900 XTX ist hier der Leistungseinbruch auch relativ stark ein, ich komme hier auf ca. 66 % der Frames, die eingebüßt werden. Noch mal schlechter als bei Ampere. RDNA 2 büßt im Mittel sogar mehr 75 % seiner Leistung ein.

RT ist aktuell weitgehend - gerade in der Form wie jetzt hier als Pathtracer - als Studienprojekt zu verstehen und NVIDIA leistet hier sehr viel Pionierarbeit und das muss man auch genau so anerkennen. Man darf aber eben nicht vergessen, dass die NVIDIA-Entwickler, die hier die Entwickler unterstützen, primär auf ihre neueste Hardware optimieren und daher bei den anderen Karten durchaus einiges an Potenzial liegen bleibt.
Pleasedontkill schrieb:
Kann es sein, dass bei Pathtracing die CPU einiges wichtiger ist als, dass sie das sonst ist im Spiel?
Eher ein Jain. Mögliche CPU-Bottlenecks können in dem Fall auf Treiberebene liegen oder am Betriebsystem, dass sich da etwas verschluckt. Ich werde mal den 5800X3D heute auf 3,6 GHz fest Nageln und auf 4,0 GHz und mir das ansehen.

Mit einer gewissen Streuung musst du hier aber rechnen. Ich hab meinen 5800X3D mit der 7900 XTX drin mit ca. 10,6, ein andere die gleiche Konfiguration, nur etwas schlechtere RAM mit 9,9, was schon 7 % ausmacht. Ich hab gestern testhalber auch noch mal 1440p und 1080p durchlaufen lassen und auch einmal alles an Anwendungen und Co deaktiviert. Ich hab eine Streuung zwischen den Läufen von ca. 5 % nach Oben und nach Unten.

Was auf jeden Fall eine Auswirkung haben könnte ist SAM.
Grestorn schrieb:
Nun gut, ich sehe schon. Hier wird man nicht durch Anschein sondern durch seine eigene Investition und Markenpäferenz überzeugt.
Es ist leider schade, dass hier die Leute sich wegen AMD, NVIDIA und Intel immer wieder in die Wolle bekommen und meinen den anderen eine Reinzudrücken. Ich hab meine 7900XTX und bin sehr zu frieden mit ihr. Ich mag meine kleine Karte! Ich bin mir aber auch deren Schwächen bewusst, dennoch mach hier hier bei dem Test mit und verteidige RT bis aufs Blut. (Was so ein paar Leuten hier mal zu denken geben sollte, die meinen das AMD'ler RT schlecht reden. ...)
Grestorn schrieb:
AMD muss aufwachen und endlich in die Puschen kommen. Man sollte auch mal die fast schon dogmatische Ablehnung von neuen Entwicklungen ablegen.
Hier muss ich ganz entschieden widersprechen, was du an der Stelle schriebst, könnte man fast als Verleumdung ansehen! AMD lehnt neue Entwicklungen nicht dogmatisch ab und das hat AMD auch nie getan.

AMD war in vielen Bereichen und ATi davor, in den letzten 20 Jahren technologisch sogar Vorreiter, hat in der Regel aber NIE die Früchte der eigenen Entwicklungen geerntet, sondern es waren oft dann andere Unternehmen. ATi hat bereits mit der Radeon 9x00-Serie Tesselation-Fähigkeiten in Hardware für die Systeme, als bereits zu DX9-Zeit, wurde aber nie durch Entwickler genutzt. AMD hat zu DX10-Zeiten erneut Tesselation angeboten, wurde aber dann durch MS in DX10 gestrichen. Genauso hat AMD später bei Vega die Primitive-Shaders eingeführt, die dann als Meshshader in DX12 Ultimate einzug gehalten haben.

Genauso ist das Steckenpferd von NVIDIA "CUDA" zu weiten Teilen nicht auf NVIDIAs Ideen gewachsen, sondern wurde auch erneut von ATi und AMD eingeführt. FireStream kam mit Radeon X1900XTX auf den Markt und zeigte entsprechend, was mit Grafikkarten bei der Berechnung möglich ist. NVIDIA hat knapp 1 - 1/2 Jahre erst später erst CUDA vorgestellt und entsprechend agiert.

AMDs Zurückhaltung heute ist zu weiten Teilen darauf zurück zuführen, dass ATi und AMD sich sehr oft die Finger verbrannt haben, wenn sie viel Geld in neue Technologien und damit verbundene Pionierarbeit gesteckt haben. Man muss an der Stelle aber auch erwähnen, dass AMD daran auch nicht unschuldig ist, dass sie oft mit ihren Innovationen baden gegangen sind. AMD und auch ATi hatten schon immer überschaubare Ressourcen und mussten die entsprechend aufteilen. Sie hatten leider nie den Mut und auch nicht die Ressourcen, um entsprechende Software-Teams aufzustellen, die dann anderen Firmen und Spieleentwicklern helfen ihre Technologien zu implementieren. Man hat sich bei AMD sehr lange darauf verlassen, dass "gute" Technologie reicht um zu überzeugen. Das war ein fataler Fehler.
Grestorn schrieb:
Es ist nicht gut, immer nur den Innovationen einer anderen Firma hinterherzurennen.
Für AMD und Intel bleibt aktuell in diesem Markt erst mal nichts anders übrig. AMD hat im PC-Bereich nicht die Marktmacht um mit Innovationen aufzutrumpfen. AMD steht heute - auch mit der Fusion mit Xilinx - deutlich besser da und können jetzt langsam versuchen den Rückstand zu NVIDIA aufzuholen. Daneben muss AMD eine entsprechende Abteilung zum Support von Entwicklern aufstellen und damit relevanter werden. Erst dann kann AMD wieder anfangen auch eigene Innovationen im Bereich Software und Co aufzulegen.

Wenn AMD das wie bisher macht, gehen sie damit wieder Baden und verbrennen Geld, dass Sie nur bedingt haben.

zogger CkY schrieb:
Hab das Spiel jetzt einmal Komplett neu Runtergeladen, die Benchmarks davor waren seit Release nur geupdatet. Der Unterschied ist Massiv :O
Eine Interressante Möglichkeit, werde ich heute mal machen.
 
  • Gefällt mir
Reaktionen: Pleasedontkill, Skaiy, derMutant und 2 andere
.Sentinel. schrieb:

Ist das so?
Grestorn schrieb:
Natürlich fühlt es sich besser an. Und der Lag wird ja nicht schlechter. Also immer ein Gewinn.
.Sentinel. schrieb:
Der einzige Nachteil entsteht, wenn der Entwickler seine Polling- Raten nicht angleicht.

Am Ende werde ich hier angegangen, weil ich eben nur gesagt hab, dass FG kein Allheilmittel ist.
 
_Cassini_ schrieb:
Ich verweise hier mal auf das Digital Foundry Video, dass eben auch die Probleme von FG aufzeigt, eben auch die, die auffallen. Es hier hinzustellen, als ob es eine Technologie ohne Fehler und nur mit Vorteilen ist, halte ich für falsch. Wenn ihr das anders seht, dann ist das ok für euch, an den Tatsachen ändert es aber nichts.
Ich kenne das Video. Und ich habe viele Stunden mit SpiderMan verbracht. De Fakto ist keiner dieser Artefakte jemals für mich auch nur zu erahnen gewesen.

Das Spiel aufzuzeichnen und Frame für Frame abzusuchen, ob man Artefakte in einem Standbild findet, ist zwar für die Analyse sicherlich notwendig, aber für den Spieler nicht unbedingt relevant. Für den Spieler relevant ist nur, ob er ein Artefakt im Spiel auch wahrnehmen kann.

Ist wie bei MP3: Natürlich kann man technisch auch bei 300+kBit nachweisen, dass das Original und die komprimierte Musik de fakto massive Unterschiede zeigt. Wenn der normale Mensch diese Unterschiede im Blindtest aber nicht raushören kann, spielen sie einfach keine Rolle.
 
_Cassini_ schrieb:
Ist das so?



Am Ende werde ich hier angegangen, weil ich eben nur gesagt hab, dass FG kein Allheilmittel ist.
Beim ersten Zitat ging es darum ob ein Latenz Nachteil entsteht, was nicht der Fall ist dank Reflex.
Beim zweiten Zitat ging es darum, wann ein Latenz Nachteil dennoch entstehen könnte.

Beides keine Aussagen die widersprechen, dass es kein „Allheilmittel“ ist. Denn klar ist auch, wer von 20FPS kommt, braucht von FG nicht zu erwarten ein flüssiges Bild zu bekommen
 
  • Gefällt mir
Reaktionen: rumpeLson
_Cassini_ schrieb:
Am Ende werde ich hier angegangen, weil ich eben nur gesagt hab, dass FG kein Allheilmittel ist.
FG ist ein gut funktionierender Baustein, der zur Lösung diverser Probleme beitragen kann und macht dabei seine Sache erstaunlich gut.
Problematisch ist es, wenn man sich als User einseitig auf die Negativaspekte konzentriert (egal bei welcher Technik) und diese komplett aus dem Verhältnis zum Nutzen und auch sonstigen Abhängikeiten und Zusammenhängen heraustrennt.
Das hat immer so ein gewisses "Geschmäckle" nach der verzweifelten Suche des Haares in der Suppe.
 
DevPandi schrieb:
Es bietet einen Mehrwert, nur ist dieser leider in der Regel sehr subtil und es fällt bei guten Spielen erst auf, wenn es wieder abgeschaltet wird, weil etwas "fehlt".
Richtig, weil etwas fehlt... FPS und Performance fehlt, der Rest fällt kaum auf und ist diesen massiven performance verlust einfach nicht wert. Punkt.
 
  • Gefällt mir
Reaktionen: Pleasedontkill
Diese Art des Community-Testing ist ziemlich cool, danke!

Kurze Frage: habe Cyberpunk überhaupt nicht verfolgt; weder Hype noch sonst was, aber ich habe natürlich mitgekriegt, wie absolut verbugged das Game zum Release war.

Wie schaut das heutzutage aus? Bugfree? Oder nur mehr vereinzelt aka spielbar?
 
Zurück
Oben