- Registriert
- Okt. 2023
- Beiträge
- 2.089
Das halte ich zwar für einen Fehlschluss, da alle anderen Karten die damals breit am Markt gewesen sind ebenfalls nur 8GB hatten, aber bitte. Das Spiel wurde für 8GB entwickelt und ist daher mit einem 3 Jahre später erscheinenden Game nicht zu vergleichen.TigerherzLXXXVI schrieb:Cyberpunk 2077 wurde damals auch mit Hinblick auf die bald erscheinende RTX 3000 Generation entwickelt.
Natürlich stört mich eine schlechte Texturqualität, genauso wie schlechte Beleuchtung oder fehlende Plastizität.TigerherzLXXXVI schrieb:Dass dich persönlich die vergleichbar eher maue Texturqualität nicht weiter stört tut nichts zur Sache.
Die Texturqualität in Cyberpunk ist für heutige Verhältnisse immer noch stark, für ein mittlerweile altes Game.
Die Texturqualität hat auch nach wie vor überhaupt nichts mit RT oder Pathtracing zu tun.TigerherzLXXXVI schrieb:Man kann ruhig ein Texturvergleich sämtlicher in diesem Zeitraum erschienenen Spiele anstellen. Da wird Cyberpunk nicht mehr so gut da stehen.
Es gab zum Release des Spiels keine einzige Karte mit 12GB von AMD und kaum jemand hatte eine aktuelle Ampere Nvidia Karte...TigerherzLXXXVI schrieb:Übrigens hatten beinahe sämtliche AMD-Grafikkarten von damals (bis auf die x600er Serie) mindestens 12GB...
Die gefallen mir nicht, weil sie immer auf ein AMD. vs. Nvidia Bullshit-Bingo hinauslaufen und es nie um die Tech an sich geht. Dir geht es darum wer den längsten in Disziplin XY hat. Und wenn das bei RT Nvidia ist, dann agitierst du dagegen an, vermischst Sachverhalte und stellst Zusammenhänge völlig falsch dar.TigerherzLXXXVI schrieb:Meine Kommentare mögen dir nicht gefallen
Du bist sogar so verzweifelt, dass 4 Jahre alte Spiele bemüht werden, um schlechte Texturen mit Raytracing in Verbindung zu bringen um einfach irgendetwas negatives zu sagen.