Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGaming-Grafikkarten 2024 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours
Die RX 7700 XT macht in meinen Augen in 1080P eine sehr gute Figur, wenn sie doch nur endlich im Preis fallen würde. So bleibt mir die Karte rund 75€ zu teuer. Aber ich möchte eigentlich auch nicht (mehr) in die ältere RX 6700 XT investieren. Einfach blöd, zurzeit.
EDIT. Ich denke aber, dass die 7700 XT demnächst die Nachfolge von der 6700 XT antreten könnte, was P/L angeht.
Pandora könnt ein Sonderfall sein.
Bei mir "zerreißt" die Umrandung vom UI auch, allerdings etwas anders als in Taxxors Video.
Beim normalen Spielen ist mir das nicht aufgefallen, da ich nicht ständig die Augen aufs UI gerichtet habe und die Kamera dabei bewege. Aber es ist auf jeden Fall da.
Hast du einen Link zu deinem Video? Ich finde den entsprechenden Beitrag von dir irgendwie nicht und würde mir das gerne mal anschauen aus Interesse. Danke
Die RX 7700 XT macht in meinen Augen in 1080P eine sehr gute Figur, wenn sie doch nur endlich im Preis fallen würde. So bleibt mir die Karte rund 75€ zu teuer. Aber ich möchte eigentlich auch nicht (mehr) in die ältere RX 6700 XT investieren. Einfach blöd, zurzeit.
Hast du einen Link zu deinem Video? Ich finde den entsprechenden Beitrag von dir irgendwie nicht und würde mir das gerne mal anschauen aus Interesse. Danke
Jo, das InGame-FG kennt die Bewegungsvektoren und liefert etwas konstantere Bildraten.
Hingegen das extrene Treiber-AFMF muss dann eher mal vorsichtshalber etwas langsamer rendern. (das sich AFMF gänzlich deaktiviert bei schnellen Mausbewegungen ist nach m.E. inzwischen nicht mehr so,
eher schrittweise etwas langsamer)
Es geht insbesondere darum die Leistung von aktuellen Grafikkarten mit aktuellen Spielen zu messen.
Das was du vorhast ist nicht aber besonders aussagekräftig. Zumindest nicht wenn man Engines vergleichen will
Viele Spiele mögen zwar auf UE basieren. So stark wie die technische Qualität der Spiele voneinander abweicht, macht es wenig Sinn daraus abzulesen welche Engine oder Version besser ist.
Man vergleicht lediglich die Implemtierung der UE von Team A und B.
Je nachdem welche Features von den Teams verwendeten werden und wieviel Geld in Bugfixing etc gesteckt wurde, sehen die Ergebnisse sehr unterschiedlich aus. Vgl Lumen....
In WQHD ist der Unterschied von der 2080TI zur 4060TI dann vermutlich nochmal krasser. Hohe Rohleistung und ordentlich Vram an nem gescheiten Interface zahlen sich halt doch aus
Das Interface ist nebensächlich. Was zählt ist der Durchsatz.
Benchmarks mit RTX 4060 Ti 16 GB würden das zeigen.
Die 8GB Karte ist einfach "Elektroschrott". Viel zu wenig Speicher für die Leistung einer RX 6800.
Liegt aber nicht am VRAM, sondern weil sie generell nicht schnell genug ist^^
Im CB Test hat sie mit RT immerhin 42FPS in 1440p + DLSS Balanced. Die 6800XT kommt gerade auf 30 und auch die 7900XT mit doppeltem VRAM kommt nicht an ihr vorbei
Zum einen lassen sich gewisse ältere "weniger anspruchsvolle" Titel mit einer RX 6800 XT in 4K spielen, wo eine RTX 3080 10GB bereits nachweislich Probleme bekommt. Unter anderem in Far Cry 6 (mit dem optionalen HD-Texturpaket) oder Halo Infinite.
Zum anderen werden moderne Spiele auch in den kommenden Jahren noch keinen durchgängigen Gebrauch von Heavy RT machen. Denn die wenigsten Gamerinnen und Gamer (auch auf der Konsole) haben die passende Hardware dafür bei sich zu Hause. Es wird noch gefühlte Ewigkeiten dauern bis wir heutige "Raytracing Ultra" Qualität oder gar Pathtracing standardmäßig in jedem Spiel bekommen. Bei Avatar: Frontiers of Pandora hat man daher bewusst nur auf permanentes "RT Lite" gesetzt. Ansonsten wäre das Spiel zum Schluss nur mit einer 1000+€ RTX-Grafikkarte spielbar gewesen. Wenn überhaupt.
Edit:
Stell dir vor Ubisoft hätte bei Avatar exklusiv mit Nvidia kooperiert. Man hätte auf jeden Fall RT Ultra und vielleicht auch Pathtracing im Spiel gehabt, das perfekt für RTX 4000 optimiert worden wäre. Zeitgleich hätte man andere grafische Downgrades hinnehmen müssen, die auch auf Nvidias fragwürdige Speicherpolitik zurückzuführen wären. Etwa weniger Geometriedetails oder SD-Texturen auf Cyberpunk 2077 Niveau. Es ist zum Schluss Geschmackssache, ob man höhere Geometrie- und Texturdetails oder eine realistischere Beleuchtung besser findet. Aber auf keinen Fall würde jeder Gamer immer gleich "Hurra!" schreien, wenn ein aktuelles Spiel Raytracing (bezogen auf dem aktuellen Stand der Technik) vollkommen ausreizt und dabei andere ebenfalls wichtige Grafikdetails vernachlässigt werden.
Ich kann dich verstehen, aber man muss eben auch anerkennen, dass RT inzwischen in vielen Neuerscheinungen im AA- oder AAA-Bereich enthalten ist und damit nun einfach dazugehört.
Bei Avatar: Frontiers of Pandora hat man daher bewusst nur auf permanentes "RT Lite" gesetzt. Ansonsten wäre das Spiel zum Schluss nur mit einer 1000+€ RTX-Grafikkarte spielbar gewesen. Wenn überhaupt.
Warum wäre denn die Alternative zu permanentem RT-Lite nur "permanentes RT-Ultra bzw Pathtracing" ?
Warum das nicht als Option anbieten? Dann können die schwächeren Karten weiterhin mit RT Lite spielen und die stärkeren bekommen dann eben die bessere Optik.
Auch ein Alan Wake 2, um das es im Zitat ging, ist ja nicht nur auf 1000€+RTX Karten spielbar, wenn man Regler bedienen kann. Das gleiche gilt für ein Cyberpunk, das läuft sogar auf dem SteamDeck.
Niemand ist gezwungen, Spiele mit max Settings zu spielen.
Und niemand hat einen Vorteil dadurch, wenn ein Spiel die Möglichkeiten künstlich auf einen gemeinsamen niedrigeren Nenner beschränkt, denn diesen Nenner kann man ja auch einstellen, wenn es darüber noch bessere Optionen gibt.
Aber es will ja jeder immer mit allem auf max Spielen und wenn das nicht mit der eigenen GPU funktioniert, ist das Spiel halt schlecht optimiert. Warum sind die "Unobtanium" Settings in Avatar wohl nicht ganz normal übers Menü einstellbar? Es gibt ja ein paar GPUs, die damit klar kommen.
Weil dann das Gejammer über miese Optimierung aufkommen würde.
Ich finde es schade das man die RT Einstellung nun hoch gesetzt hat. Es gab zwar einiges an Kritik das sie nicht so hoch eingestellt war, aber es war sicher deutlich näher an der Praxis da ja nicht nur mit 4070Ti und aufwärts gespielt wird.
Die Rastereinstellungen sind auch auf ultra eingestellt.
Egal ob der Speicher limitiert oder die kleinen Karten wenig FPS ausspucken. Irgendwo muss man eine Linie finden, wie man testet.
RT ist für mich nach wie vor eine kaufentscheidungsirrelevante Pioniertechnologie, die bestenfalls 2% zur BQ (Bildqualität) beiträgt.
Ich stell auch in jedem Spiel als erstes die Schatten auf Medium, oder tiefer.
Texturen, Texturqualität, Farbbrillianz und Auflösung sind die Träger der BQ!
Ausserdem Upscaling auf 4k, falls ein Spiel in 4K Nativ meine RX6700XT ansonsten überfordern würde, da FSR 4K auf einem 4K Monitor besser aussieht, als 1080p, oder 1440p interpoliert.
Upscaling für 1080p und 1440p lehn ich ab - das zeugt nur von mangelnder Hardwareentwicklung, oder Spieleoptimierung!
FG lehn ich entschlossen unbeirrbar ab!
(Es ist vor allem ein Feature, das umso schlechter aussieht, umso weniger FPS eine GPU liefern kann und von daher bloß ein irreleitender FPS-Inflater!)
Die Frametimes sollten regelmässig sein und flüssige 60Hz reichen mir für alles, was ich spiele!
BQ geht mir vor FPS!
Ergänzung ()
Bulletchief schrieb:
RT ist und bleibt die Zukunft. Und das im übrigen schon lange bevor es in der Breite implementiert war...
Aber hey, versteh ich. Es gibt auch Leute die von Dampfloks fasziniert sind...
Warum wäre denn die Alternative zu permanentem RT-Lite nur "permanentes RT-Ultra bzw Pathtracing" ?
Warum das nicht als Option anbieten? Dann können die schwächeren Karten weiterhin mit RT Lite spielen und die stärkeren bekommen dann eben die bessere Optik.
Weil, ganz gleich was manche immer von sich geben, dies alles implementiert werden muss, was Manpower, Zeit und damit Geld benötigt. Und wenn man es ordentlich machen will, dann sind dies auch nicht gerade wenig Ressourcen. Einfach wie bekloppt mehr Strahlen zu verschießen weil man es kann oder die RT-Auflösung zu erhöhen ist halt allerhöchstens Bruteforce, wirklich sinnvoll aber wohl nur selten. Und dann wird es eben kompliziert.
Optional baut dir daher keiner "mal eben" RT Ultra oder gar Pathtracing ein, wenn dies aus welchen Gründen auch immer nicht ein integraler Teil deines Spiels sein soll.
Was bringen mir die besten Texturen, wenn die Beleuchtung kacke ist?
Aus deinen bestenfalls 2% würde ich so z.B. in Cyberpunk mal locker 50% machen, die PT hier zur Bildqualität beiträgt, ohne kann ich mir das Game nicht mehr anschauen, wenn man es einmal mit gespielt hat.
Grade Cyberpunk ist das Primebeispiel, das RT völlig überbewertet ist, da es ohne RT zu 99% so gut aussieht, wie mit RT, ohne zu berücksichtigen, das ich mit RT Texturpanschupscaling einshcalten muß.
Sorry, deine Argumentation ist ein Eigentor!
PS: Und das ist jetzt kein Witz!
Das einzige Spiel, wo ich RT echt einen beeindruckenden BQ Multiplikator fand, war Minecraft RT.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Grade Cyberpunk ist das Primebeispiel, das RT völlig überbewertet ist, da es ohne RT zu 99% so gut aussieht, wie mit RT, ohne zu berücksichtigen, das ich mit RT Texturpanschupscaling einshcalten muß.
Warum wäre denn die Alternative zu permanentem RT-Lite nur "permanentes RT-Ultra bzw Pathtracing" ?
Warum das nicht als Option anbieten? Dann können die schwächeren Karten weiterhin mit RT Lite spielen und die stärkeren bekommen dann eben die bessere Optik.
Ich vermute es liegt daran, dass Avatar zu allererst ein Konsolentitel ist. Das sieht man daran, dass etwa eine RX 6800 XT leicht vor einer RX 7800 XT liegt, wobei letztere im CB-Ranking (RT) in WQHD durchschnittlich 8% schneller ist. Das heißt man wollte einen echten Next-Gen-Titel für PS5 und Xbox Series X entwickeln und hat das Spiel entsprechend für RDNA 2 optimiert. Bei der PC-Umsetzung hat man sich daher nicht erst die Mühe gemacht, auch auf leistungsstärkere Hardware Rücksicht zu nehmen.
Auf der anderen Seite erreicht selbst eine RTX 4080 mit DLSS Quality in 4K "nur" 60 FPS bei "RT Lite". Die Qualität "RT Ultra" ala Cyberpunk 2077 würde die Bildrate noch einmal deutlich senken. Zum Schluss könnte man Avatar nur noch mit einer RTX 4090 einigermaßen vernünftig spielen...
Zwischen Beleuchtung, die trotz Rasterisierung stimmungsvoll ist und "kacke", liegen ebenfalls Welten. Ich gebe dir absolut Recht, dass CP2077 mit Path-Tracing fantastisch ausschaut. Auf der anderen Seite ist die "Standardbeleuchtung" in dem Spiel auf keinen Fall "kacke". Das wäre wieder einmal nur die Aussage der Nvidia-Marketingabteilung, die ihre RTX-Grafikkarten an die Gamer bringen möchte.