-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Cyberpunk 2077 Patch 1.2 im Test: Raytracing auf AMD Radeon RX kostet bis zu 75 Prozent FPS
deady1000
Lt. Junior Grade
- Registriert
- Juni 2008
- Beiträge
- 300
Gut dann taugt Cyberpunk nichts, denn wer bei dem Spiel den Mehrwert von Raytracing nicht sieht, der hat die Kontrolle über sein Leben verloren.Shoryuken94 schrieb:Ist für mich persönlich jetzt aktuell kein Problem, da es kein Spiel gibt, wo RT ein wirklicher Mehrwert ist und das Spiel auch taugt
Shoryuken94 schrieb:Ohne DLSS Alternative ist RT auf RDNA2 nur sehr eingeschränkt nutzbar. Wem es auf die RT Performance ankommt, der ist aktuell mit AMD einfach nicht sonderlich gut bedient.
...
Genau so ist es, ich hoffe AMD wird aufholen.
- Registriert
- Mai 2011
- Beiträge
- 21.276
Ganz so ähnlich finde ich das nichtrumpeLson schrieb:Übersehe ich etwas oder bewegt sich die Performance auf den AMD Karten nicht genau im erwartbaren Rahmen? Die 6900 xt ist etwa auf dem Level der RTX 3070, also ganz ähnlich, wie wir es in anderen RT Titeln ebenfalls beobachten.
Hier die 1440p RT Werte aus dem 6900XT Test(mehrere Spiele)
Und hier Cyperpunk
Liegt die 3070 sonst auf Augenhöhe mit der 6800XT, ist sie in Cyberpunk 21% schneller unterwegs.
Und auch die Differenz zwischen 3070 und 6900XT ist fast genau invertiert: Im Mittel ist die 6900XT 8% schneller, in Cyberpunk ist die 3070 9% schneller.
Ergänzung ()
Auffällig bei den Benchmarks ist noch, dass Cyberpunk 2077 ohne Raytracing mit 8 GB VRAM zwar noch auskommt, mit den Strahlen dann aber nicht mehr. Bereits in Full HD haken die GeForce RTX 3060 Ti und die GeForce RTX 3070 störend, spielbar ist das so nicht mehr. In dem Fall müssen die Texturdetails reduziert werden, dann gibt es auch mit 8 GB keine Probleme mehr. Die 10 GB der GeForce RTX 3080 sind in allen Auflösungen ausreichend.
Das verwundert mich. Die 8GB sollen schon in 1080p zu Rucklern führen, aber nur 2GB mehr reichen dann selbst für 4K prima aus?
Skalieren die RT Effekte überhaupt nicht mit der Auflösung? Ansonsten hätte ich erwartet, dass bei der 3080 die Ruckler auch in 1440p so langsam auftreten müssten, spätestens aber in 4K mindestens ebenso stark sein müssten, wie bei der 3070 in 1080p.
Zuletzt bearbeitet:
UrlaubMitStalin
Lt. Commander
- Registriert
- März 2011
- Beiträge
- 1.826
Anders ausgedrückt: Man bietet jetzt auch AMD Raytracking... zwar unbenutzbar, aber es geht... das ist wie diese letzten Updates für alte Handys... das letzte Update macht die Geräte so langsam, dass die Menschen sich ein neues kaufen müssen.
- Registriert
- Mai 2011
- Beiträge
- 21.276
Immerhin gibt es in dem Fall dann bereits neue und schnellere Handys, die man kaufen könnte, eine 7900XT dauert noch^^UrlaubMitStalin schrieb:das ist wie diese letzten Updates für alte Handys... das letzte Update macht die Geräte so langsam, dass die Menschen sich ein neues kaufen müssen.
deady1000
Lt. Junior Grade
- Registriert
- Juni 2008
- Beiträge
- 300
Die hätten es lieber weglassen sollen. Vorher konnte man wenigstens sagen "der Entwickler ist halt Nvidia-biased". Jetzt ist es draußen und es ist im Vergleich nur peinlich.UrlaubMitStalin schrieb:Anders ausgedrückt: Man bietet jetzt auch AMD Raytracking... zwar unbenutzbar, aber es geht
D
David_B
Gast
82% Marktanteil in Q4 für Nvidia spricht nicht unbedingt für die Konkurrenzfähigkeit von AMD... zumindest hat AMD nichts davon...122messi122 schrieb:Ja wirklich schade, dass AMD nach vielen Jahren wieder konkurrenzfähig ist. Wie schön wäre doch die Welt, wenn Nvidia ein Monopol hätte
n8mahr
Commodore
- Registriert
- Aug. 2006
- Beiträge
- 4.226
Das stimmt meines Wissens so nicht. Dann müsstest du auch zustimmen, das die 1.gen der nV Karten ein reiner Webegag war. Mit dem Unterschied, das nV wieder mal behauptet, das ginge nur mit dezidierter nV Hardware, und AMD den "schwierigeren" Weg über offene Standards geht. "Reiner Marketinggag" - ne, eher eine Machbarkeitsstudie, wie es ohne nV-spezifische Hardware geht. Dass das in der ersten Generation nicht mithalten kann, war abzusehen.deady1000 schrieb:Ohne irgendeine Art von Upscaling und RT-Core-Pendants geht es eh nicht. War doch klar, dass das bei BigNavi nur ein Marketing-Gag wird. Die sind halt erst auf den letzten Drücker auf den Zug aufgesprungen, wo NV bereits ein paar Jahre zugange war und auch ne gute Lösung für den FPS-Malus entwickelt hatte.
Wie ich schon schrieb, Niemand (mit Ausnahme ein paar verblendeter Fanboys) dürfte sich eine RX wegen Raytracing gekauft haben.
Daher trifft auch deine Tabelle
nur auf die o.g. zu . Die WENIGSTEN werden wohl von RT und Fidelitydingsbums Wunderdinge erwarten und jetzt eine Karte kaufen, weil es versprochen wird. Weil es eben unrealistisch ist. Die Paar, die es betrifft, siehe oben, haben es auch nicht anders verdient.deady1000 schrieb:AMD kündigt FidelityFXSuperResolution an:
- Hype hype, das wird super, BigNavi ist endlich RT-Ready!!!
- Hype hype, das wird super, BigNavi hat endlich auch ein DLSS-Pendant für Ø60% mehr Gratisleistung.
Ich mein, klar können wir jetzt wieder in das Thema: was ist geiler AMD oder NV??? anfangen, worauf du ja kräftig anspielst. Ich sags mal so: werd glücklich mit deiner 3090, aber mach doch anderen Leuten die Hardware nicht madig. Davon hast du zumindest keinen einzigen fps mehr auf dem Monitor.
Auch die Nvidia GPUs brechen mit Raytracing, auch abseits von Cyberpunk, erheblich ein, Ampere ist nur die eine Tensor-Generation "Vorsprung" vor AMD.
Die Magie lautet DLSS, und dann passiert das, was einige hier ungerne hören, nämlich dass die 6800 und 6900XT mit und ohne Raytracing auch von 2000er Turing Karten einkassiert bzw überholt werden.
Ohne DLSS sind die Nvidia Karten auch nicht wirklich RT "tauglich".
Sollen Raytracing non-Hybrid GPUs im Gaming Bereich bis auf weiteres bezahlbar sein (ja, derzeit ist das ein Treppenwitz, wir bleiben mal im Gedankenmodell), sind die AMD und Nvidia Lösungen nur machbar als Kompromiss mit einer Rekonstruktrionslösung.
Die Magie lautet DLSS, und dann passiert das, was einige hier ungerne hören, nämlich dass die 6800 und 6900XT mit und ohne Raytracing auch von 2000er Turing Karten einkassiert bzw überholt werden.
Ohne DLSS sind die Nvidia Karten auch nicht wirklich RT "tauglich".
Sollen Raytracing non-Hybrid GPUs im Gaming Bereich bis auf weiteres bezahlbar sein (ja, derzeit ist das ein Treppenwitz, wir bleiben mal im Gedankenmodell), sind die AMD und Nvidia Lösungen nur machbar als Kompromiss mit einer Rekonstruktrionslösung.
n8mahr
Commodore
- Registriert
- Aug. 2006
- Beiträge
- 4.226
dann ist die komplette letzte Generation (2xxx) von rtx Karten peinlich?deady1000 schrieb:Die hätten es lieber weglassen sollen. Vorher konnte man wenigstens sagen "der Entwickler ist halt Nvidia-biased". Jetzt ist es draußen und es ist im Vergleich nur peinlich.
- Registriert
- Mai 2011
- Beiträge
- 21.276
Wenn diese heute die aktuell verfügbaren stärksten Karten von Nvidia wären, ja. Wäre die 6000er Serie 2018 rausgekommen, sähe das anders aus.n8mahr schrieb:dann ist die komplette letzte Generation (2xxx) von rtx Karten peinlich?
Ergänzung ()
Als was bezeichnest du denn die RT Accelerator Einheiten in den TMUs der Radeons?deady1000 schrieb:Ohne irgendeine Art von Upscaling und RT-Core-Pendants geht es eh nicht.
Zuletzt bearbeitet:
- Registriert
- Dez. 2014
- Beiträge
- 9.246
Ich sag mal so bei Dirt 5 läuft Rt sowohl bei AMD als auch NVidia absolut ohne probleme.
Persönlich vermute ich, dass sich CDPR nicht wirklich die mühe gemacht hat Rt vernünftig einzubauen.
Naja wenn man keine Zait hat, dann fällt sowas halt auch hinten runter.
Darum sehe ich die Zahlen hier auch nicht als wirklich repräsentativ an.
Persönlich vermute ich, dass sich CDPR nicht wirklich die mühe gemacht hat Rt vernünftig einzubauen.
Naja wenn man keine Zait hat, dann fällt sowas halt auch hinten runter.
Darum sehe ich die Zahlen hier auch nicht als wirklich repräsentativ an.
- Registriert
- Mai 2011
- Beiträge
- 21.276
Dirt 5 hat aber auch nicht im Ansatz die Menge an RT Effekten wie ein Cyberpunk oder ein Control.edenjung schrieb:Ich sag mal so bei Dirt 5 läuft Rt sowohl bei AMD als auch NVidia absolut ohne probleme.
Oha, mit dem LOD werd ich weiter warten bis ich mich wieder ransetze.
@n8mahr Naja, die RT Leistung war schlecht - aber wir sind ja nun 2020. Und AMD hat halt kein DLSS um es etwas zu kompensieren, auch wenn 1.0 bei Nvidia nciht perfekt war.
Kein Bashing gegen AMD, es ist nunmal wie es ist: Wer mit RT spielen möchte, wird bei Team Grün bleiben müssen. Trotzdem ist es toll das AMD so abliefert, aber wenn man fair wäre müssten die AMD Karten ein Stück günstiger sein.
Man kann jetzt schon sagen das die nächste Generation sehr interessant wird. Nvidia muss die Rasterleistung kontern und AMD mit RT und Upscaling nachholen. Das könnte ein richtiger Preiskampf werden.
@n8mahr Naja, die RT Leistung war schlecht - aber wir sind ja nun 2020. Und AMD hat halt kein DLSS um es etwas zu kompensieren, auch wenn 1.0 bei Nvidia nciht perfekt war.
Kein Bashing gegen AMD, es ist nunmal wie es ist: Wer mit RT spielen möchte, wird bei Team Grün bleiben müssen. Trotzdem ist es toll das AMD so abliefert, aber wenn man fair wäre müssten die AMD Karten ein Stück günstiger sein.
Man kann jetzt schon sagen das die nächste Generation sehr interessant wird. Nvidia muss die Rasterleistung kontern und AMD mit RT und Upscaling nachholen. Das könnte ein richtiger Preiskampf werden.
- Registriert
- Dez. 2014
- Beiträge
- 9.246
Und Watch Dogs legion?Taxxor schrieb:Dirt 5 hat aber auch nicht im Ansatz die Menge an RT Effekten wie ein Cyberpunk oder ein Control.
Da läuft das auch ganz gut für AMD.
Ich finde übrigens es kommt nicht auf Quantität an, sondern auf Qualität.
^^
- Registriert
- Mai 2011
- Beiträge
- 21.276
Dann ist es ja ganz passend, dass du bei der Qualität Watch Dogs erwähnst, wo bei sämtlichen Erst-Reviews die Effekte bei RDNA2 komplett verbuggt waren, meist war es einfach ne graue Fläche statt einer Spiegelung.edenjung schrieb:Und Watch Dogs legion?
Da läuft das auch ganz gut für AMD.
Ich finde übrigens es kommt nicht auf Quantität an, sondern auf Qualität.
^^
Das wurde später gepatcht und seitdem brechen die Karten hier auch sehr viel stärker ein
Berserkervmax
Banned
- Registriert
- Apr. 2004
- Beiträge
- 3.118
Wie schon vor Cyberpunk gesagt
Wer RT haben will kauf ne NV GPU
Wer 1440p oder 4K will kauft NV GPU
Und wer das alles nicht will kauft ne AMD GPU
Und zur Zeit kaufen wir alle garnix weil es nix gibt und die Preise fern ab aller Realität sind
Wer RT haben will kauf ne NV GPU
Wer 1440p oder 4K will kauft NV GPU
Und wer das alles nicht will kauft ne AMD GPU
Und zur Zeit kaufen wir alle garnix weil es nix gibt und die Preise fern ab aller Realität sind
- Registriert
- Dez. 2014
- Beiträge
- 9.246
@Taxxor
Ah ok. Wusste ich nicht.
^^
Tja mich intersiiert RT eh nicht, sollange man es nicht nativ vernünftig darstellen kann ohne generelle FPS einbrüche.
Also irgendwann in 3-4 Jahren. Dann sollte das auch mal sichtbar besser aussehen.
@Berserkervmax Also ich habe 1440p und ich möchte AMD.
passt so irgendwie gar nicht oder?
Ach du hast übrigens vergessen zu erwähnen: "Wer ne etwas schwächere CPU hat, der profitiert von AMD massiv".
Und "wer weniger stromverbrauch will, der kauft AMD"
Waren doch früher immer so ein argumente für NVidia oder?
kann mich erinnern, dass das immer das Totschlagargument war 😝
Ah ok. Wusste ich nicht.
^^
Tja mich intersiiert RT eh nicht, sollange man es nicht nativ vernünftig darstellen kann ohne generelle FPS einbrüche.
Also irgendwann in 3-4 Jahren. Dann sollte das auch mal sichtbar besser aussehen.
@Berserkervmax Also ich habe 1440p und ich möchte AMD.
passt so irgendwie gar nicht oder?
Ach du hast übrigens vergessen zu erwähnen: "Wer ne etwas schwächere CPU hat, der profitiert von AMD massiv".
Und "wer weniger stromverbrauch will, der kauft AMD"
Waren doch früher immer so ein argumente für NVidia oder?
kann mich erinnern, dass das immer das Totschlagargument war 😝
Aber nur wenn man die Augen zu macht. Es mag nicht überall sofort ein Unterschied bemerkbar sein, besonders drausen am Tage, aber es ist definitiv ein Mehrwert da. Wir hatten gleichzeitig gespielt. Meine Frau mit der der RTX 3070 2560x1440 ultra/RT/DSSL Qualität und ich auf dem anderen PC mit der RX 6800 ohne RT.WebBeat84 schrieb:Hab ich ja gesagt und optisch nicht besser als ohne RT
Ähnliche Themen
- Antworten
- 471
- Aufrufe
- 89.471
- Antworten
- 165
- Aufrufe
- 22.487