JohnWickzer schrieb:ganz bestimmt mit Ray Tracing xD eher so 100% langsamer
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Radeon RX 7900 XTX Customs im Test: Asus, PowerColor, Sapphire & XFX mit Navi 31 im Vergleich
Taxxor
Fleet Admiral
- Registriert
- Mai 2011
- Beiträge
- 20.633
@Loach RT off, steht doch oben^^
Ergänzung ()
Und Lumen nutzt die Raytracing Hardware der Karten, nur wenn die Karten keine haben, wird der langsamere bzw qualitativ schlechtere Software Fallback verwendet.Garrus schrieb:UE5 würde ich hier nicht als Beispiel anführen, denn Epic setzt hier ganz auf Lumen anstatt Raytracing.
Dittsche
Lt. Commander
- Registriert
- Feb. 2011
- Beiträge
- 1.111
Taxxor schrieb:Das stimmt aber durch RT(unter anderem ) ist ein 7 Jahre älteres Spiel eben doch recht nah ran gekommen und wurde noch mal deutlich aufgewertet im Vergleich zum Original.
Und von dieser Aufwertung hat man mit ner AMD Karte halt fast nichts.
und die ultra+ Settings sind also völlig unerheblich ja?
Und warum sollte man mit einer amd Karte nichts von dieser Aufwertung haben.
Nach dieser Logik hat ja auch jeder mit ner 3090/ti nichts davon. Denn so schnell ist ja eine 7900xtx in RT etwa.
Jeder last gen high end Nvidia Käufer hat also auch nicht das Privileg the Witcher 3 mit rt zu genießen. Denn dieses Leistungsniveau ist halt fundamental nicht mehr zu gebrauchen da es jetzt 2000€ Grakas gibt, die es stemmen können für weniger als 1% der pc Besitzer.
Es stimmt ja auch rt in the Witcher 3 ist auch auf meiner 3080 unbrauchbar.
Taxxor
Fleet Admiral
- Registriert
- Mai 2011
- Beiträge
- 20.633
Die gab es größtenteils auch vorher schon durch die Mods, die jetzt Bestandteil des Patches waren.Dittsche schrieb:und die ultra+ Settings sind also völlig unerheblich ja?
RT ist aber, was die Version wirklich vom Original abgrenzt.
Korrekt, die RT Aufwertung bekommt man höchstens wenn man unterhalb von 1440p(bzw in nativer Auflösung sogar unterhalb von 1080p) bleibt oder auch mit unter 60FPS zufrieden ist.Dittsche schrieb:Und warum sollte man mit einer amd Karte nichts von dieser Aufwertung haben.
Nach dieser Logik hat ja auch jeder mit ner 3090/ti nichts davon. Denn so schnell ist ja eine 7900xtx in RT etwa.
Jeder last gen high end Nvidia Käufer hat also auch nicht das Privileg the Witcher 3 mit rt zu genießen.
Eine 3090Ti kommt im Community Bench aber zumindest über die 60FPS in 1440p mit DLSS Q, also gibt es aktuell schon mal mindestens 3 Nvidia Modelle die das schaffen, auf AMD Seite schaffte das bisher keine Karte.
Aber egal wie viele Nvidia Karten der Last Gen es auch nicht können, das ändert ja nichts daran, dass es eben gar keine AMD Karte kann.
"Vergleichbar" muss dann aber nicht nur das Ergebnis sein, sondern auch der Support, die Dokumentation und sie generelle Nutzbarkeit.TigerherzLXXXVI schrieb:Aber ich bin der klaren Meinung, wenn Nvidia nicht gerade wieder einmal einen Exklusivdeal abschließt, um seine RTX-Produkte aggressiv zu vermarkten, würde bei vielen Spieleentwicklern nichts gegen eine vergleichbare Technik auf Open-Source-Basis sprechen. Denn jeder Gamer hätte dann etwas davon.
Zuletzt bearbeitet:
Ja, stimmt, aber ich habe auch nirgendwo erwähnt, daß mit RT der XTX in der Nähe von 4090FE ist ☺️Taxxor schrieb:
Terminator-800
Lt. Junior Grade
- Registriert
- Feb. 2008
- Beiträge
- 496
TigerherzLXXXVI
Lt. Commander
- Registriert
- Dez. 2021
- Beiträge
- 1.350
Ich bin kein Programmierer, aber AMD macht auf mich den Eindruck, als ob sie mit Einsatz und Leidenschaft hinter ihrer Technik stehen. Und FSR 2 hat eben auch bei den neusten Spielekonsolen enormes Potenzial, die sie bekanntlich alle auf RDNA2-GPUs setzen. Warum sollte denn allein Nvidia so etwas "Vergleichbares" anbieten können? AMD hat in den letzten Jahren für mich bewiesen, dass sie sowohl Hardware als auch Software sehr gut beherrschen.Miuwa schrieb:"Vergleichbar" muss dann aber nicht nur das Ergebnis sein, sondern auch der Support, die Dokumentation und sie generelle Nutzbarkeit.
Sun-Berg
Lt. Commander
- Registriert
- März 2008
- Beiträge
- 1.614
Taxxor schrieb:Das stimmt aber durch RT(unter anderem ) ist ein 7 Jahre älteres Spiel eben doch recht nah ran gekommen und wurde noch mal deutlich aufgewertet im Vergleich zum Original.
Und von dieser Aufwertung hat man mit ner AMD Karte halt fast nichts.
Speziell wenn man mal gegen Abend durch Velen reitet, macht das schon was her.
Na das stimmt ja schonmal nicht. Zwischen "Fast nichts" und RT-Ultra (also alle RT Effekte an) mit 40-60FPS UWQHD (Abhängig von RSR/FSR Stufen und Region im Spiel) ist ziemlich viel Platz. Zumal die Frametimes mit Anti-Lag noch ziemlich smooth sind. Ich weiss, es dürfen nur noch >60FPS sein, damit manche ein Spiel überhaupt anrühren. Das ist subjektiv. Aber "fast nichts" ist doch etwas sehr übertrieben.
@TigerherzLXXXVI Du hast schon Recht. Mich stört vor Allem, dass es mit Sicherheit möglich wäre auch aus RT noch ein Stückweit mehr Performance rauszuholen, nur mit der Anpassung von ein paar Reglern.
Hier nur mal als Beispiel:
https://www.computerbase.de/forum/t...ommunity-zum-patch-4-02.2119499/post-27689653
Ich habe das gerade getestet und sehe erstmal keinen Unterschied. Aber sogar wenn es einen geben sollte, die 5-10 FPS ist das immerhin wert. Ich verstehe nicht weshalb Entwickler es nicht schaffen hier noch einen Regler einzubauen.
Ich sag ja nicht, dass sie das nicht können - sorry falls das so rüber kam - nur, dass sie es auch machen müssen. Von dem was ich gehört habe ist halt z.B. OpenCL nicht mal ansatzweise eine Alternative zu CUDA obwohl es rein theoretisch vielleicht die gleichen/ähnliche Funktionen bereithält. Ist jetzt natürlich für Spiele eher weniger relevant, aber es ist eben ein Beispiel, dass für Entwickler akzeptanz wesentlich mehr als dass reine Featureset zählt.TigerherzLXXXVI schrieb:Ich bin kein Programmierer, aber AMD macht auf mich den Eindruck, als ob sie mit Einsatz und Leidenschaft hinter ihrer Technik stehen. Und FSR 2 hat eben auch bei den neusten Spielekonsolen enormes Potenzial, die sie bekanntlich alle auf RDNA2-GPUs setzen. Warum sollte denn allein Nvidia so etwas "Vergleichbares" anbieten können?
HageBen
Lieutenant
- Registriert
- Okt. 2014
- Beiträge
- 798
Wer weiß, evtl wie damals mit Tesselation.Sun-Berg schrieb:Ich habe das gerade getestet und sehe erstmal keinen Unterschied. Aber sogar wenn es einen geben sollte, die 5-10 FPS ist das immerhin wert. Ich verstehe nicht weshalb Entwickler es nicht schaffen hier noch einen Regler einzubauen.
https://hothardware.com/news/indept...-shows-highly-questionable-tessellation-usage
https://pcper.com/2011/08/never-mind-the-barrier-we-even-tessellated-the-water-table/
Sun-Berg
Lt. Commander
- Registriert
- März 2008
- Beiträge
- 1.614
Ich will ja den Entwicklern nicht direkt etwas unterstellen. Aber ist immer wieder erstaunlich wie scheinbar einfache Dinge vergessen werden. Zugunsten einer Firma. (Gibt ja auch Beispiele für das Gegenteil)
In A Plague Tale Requiem (und anderen Titeln auch) durften Modder FSR2.1 einbauen, nachdem es die Entwickler scheinbar nicht konnten. War wohl zu kompliziert.
Jetzt in the Witcher 3 4.0 schafft es ein "modder" mit ini Anpassungen einfach mal 10-20% mehr Leistung rauszuholen. Ja es gibt ganz bestimmt irgendwo einen Qualitätsverlust aber das ist es dann allemal wert. Die Entwickler schaffen es aber nicht einen Regler einzubauen und die User entscheiden zu lassen. Das war dann wieder zu kompliziert oder was? Also ich kanns nicht nachvollziehen.
In A Plague Tale Requiem (und anderen Titeln auch) durften Modder FSR2.1 einbauen, nachdem es die Entwickler scheinbar nicht konnten. War wohl zu kompliziert.
Jetzt in the Witcher 3 4.0 schafft es ein "modder" mit ini Anpassungen einfach mal 10-20% mehr Leistung rauszuholen. Ja es gibt ganz bestimmt irgendwo einen Qualitätsverlust aber das ist es dann allemal wert. Die Entwickler schaffen es aber nicht einen Regler einzubauen und die User entscheiden zu lassen. Das war dann wieder zu kompliziert oder was? Also ich kanns nicht nachvollziehen.
oldestvisitor
Cadet 4th Year
- Registriert
- Mai 2007
- Beiträge
- 91
https://www.hardwaretimes.com/unreal-engine-5-lumen-vs-ray-tracing-which-one-is-better/Taxxor schrieb:@Loach RT off, steht doch oben^^
Ergänzung ()
Und Lumen nutzt die Raytracing Hardware der Karten, nur wenn die Karten keine haben, wird der langsamere bzw qualitativ schlechtere Software Fallback verwendet.
Nein software rt und multiplatform somit sind Konsolen AMD mitversichert dem die haben kein Hardware RT.
Denke wird ziemlich performant sein auf xtx
Uberlege von der 4090 auf ne xtx zu wechseln... reicht och, so schick erkenne ich RT nicht jedenfalls jetziger game Umsetzung und umfang
Taxxor
Fleet Admiral
- Registriert
- Mai 2011
- Beiträge
- 20.633
Natürlich haben die Konsolen Hardware RT.oldestvisitor schrieb:Nein software rt und multiplatform somit sind Konsolen AMD mitversichert dem die haben kein Hardware RT.
Aus deinem Link
"RT accelerators" ist das, was RDNA2+3 und somit auch die Konsolen besitzen.By default, Lumen uses software ray-tracing (doesn’t utilize RT cores/accelerators)
Nur werden diese nicht stark genug sein, um die HW Raytracing Methode von Lumen zu benutzen, aktuelle PCs hingegen schon
TigerherzLXXXVI
Lt. Commander
- Registriert
- Dez. 2021
- Beiträge
- 1.350
So traurig es ist, aber CD Project Red wird es im Falle von Witcher 3 wohl wie bei Cyberpunk 2077 handhaben: Raytracing wird allein für Nvidias RTX-Grafikkarten ins Spiel integriert und es wird überhaupt nicht auf AMD-Hardware Acht gegeben. Solange Spielefirmen sich von einem finanzstarken "Sponsor" (Nvidia) negativ beeinflussen lassen, solange wird es diese Ungerechtigkeit weiterhin geben. Leider.Sun-Berg schrieb:Du hast schon Recht. Mich stört vor Allem, dass es mit Sicherheit möglich wäre auch aus RT noch ein Stückweit mehr Performance rauszuholen, nur mit der Anpassung von ein paar Reglern.
Hier nur mal als Beispiel:
https://www.computerbase.de/forum/t...ommunity-zum-patch-4-02.2119499/post-27689653
Ich habe das gerade getestet und sehe erstmal keinen Unterschied. Aber sogar wenn es einen geben sollte, die 5-10 FPS ist das immerhin wert. Ich verstehe nicht weshalb Entwickler es nicht schaffen hier noch einen Regler einzubauen.
Ergänzung ()
Im Grunde genommen bräuchte es für alle Radeon-Besitzer genau diesen einen Regler im Grafikmenü, wo sich die RT-Qualität über die ganze Breite von "Niedrig" bis "Ultra" anpassen lässt. Aber wenn wie bereits erwähnt Nvidia seine Finger im Spiel hat, wird diese Möglichkeit in den allermeisten Fällen fehlen. Die einzige Ausnahme ist bisher, wie ebenfalls bereits von mir erwähnt, Metro Exodus EE. Anscheinend hat sich 4A Games hier nicht komplett in ihre Arbeit hineinreden lassen, wofür ich ihnen sehr dankbar bin. Denn sie geben den eindeutigen Beweis, dass bereits RDNA2 über eine grundsolide RT-Performance verfügt.
Übrigens: mit meiner RX 6900 XT erhalte ich im Benchmark von MEEE folgendes Ergebnis:
UWQHD (3440×1440), Grafikpreset Ultra mit Raytracing auf "Normal" + Reflexionen auf "Raytraced" --> 60+ FPS
Zuletzt bearbeitet:
Maine
Lt. Commander
- Registriert
- Jan. 2007
- Beiträge
- 1.953
metoer schrieb:Warum gibt es eigentlich dieses schöne Preis/Leistungs-Diagramm nicht mehr in den aktuellen Tests, weder bei Rdna 3 noch bei Ada Lovelace?
Das fand ich immer sehr nützlich um zu vergleichen zwischen den Klassen.
Ich habe dazu mal was gebastelt, vielleicht nicht so schön wie das Diagramm, aber besser als nix:
WQHD | ||||||||
GPU | UVP | Marktpreis | Rasterleistung (%) | Raytracingleistung (%) | P/L Raster UVP | P/L Raytracing UVP | P/L Raster Marktpreis | P/L Raytracing Marktpreis |
4090 | 1859 | 1959 | 99,7 | 99,2 | 0,054 | 0,053 | 0,051 | 0,051 |
4080 | 1399 | 1349 | 85,5 | 82,2 | 0,061 | 0,059 | 0,063 | 0,061 |
7900 XTX | 1149 | 1299 | 82,8 | 66,1 | 0,072 | 0,058 | 0,064 | 0,051 |
7900 XT | 1050 | 1019 | 73,9 | 58,9 | 0,070 | 0,056 | 0,073 | 0,058 |
3090 Ti | 1329 | 1392 | 70,5 | 68,5 | 0,053 | 0,052 | 0,051 | 0,049 |
3090 | 1549 | 1199 | 67,9 | 65,9 | 0,044 | 0,043 | 0,057 | 0,055 |
3080 Ti | 1089 | 1229 | 63,3 | 61,7 | 0,058 | 0,057 | 0,052 | 0,050 |
3080 10 GB | 719 | 830 | 57,9 | 56,1 | 0,081 | 0,078 | 0,070 | 0,068 |
6800 XT | 650 | 639 | 55,8 | 41,5 | 0,086 | 0,064 | 0,087 | 0,065 |
Erklärungen und Limitationen:
- Stand: 27.12.2022, 11:45 Uhr. Wir ihr alle wisst, kann sich das alles immer schnell ändern.
- das sind Leistungsprozent / Euro
- Sonderangebote oder Direktverkauf bei AMD habe ich aufgrund der (sehr) eingeschränkten Verfügbarkeit nicht gewertet
- Grundlage sind die Daten hier von CB aus dem Test der 7900 XT(X)
- Bei der 3090 ist es daher die TUF OC von Asus, die FE liegt halt 2-3 % darunter
- bei den Raytracingspielen sind viele dabei, deren RT nicht so anspruchsvoll ist. Nimmt man z.B. nur CP2077 als Grundlage, verschiebt sich das Ganze nochmal massiv in Richtung nVidia
- kein Anspruch auf Richtigkeit und Vollständigkeit, wenn Fehler auffallen, bitte mitteilen
Fazit:
- Bei Raster ist (von den neuen Karten) die 7900 XT Sieger, 7900 XTX und 4080 liegen gleichauf
- kommt Raytracing ins Spiel, ist die 4080 deutlich in Führung
- nimmt man die Vorgängergenerationen mit rein, sind 6800 XT und 3080 10 GB ungeschlagen, vor allem die 6800 XT in Rasterleistung
Zuletzt bearbeitet:
Tornavida
Rear Admiral
- Registriert
- Okt. 2020
- Beiträge
- 5.347
@Maine
Also so wie ich das interpretiere siehst du bzw. zeigt die Tabelle ,dass die 6800xt P/L all in all (P/L Markpreis Raster und RT zusammen) gemessen am Marktpreis der absolute Burner ist.
Da steht die 4090 mit 49% schlechterem P/L eigentlich gar nicht schlecht da und ich hätte eher mehr erwartet.
Nimmt man als weiteren Faktor den späteren Wiederverkaufswert in 2 Jahren mit in die Rechnung was natürlich extrem schwer ist weil wir nicht in die Zukunft sehen können , dürfte es unterm Strich noch ein wenig besser aussehen, da ich mal davon ausgehen würde ,dass eine 6800xt prozentual mehr einbüssen dürfte in 2 Jahren wenn ich die letzten 3 Gen als Grundlage nehme und noch weitere Karten neuester Gen nachrücken.
Wenn man dann unterm Strich bei 25-30% schlechterem P/L rauskäme finde ich das m.E. eigentlich recht ok dafür dass man in der Zeit ein Topprodukt statt der Langsamsten in der Tabelle aufgeführten Karten nutzen konnte. Für jemanden der in 4k zockt dürfte sich das Ganze nochmals anders darstellen abseits von reinen Zahlen und den Mehrwert in RL schwer widerspiegeln. Aber das ist nur meine Einschätzung und Meinung.
Edit: Zudem berücksichtigt die Tabelle nicht das CPU Limit unter WQHD.
Kurzum: Wie ich schon mehrmals anmerkte finde ich eine Kostenbetrachtung über die Nutzungszeit deutlich sinnvoller. Und da schneiden NV Karten nicht schlechter ab i.d.R. und bieten dabei das bessere Package. Letztendlich sind das genau diese Punkte, die mich als Endverbraucher interessieren und schwierig in so einem Diagramm oder einer Tabelle darstellbar sind und noch schwieriger als Grundlage für eine Diskussion herangezogen werden können, die zwangsläufig daraus entstehen können.
Also so wie ich das interpretiere siehst du bzw. zeigt die Tabelle ,dass die 6800xt P/L all in all (P/L Markpreis Raster und RT zusammen) gemessen am Marktpreis der absolute Burner ist.
Da steht die 4090 mit 49% schlechterem P/L eigentlich gar nicht schlecht da und ich hätte eher mehr erwartet.
Nimmt man als weiteren Faktor den späteren Wiederverkaufswert in 2 Jahren mit in die Rechnung was natürlich extrem schwer ist weil wir nicht in die Zukunft sehen können , dürfte es unterm Strich noch ein wenig besser aussehen, da ich mal davon ausgehen würde ,dass eine 6800xt prozentual mehr einbüssen dürfte in 2 Jahren wenn ich die letzten 3 Gen als Grundlage nehme und noch weitere Karten neuester Gen nachrücken.
Wenn man dann unterm Strich bei 25-30% schlechterem P/L rauskäme finde ich das m.E. eigentlich recht ok dafür dass man in der Zeit ein Topprodukt statt der Langsamsten in der Tabelle aufgeführten Karten nutzen konnte. Für jemanden der in 4k zockt dürfte sich das Ganze nochmals anders darstellen abseits von reinen Zahlen und den Mehrwert in RL schwer widerspiegeln. Aber das ist nur meine Einschätzung und Meinung.
Edit: Zudem berücksichtigt die Tabelle nicht das CPU Limit unter WQHD.
Kurzum: Wie ich schon mehrmals anmerkte finde ich eine Kostenbetrachtung über die Nutzungszeit deutlich sinnvoller. Und da schneiden NV Karten nicht schlechter ab i.d.R. und bieten dabei das bessere Package. Letztendlich sind das genau diese Punkte, die mich als Endverbraucher interessieren und schwierig in so einem Diagramm oder einer Tabelle darstellbar sind und noch schwieriger als Grundlage für eine Diskussion herangezogen werden können, die zwangsläufig daraus entstehen können.
Zuletzt bearbeitet:
Maine
Lt. Commander
- Registriert
- Jan. 2007
- Beiträge
- 1.953
4K mache ich, wenn ich mal bisschen Zeit habe ;-) Die Grundtabelle ist ja jetzt da (bzw. bei mir in Excel), da ist anpassen dann etwas einfacher. Und ja, die 6800 XT ist P/L-technisch bei Raster nach wie vor absoluter Spitzenreiter, wenn man bei Highendkarten unterwegs ist. Zukunftssicher ist natürlich was anderes, aber mit 16 GB RAM wird die noch ne ganze Weile gut mitspielen, wenn RT keine Rolle spielt.Tornavida schrieb:@Maine
Also so wie ich das interpretiere siehst du bzw. zeigt die Tabelle ,dass die 6800xt P/L all in all (P/L Markpreis Raster und RT zusammen) gemessen am Marktpreis der absolute Burner ist.
Da steht die 4090 mit 49% schlechterem P/L eigentlich gar nicht schlecht da und ich hätte eher mehr erwartet.
Nimmt man als weiteren Faktor den späteren Wiederverkaufswert in 2 Jahren mit in die Rechnung was natürlich extrem schwer ist weil wir nicht in die Zukunft sehen können , dürfte es unterm Strich noch ein wenig besser aussehen, da ich mal davon ausgehen würde ,dass eine 6800xt prozentual mehr einbüssen dürfte in 2 Jahren wenn ich die letzten 3 Gen als Grundlage nehme und noch weitere Karten neuester Gen nachrücken.
metoer
Lieutenant
- Registriert
- Juli 2015
- Beiträge
- 545
@Tornavida
Ich glaube du ziehst die falschen Schlüsse aus dieser Tabelle, es geht ja eher darum aufzuzeigen wie unverschämt teuer die ganzen neuen Karten sind und das obwohl die letzte Gen von der P/L her schon nicht der Burner war.
Selbst wenn die Leistung/€ gleich bleibt ist das schon grenzwertig meiner Meinung nach, weil du für jeden Frame mehr 1:1 mehr Geld hinlegen musst.
Die Leistung/€ ist aber sogar schlechter geworden, und das deutlich, bei allen bis jetzt erschienen Karten.
Für jemanden der das Beste will und Geld keine Rolle spielt macht eine 6800xt oder 3080 jetzt natürlich wenig Sinn, das ist klar.
Ich glaube du ziehst die falschen Schlüsse aus dieser Tabelle, es geht ja eher darum aufzuzeigen wie unverschämt teuer die ganzen neuen Karten sind und das obwohl die letzte Gen von der P/L her schon nicht der Burner war.
Selbst wenn die Leistung/€ gleich bleibt ist das schon grenzwertig meiner Meinung nach, weil du für jeden Frame mehr 1:1 mehr Geld hinlegen musst.
Die Leistung/€ ist aber sogar schlechter geworden, und das deutlich, bei allen bis jetzt erschienen Karten.
Für jemanden der das Beste will und Geld keine Rolle spielt macht eine 6800xt oder 3080 jetzt natürlich wenig Sinn, das ist klar.
Ähnliche Themen
- Antworten
- 322
- Aufrufe
- 47.121
- Antworten
- 157
- Aufrufe
- 33.948
- Antworten
- 159
- Aufrufe
- 43.370
- Antworten
- 198
- Aufrufe
- 63.412
- Antworten
- 131
- Aufrufe
- 31.400
F