F
foo_1337
Gast
Er hat nur nach DLSS gefragt, nicht nach DLSS+RT.Maggolos schrieb:Hier nochmal ein Beispiel dafür:
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Er hat nur nach DLSS gefragt, nicht nach DLSS+RT.Maggolos schrieb:Hier nochmal ein Beispiel dafür:
Zum Glück- Der Technologiestillstand der letzten Jahre in Sachen Grafik war ermüdend.XKing schrieb:AMD schneidet ordentlich ab, die Zukunft wird spannend das ist mal sicher.
Hype ist der falsche Ausdruck. Wir befinden uns in einem Technologiewechsel, der aufgrund des Grenzertrages diverser Rastereffekte hervorgerufen wird.XKing schrieb:Ich selber kann dem DLSS / Raytracing Hype (noch) nicht viel abgewinnen,
Das muss ja nicht passieren. Das schöne an Raytracing ist ja die Skalierung. Statt einem Ray/Sample per Pixel, macht man halt bei den stärkeren NVIDIA- Karten dann 2.XKing schrieb:die Spieleauswahl ist nach Jahren noch immer überschaulich und nun da die Next-Gen Konsolen am Start sind mit ausschließlich AMD Hardware würde es mich doch starkt wundern wenn man sich die extra Arbeit machen würde um Nvidias Raytracing exclusiv für eine PC-Version zu programmieren.
Hairworks ging nicht aufgrund der Technik an sich in die Hose (passiert leider sehr oft). Der Code ist auf Github open source.XKing schrieb:Die Geschichte zeigt dass dies immer in die Hose geht. (Nvidia Hairworks, Physx oder aber auch AMDs propietäre Lösungen, alle scheiterten und waren vernachlässigbare Randerscheinungen in gesponserten Titel à la Cyberpunk)
Da die Studios keinen großen Aufwand haben da irgendwas anzupassen (Schittstelle ist ja DXR oder Vulkan RT) und NVIDIA alles schluckt, wohingegen AMD nur mit Inline- Raytracing ernsthaft was anfangen kann, spielt das alles keine Rolle.XKing schrieb:Ich glaube die Mehrheit der Studios wird sich auf den gemeinsamen Nenner einigen, in diesem Fall AMD für alle Konsolenports.
Was meint ihr?
Botcruscher schrieb:Der Flugsimulator als Mahnung für miserable Entwicklung?
Pisaro schrieb:DLSS braucht natürlich auch mehr VRam
DLSS senkt denk VRAM-Verbrauch:Maggolos schrieb:Hier nochmal ein Beispiel dafür:
Cyberpunk 2077
Quelle: https://www.guru3d.com/articles_pages/cyberpunk_2077_pc_graphics_perf_benchmark_review,4.html
Der GTX 1070 wird automatisch zum Verhängnis, eine ungünstige Position zu haben. Die GTX 1060 ist ein must Have. Die GTX 1070 ist aber automatisch ziemlich nah dran an der GTX 1060, das ist schonmal nicht optimal. Da ergibt die GTX 1080 automatisch mehr Sinn. Die Alternative wäre es, alle 3 zu testen. Dann wird man irgendwann aber nie mehr fertig. Und irgendwann muss man sich von alten Grafikkarten nunmal verabschieden. Die GTX 1070 ist nun immerhin viereinhalb Jahre alt und 2 Karten sind von dieser Generation noch im Testfeld.Calypso26 schrieb:kurze Frage:
warum wurde getestet:
Aber keine 1070, die sicherlich eine der am häufigsten gekauften Grafikkarten der letzten Jahre sein dürfte?
Ergänzung ()
es geht ja nicht so sehr nur um die eigene, sondern eher um das Massenprodukt der letzten Jahre. Da sollte schon mal in sich gehen, warum wie welche Karte ausgewählt wurde und welche nicht.
So ist es. Sein Chart vergleicht native-non-rt mit dlss+rt. Dass das mehr vram braucht ist klar.S.Kara schrieb:DLSS senkt denk VRAM-Verbrauch:
Ansichtssache😉Fuchiii schrieb:Ob die 3090 ohne die NV-Titel noch weiter zurückfallen würde...
Das ist ein guter Testparkour, der diverse momentan angesagte Spiele thematisiert.
Wer das genauer wissen will, kann sich ja, genau deswegen, die Test der einzelnen Spiele anschauen, ein paar Zeilen tiefer.
Nein, weil die große Mehrheit Grafikkarten deshalb kauft, um schönere Grafik zu haben.downforze schrieb:Wenn die FPS selbst bei der dicksten NV um 40% absacken, ist das für die große Mehrheit wohl ein Grund Raytracing abzuschalten.
Das hat ja mit schlechter nichts zu tun.downforze schrieb:In der Grundschule wurde auch so argumentiert: "Aber die Lisa war doch noch viel schlechter als ich".
wär ja schonmal praktisch wenn Apple nicht 1/5 von der produktion von TSMC aufkaufen täte. AMD kauft dort nur 5-8% der produktion.vforce schrieb:Soll doch noch schlimmer werden. Außerdem kann es locker eine halbe Dekade dauern, bis neue Fabriken massenhaft Chips ausspucken.
Joar, leider kein Wort darüber, dass ihr vorher Zen 2 verwendet habt, was im CPU-Limit gegenüber einem 10900K stock 20% Leistung gekostet. Ganz zu schweigen davon, dass getunt zwischen Comet Lake und dem Zen 3 Vorgänger bis zu 30-40% liegen. Diesen immensen Leistungsunterschied habt ihr in Kauf genommen wegen PCIe Gen 4, was im Mittel vielleicht 1-2% ausmacht.Jan schrieb:Ja! Siehe @Wolfgang detaillierte Ausführungen vor, zwischen und nach den bunten Balken.
Darkblade08 schrieb:Bin gespannt wie AMDs Antwort auf DLSS aussehen wird. Die RT Leistung finde ich persöhnlich schon recht gut.
Deathangel008 schrieb:ich glaube das war auf den nutzen von SAM bezogen. das bringt in dem parcours in FHD deutlich mehr als in WQHD und erst recht UHD.
stevefrogs schrieb:Im Schnitt über den Testparcours drei Prozent in WQHD durch SAM dazugewonnen ist nicht viel. In UHD ist sogar gar kein Unterschied feststellbar. Meine Aussage bleibt also korrekt.
Fuchiii schrieb:Steamstatistik:
1920 x 1080 66.70%
2560 x 1440 7.47%
3840 x 2160 2.34%
Der User wird also wohl kein 4K nutzen, und hat somit in seiner Auflösung, die schnellste am MArkt erhältliche Karte.
Die 3090 ist also in ~2,5% aller Fälle schneller als eine 6900XT - und damit IST sie die schnellste Karte am Markt - zumindest für >97,5% aller User.
SAM. Wurde aber ja schon oft angesprochen.Pisaro schrieb:Aber ja, in kleineren Auflösung wendet sich das Blatt. Warum eigentlich? Beachtlich finde ich de RX 6900XT unter WQHD.
Dann warte mal auf den re-test mit rBAR bei den Nvidia KartenPhoenixxl schrieb:Super Test, vielen Dank.
Bisher dachte ich, dass die 3090 die beste Karte ist, egal was ist.