News AMD Radeon RX 6800 XT: Hersteller-Benchmarks zeigen Leistung mit Raytracing

Status
Für weitere Antworten geschlossen.
Pilstrinker schrieb:
DLSS reduziert die Bildqualität, und zwar ohne Wenn und Aber.

Ja und Trump hat auch die Wahl gewonnen... Nichts gegen deine Meinung, die Fakten sehen anders aus. Vielleicht gehen durch die reduzierte berechnete Auflösung Details verloren, die "Bildqualität" muss darunter jedoch in keinster Weise leiden.
 
  • Gefällt mir
Reaktionen: MiniM3 und foo_1337
Vielleicht solltest du von Pils auf Weißbier umsteigen ;)
 
  • Gefällt mir
Reaktionen: Marc53844, KlaraElfer, MiniM3 und eine weitere Person
Hm, ein FPS-Schub bei gleichzeitiger Verbesserung der BQ.

Wer daran glaubt, glaubt auch an den Weihnachtsmann.
 
  • Gefällt mir
Reaktionen: DonJDM, MeisterOek, PulsarS und 2 andere
Ich habe ihm Vergleichsbilder gezeigt und trotzdem ist er stur wie ein Bock :confused_alt:
 
  • Gefällt mir
Reaktionen: FilDeR und foo_1337
@Pilstrinker

Kann nur jemand behaupten, der absolut keine Ahnung von der Technik dahinter hat, was bei dir offensichtlich der Fall ist. Melde dich gerne wieder, sobald du dich schlau gemacht hast.

Fanboytum in allen Ehren, man muss auch mal anerkennen können, wenn einer etwas besser kann als der andere. In dem Fall NV. Gibt auch Dinge, die AMD besser kann. Ich weiß, Hexerei und so. Ist alles ein Lernprozess.
 
  • Gefällt mir
Reaktionen: stevefrogs, owned139 und foo_1337
Schön wenn es so kommt. Aber ich glaube das nicht. Wenn die Karten in Benchmarks ohne RT ähnlich schnell sind wie NVIDIA dann kann die RT Leistung ohne speziell dafür konzipierte zusatzliche Kerne nicht ähnlich schnell sein.
 
Bei Metro komme ich mit meiner 3090 (UV@1935-1950 Mhz) und denselben Settings auf 77 FPS und mit DLSS fast auf 90 FPS...
 
Die Technik dahinter ist mir sehr wohl bekannt, und daher kann ruhigen Gewissens bei meiner Aussage bleiben.

Im Übrigen liegt Schönheit natürlich im Auge des Betrachters.

Für mich ist nativ immer noch das Maß aller Dinge.
 
  • Gefällt mir
Reaktionen: DonJDM
Na klar, DLSS bietet eine unglaubliche Verbesserung der BQ, dazu viel höhere FPS, und das alles natürlich kostenlos. Im Gegenteil: man bekommt mehr heraus, als man reinsteckt.

Das ist wirklich zu schön, um wahr zu sein.
 
Dafür dass AMD gerade erst ins Raytracing eingestiegen ist, klingt dass doch super gut. Ich hab mit viel schlechteren Werten/unspielbaren FPS gerechnet.
 
  • Gefällt mir
Reaktionen: elvis2k1
Wenn es gut umgesetzt wurde, dann ist die BQ besser und wenn es mies umgesetzt wurde dann nicht...
 
  • Gefällt mir
Reaktionen: stevefrogs
Bitte lasst doch endlich mal diese andauernde DLSS Diskussion.

DLSS ist eine tolle Technik, welche weiterentwicklet werden sollte, denn letzendlich nutzt es allen, wenn auch AMD und Co dort Wissen reinsteckt und freie Standards entwickelt.

Jedoch ist es auch kein Allheilmittel und es wird sich zeigen wie alle Effekte und Features - auch Raytracing - mit der intelligenten Skalierung umgehen können. Da muss hier und da noch ein bisschen gearbeitet werden.
Man hat es in Tests gesehen, dass Watch Dogs bei manchen Szenen nicht alles so darstellen konnte wie in nativer Auflösung mit RT. Gibt glaub ich sogar ein Test auf CB dazu.

Ich kann auch die Leute verstehen, welche nativ gerne bevorzugen.
Geht mir aktuell auch noch so, aber ich lasse mich gerne von DLSS und ähnlichen Technologien überraschen und verfolge dies mit großem Interesse, bzw. hoffe dass ich da mit AMD ähnliche Technologien nutzen kann.

Ich gehe davon aus, dass DLSS/AMDs Alternative als auch Raytracing in den kommenden Jahren in irgendeiner Art und Weise ihrer Daseinsberechtigung haben und ggf. sogar zum (optionalen) Standard werden können.

Lasst uns nun weiter beim Thema RT und der 6800er Karten bleiben.
 
  • Gefällt mir
Reaktionen: eldübel, Strubbel99, JPsy und eine weitere Person
mc_ace schrieb:
Man hat es in Tests gesehen, dass Watch Dogs bei manchen Szenen nicht alles so darstellen konnte wie in nativer Auflösung mit RT.

Was will man von Ubisoft auch erwarten, die bringen seit Jahren nur noch Schrott auf den Markt.
 
  • Gefällt mir
Reaktionen: ReVan1199 und foo_1337
riOrizOr schrieb:
Kein direkter Bench aber mal was für die Ohren ...
Naja, bei der Qualität und den Hintergrundgeräuschen ist das ziemlich nutzlos.

Außerdem: Open Bench Table mit 2 Minuten Last, da drehen die meisten GPUS einige hundert RPM niedriger als nach ordentlicher Aufwärmphase im Case.
 
daknoll schrieb:
Vergiss den DLSS Strohalm von NV, das ist propietäres Zeugs das sich auf lange Sicht nicht durchsetzen kann und wird. Niemand braucht das. Und Raytracing wird sich über die Jahre langsam verbreiten, es ist in den derzeitigen Implementationen ein grafisches Gimmick, mehr nicht.

sorry aber sowas kann doch nur von einem verbissenen Fanboy kommen?!
DLSS ist das wohl genialste Feature neben Raytracing, wenn nicht allgemein noch viel wichtiger, da sind sich die Fachpresse/Entwickler/Spieler einig.
Aus zb. einer Einstiegs-GPU eine Mittelklasse Leistung zu machen und dann in der Optik auch keine Abstriche sondern eher eine Aufwertung, dass muss man erstmal schaffen.
Dlss ist ein Killerfeature was derzeit andere (MS/AMD) erstmal versuchen zu erreichen.
Und wenn ich das richtig im Kopf habe muss DLSS 2 einfach nur wie jede andere Kantenglättung implementiert werden, ohne das es unnötig schwer ist.

Mal so das Watch Dogs Legion Series X Digital Foundry Video als Bsp; eine 2060 super performt allgemein besser mit nativer 4k und Raytracing als die überhypte neue "spitzen" Konsole, OHNE Dlss. Da sagt selbst Digital Foundry aber würde man jetzt noch DLSS aktivieren, könnte man das zudem noch ein ordentliches Level darüber hieven.
 
  • Gefällt mir
Reaktionen: stevefrogs, KlaraElfer und foo_1337
Pilstrinker schrieb:
Na klar, DLSS bietet eine unglaubliche Verbesserung der BQ, dazu viel höhere FPS, und das alles natürlich kostenlos. Im Gegenteil: man bekommt mehr heraus, als man reinsteckt.

Das ist wirklich zu schön, um wahr zu sein.
Du checkst halt nicht, wie Machine Learning funktioniert.
Nvidia hat ne Renderfarm, welche mit 16K Bildern gefüttert und angelernt wird, damit der Algorithmus im Treiber weiß, wie das Bild ungefähr auszusehen hat. Das Bild wird also hochskaliert und gleichzeitit rekonstruiert.
Da die Software weiß, wie das Bild auszusehen hat, können auch Details sichtbar gemacht werden, welche durch die niedrigen Auflösung nicht mehr erkennbar wären.
 
  • Gefällt mir
Reaktionen: domian, FilDeR, Buggi85 und eine weitere Person
Glaub mal ja nicht, dass ich das nicht checke.

Du bringst ja selbst meinen wesentlichen Kritikpunkt in deinen Beitrag hinein:

Nvidia hat ne Renderfarm, welche mit 16K Bildern gefüttert und angelernt wird, damit der Algorithmus im Treiber weiß, wie das Bild ungefähr auszusehen hat.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben