News DXR: Die Unreal Engine unterstützt jetzt Raytracing

Inxession schrieb:
Sei dir dessen nicht so sicher. Ich denke durch den iO Hub steigen die Latenzen und Zen2 wird kaum bis wenig an Mehrleistung im SingleCore Bereich haben.
Ich sehe AMD mit günstigen und stromsparenden 7nm CPUs gegen Intels alte, teuer herzustellenen monolythischen 12nm++++ Käse im 4. Refresh antreten. Ich sehe bei Intel realistisch keine 10nm für den Mainstream vor 2020. Intel wird zwangsläufig unattraktiver und sofern die IPC/der Takt bei Zen2 stimmt gibt es einen Umschwung. Aber bis dahin warten wir ab, mein Kaby schlägt sich bisher noch ganz gut. Freiwillig werd ich aber nicht wieder auf Intel setzen, sofern ich ne Wahl habe. :D

Schafft AMD mit Zen2 die Performance eines Intels @4.5Ghz sind sie da wo sie hinwollen.
 
Das Video sieht schon ganz nett aus aber die FPS Anzeige rechts stört mich ein wenig. Im Durchschnitt sind es nur 30fps und das wahrscheinlich auf einem Highend Rechner ;)
 
Du solltest das Zitat nicht aus dem Kontext schneiden.
So soll zukünftige Hardware Raytracing unterstützen, gleichzeitig aber auch mit Softwarefirmen zusammengearbeitet werden, „denn die Hardware nutze nichts, wenn die andere Seite nicht bereit dafür ist“ erklärte AMD-CEO Lisa Su.

DXR ist da, also wird die die Xbox Two definitiv Raytracing unterstützen? Die "andere Seite" ist in diesem Fall schon lange dafür bereit.

Was Sony macht ist mir hingegen ehrlich gesagt egal, sie hätten die eigene API schon längst begraben sollen und mit der PS5 auf Vulkan setzen.... Tun sie aber anscheinend nicht, wobei Vulkan leider auch nicht einmal ansatzweise eine RT API besitzt, sondern derzeit nur Nvidia eigenen Erweiterungen.

EDIT:
Ich gehe übrigens fest davon aus, dass die kommenden Konsolen mit RT Unterstützung auf den Markt kommen werden, in welchen Umfang das allerdings mit der Hardware möglich sein wird, steht noch völlig in den Sternen.
 
Zuletzt bearbeitet:
Chillaholic schrieb:
Wenn es vor 2020 nen Titel mit RTX auf UE4 gibt fress ich nen Besen.
99% der Games sind low Budget Produktionen, mal von wenigen Titeln abgesehen die im Nachhinein Kohle mit ihrem Spiel gemacht haben. Solange Nvidia denen da nicht Entwickler abstellt für RTX und DX12 wird da nix passieren.
vermutlich Gears 5 Ende 2019. Aber noch nicht bestätigt. siehe mein Post am Anfang
 
EcOnOmiC schrieb:
vermutlich Gears 5 Ende 2019
Na hoffentlich wird das verschoben, will keinen Besen fressen. :D
Wundert mich, dass Microsoft als Publisher auf die UE4 setzt und war mir neu.
 
ciapal schrieb:
Cryengine sieht zwar grandios aus aber die Hardwareanforderungen sind wie ich finde extrem !
Eine GTX1080 kann so gerade mal 60FPS in FullHD halten.

Anhang anzeigen 752515
Anhang anzeigen 752516

Ist das Beispiel dein Ernst jetzt ? Ein 6 Jahre altes Spiel ? Nimm doch mal ein neueres Spiel mit Cryengine, Prey 2017 z.B., das läuft auf allen Karten wesentlich performanter mit fast den doppelten FPS.
Mal ganz davon abgesehen, dass das Ganze off topic ist.

AMD hat leider nichts, kein Physx, kein Raytracing, keine HBAO+ bits, keine AA-bits etc !

Du lässt echt keine Gelegenheit aus um AMD zu bashen, hast du dich nur aus dem Grund hier angemeldet ? Und dann auch noch mit Halbwissen.

AMD Karten können kein Physx und kein Raytracing, aber sehr wohl HBAO und HBAO+ und das nicht erst seit gestern. Mal davon abgesehen gibt es andere Features die bei AMD auf der Habenseite stehen. Unter HDR performen die AMD Karten z.B. um einiges besser als die NV Pedants.

@ Topic : Ist doch ne feine Sache wenn Raytracing nach und nach Einzug erhält. Jetzt fehlen nur noch bezahlbare Hardwarelösungen die das Ganze bei ansprechenden FPS wiedergeben können. Ich denke mal das wir in 2-3 Jahren soweit sind, dass Raytracing auch in der Mittelklasse performant genutzt werden kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bhaal3010 und Volkimann
Ich werde 2019 noch nicht auf den DXR Zug aufspringen und geduldig warten bis Arcturus/Nvidia Next Gen. Aber schön zu sehen, dass es weiter geht.
 
Demo sieht wirklich gut aus aber ich musste doch ein wenig schmunzeln. :)

So glänzende Rüstung obwohl man jeden Tag durch Schlamm und Sand robbt?

Ein Obermacker der eine Langwaffe herumschleppt? Haben die nicht nur einen Generalstab mit dem sie in Stoßrichtung zeigen?

Die Gewehre sehen alles andere als futuristisch aus. Eher ein aufgemotztes M4...
 
Meine güte ist es anstrengend hier die Kommentare zu lesen, wieso muss immer direkt hier nen Kampf zwischen AMD und Nvidia Anhänger ausbrechen anstatt sich über die Technik und die Möglichkeiten zu unterhalten?
Dachte wir sind hier in nen Technik Forum wo wir uns über jeden Fortschritt freuen...

Ich für mein Teile freu mich enorm auf RTGI und erst recht darauf dass man nicht mehr die ganzen Reflexionen faken muss, was nen scheiß Aufwand ist verdammt stark limitiert ist was man auch in jeden Game erkennen kann
 
  • Gefällt mir
Reaktionen: icetom und DeadEternity
DeadEternity schrieb:
Ist das Beispiel dein Ernst jetzt ? Ein 6 Jahre altes Spiel ? Nimm doch mal ein neueres Spiel mit Cryengine, Prey 2017 z.B., das läuft auf allen Karten wesentlich performanter mit fast den doppelten FPS.

Vergleiche doch erstmal die Grafik ein wenig, fällt dir nichts auf ?
Prey sieht nicht halb so gut aus wie Crysis 3 !

DeadEternity schrieb:
AMD Karten können kein Physx und kein Raytracing, aber sehr wohl HBAO und HBAO+ und das nicht erst seit gestern. Mal davon abgesehen gibt es andere Features die bei AMD auf der Habenseite stehen.
Nur in Spielen die HBAO+ von haus aus unterstützen !

Bei NV kann man dagegen per Inspector problemlos HBAO+ in so gut wie allen älteren titeln problemlos aktivieren.

https://forums.guru3d.com/threads/hbao-compatibility-flags-thread.387114/
https://docs.google.com/spreadsheets/d/1sq0vgFlerS-YT093TS2jEpx6xjZP7X1x1BcAs7EHXYY/edit#gid=0

oder MSAA/SSAA/SGSSAA
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=490867

Diese funktionenen/features gibt es bei AMD leider nicht !

Ein beispiel (HBAO+ - F.E.A.R)

NO HBAO+
http://i.picpar.com/xMhb.png

0x00000023 (Bit)
http://i.picpar.com/pMhb.png

0x00000008 (Bit)
http://i.picpar.com/BMhb.png
 
Zuletzt bearbeitet:
ciapal schrieb:
Vergleiche doch erstmal die Grafik ein wenig, fällt dir nichts auf ?
Prey sieht nicht halb so gut aus wie Crysis 3 !

Auch wenn ich zustimme, dass der Bench von Crysis 3 hinfällig ist, da uralt, die o.g. Zitate stammen nicht von mir.
Keine Ahnung warum du sie mir zuschreibst.
 
  • Gefällt mir
Reaktionen: DeadEternity
ciapal schrieb:
Vergleiche doch erstmal die Grafik ein wenig, fällt dir nichts auf ?
Prey sieht nicht halb so gut aus wie Crysis 3 !

Ja, aber es sieht jetzt auch nicht so schlecht aus. Dennoch wurde Cryengine bis dato durchaus optimiert und angepasst, deshalb kann man IMHO solche alten Benchmarks nicht mehr dafür hernehmen.


oder MSAA/SSAA/SGSSAA
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=490867

Diese funktionenen/features gibt es nicht bei AMD !

Das stimmt so nicht, kann man im Treiber einstellen, sogar je Spiel/Anwendung.

https://www.amd.com/de/support/kb/faq/dh-012


Mit HBAO+ magst du allerdings Recht haben, dass es vom Spiel unterstützt werden muss. Aber dafür gibt es halt z.B. Freesync2 mit HDR als Feature, was auch ne sehr geile Sache ist und super aussieht. Dazu braucht es aber dann auch nen entsprechenden Monitor.
 
Zuletzt bearbeitet:
Immerhin geht es in die richtige Richtung. mehr Engines unterstützen Raytracing, dann sollten mittelfristig weitere Spiele das nutzen können. Wenn der Turing Nachfolger kommt, sollte es genug Spiele geben und genug Rechenleistung. Vielleicht gibt es dann auch eine neue GPU bei mir^^
 
DeadEternity schrieb:
Das stimmt halt so nicht, kann man im Treiber einstellen, sogar je Spiel/Anwendung.

https://www.amd.com/de/support/kb/faq/dh-012

Die Treibereinstellungen greifen aber so gut wie nie bzw. der treiber übernimmt die Einstellungen nicht, weder bei AMD noch bei NV !
Du kannst ohne bits kein MSAA/SGSSAA erzwingen in 99% aller titel !

Das fuktioniert wie bereits erwähnt nur bei NVIDIA, deswegen gibt es solche threads

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=490867
https://forums.guru3d.com/threads/nvidia-anti-aliasing-guide-updated.357956/
 
Haste ne Quelle für deine Behauptungen ? (das es sich bei AMD Karten nicht über den Treiber forcen lässt). Deine zwei Links beschäftigen sich nur damit wie man das bei NV Karten erzwingt, offenbar funktioniert es dort nicht.
Deine Aussage, dass AMD Karten kein MSAA/SSAA usw. können ist aber trotz allem schlichtweg falsch. Ich weiß nur das man für forced AA und z.B. Freesync immer Fullscreen eingestellt haben muss, unter borderless oder windowed funktioniert es nicht, das ist aber bekannt.
 
Chillaholic schrieb:
Witzig, AMD waren die ersten die Async Compute konnen, das war schon 2012 zur Einfühung der 7970 Ghz Edition. Wann ist Nvidia nachgerückt?

Nvidia seit 2011, denn das läuft selbst auf Fermi. Haben wir Probleme mit dem technischen Verständnis einer API oder/und mit der Wahrheit?
Ergänzung ()

DocWindows schrieb:
Async Compute wird dann unterstützt wenn die treiberseitige API meldet, dass sie es unterstützt.
Korrekt.:daumen:
 
kisser schrieb:
Nvidia seit 2011, denn das läuft selbst auf Fermi. Haben wir Probleme mit dem technischen Verständnis einer API oder/und mit der Wahrheit?
Ich spezifizier mich noch mal auf HARDWARESEITIGES ASYNC COMPUTE damit es auch der einfältigste User hier richtig versteht. Die erste Generation von Nvidia mit hardwareseitigen Async Compute welches nicht emuliert wurde war Pascal. Denn emuliertes Async Compute bringt einfach mal gar nichts ausser Leistungsverlust.
 
Shio schrieb:
Zu Beginn? RT gibts schon länger als Physx.

Wir reden hier von Umsetzungen in Hardware, die das ganze erst echtzeit-fähig machen.
Ergänzung ()

Chillaholic schrieb:
Ich spezifizier mich noch mal auf HARDWARESEITIGES ASYNC COMPUTE

Sowas gibt es gar nicht. Solange du nicht weißt, was eine API ist, ist hier jede Diskussion überflüssig.
 
Zurück
Oben