• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Battlefield V mit DXR: Patch für Raytracing erscheint um den 15. November

ZeroZerp schrieb:
??? Also ich weiss zwar nicht, was passiert, wenn Du in Deiner Wohnung die Jalousien zuziehst, bei mir wird sie stockdunkel... Wo sollen denn die Bounces herkommen, wenn kein Licht mehr in den Raum kommt?
Bitte richtig lesen, ich schrieb "mit einem Fenster" -> da kommt das Licht her. Die Passivbeleuchtung ist falsch / unvollständig.
 
  • Gefällt mir
Reaktionen: MouseClick68 und Baal Netbeck
Ich hoffe RT wird super und läuft Butterweich selbst auf ner 2070.

Dürfte die Gebrauchtmarktsituation aufjedenfall nochmal verbessern :evillol:, ersten GTX 1080 gingen schon für unter €350 weg (mit Rechnung und Restgarantie wohlgemerkt!). €300 und ich schieß mir glaub ich auch eine, so muss ich Nvidia nix direkt in den Rachen werfen.

Propietären Nvidia scheiß brauch ich schonmal gar nicht muss ich sagen.
AMD hätte nicht nein gesagt zu nem offenen Standard der "RT Beschleunigung".
 
@ZeroZerp wie du siehst sitze ich im Fahrzeug also ja.
Es geht mir nicht um echte Spiegelungen sondern darum das es einfach "Pixelmatsch" ist, Spiegelung vorgaukeln funktioniert ja auch in anderen Spielen.

Bei den ZF´s haben sie es ja auch geschafft von BC2 bis BF V.
 
ZeroZerp schrieb:
Genau- Weil diese Effekte eben bereits niedrig aufgelöste RT effekte sind!
Nein es ist kein RT!
Das können die Konsolen gar nicht ohne Slideshow. Die Scene wird z.B. aus Sicht der Glasfläche neu berechnet....also für jede Fläche ein riesen Aufwand, aber es wird klassisch mit rasterisierung gearbeitet und nicht mit Ray tracing. Natürlich muss nicht alles berechnet werden sondern nur der Teil, der für die Perspektive des Spielers relevant ist.

Das kostet natürlich viel Leistung, aber GPUs sind so gut mit rasterisierung, das es scheinbar mit spielbaren FPS möglich ist.
 
Das Spiel lasse ich aus. Tja .. das EINZIGE SPIEL was die RTX nutzt spiele ich nicht.
Na dann brauche ich auch keine RTX2080Ti .. schade.
 
  • Gefällt mir
Reaktionen: itm
Enurian schrieb:
Bitte richtig lesen, ich schrieb "mit einem Fenster" -> da kommt das Licht her. Die Passivbeleuchtung ist falsch / unvollständig.
Im Spiel:

1541772154206.png


In echt:
https://www.photocase.de/fotos/8875...dunkel-fenster-zeit-raum-photocase-stock-foto

Sehe Deinen Punkt nicht...
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Und wie gesagt- Alle modernen Spiele nutzen Raytracing schon ab dem Level in dem ein Ambient Occlusion irgendeiner Art eingebaut ist. Und das ist bei fast allen Titeln der Fall.
Das wird zwar fast überall genutzt, aber nicht in Echtzeit berechnet. Das sind vorgerenderte qube Maps, die für Echtzeitanwendung wie spiele angewendet werden. Da ist im Grunde die "abdunklungsverteilung" gespeichert...in Echtzeit läuft da kein Ray tracing.
Ergänzung ()

Enurian schrieb:
Bitte richtig lesen,
Da hat er so seine Probleme....ich glaube er hat heute wieder seine Troll Phase;)
 
ZeroZerp schrieb:
Sehe Deinen Punkt nicht...

In deinem "in echt" Beispiel ist das Milchglas und zudem mit einer Kamera aufgenommen. Falls es dir noch nicht aufgefallen ist: Kameras haben es nicht so leicht mit hell und dunkel zugleich, weshalb es den ganzen HDR Kram gibt.
Zufällig sitze ich gerade in einem Zimmer mit einem Fenster und komischerweise ist (trotz sehr bedecktem Himmel) selbst in der hintersten Ecke alles erkennbar.
 
  • Gefällt mir
Reaktionen: Unbekannt89, GERmaximus, directNix und 4 andere
Baal Netbeck schrieb:
Das wird zwar fast überall genutzt, aber nicht in Echtzeit berechnet. Das sind vorgerenderte qube Maps, die für Echtzeitanwendung wie spiele angewendet werden. Da ist im Grunde die "abdunklungsverteilung" gespeichert...in Echtzeit läuft da kein Ray tracing.

Ambient Occlusion lässt Oberflächen realistischer erscheinen, indem es deren Umgebung in die Beleuchtungs berechnung mit einbezieht. In der Realität wird das Licht nicht nur von reflektierenden, sondern auch von auf den ersten Blick nicht reflektierenden Oberflächen zurückgeworfen. So erscheinen etwa Ecken und Falten von Objekten häufig dunkler, da die umgebenden Oberflächen diffuse Reflexionen abgeben und so die Engstellen abdunkeln. Ambient Occlusion bezieht solche Reflexionen mit in die Farbberechnung der Oberflächen ein und erreicht so eine realistischer wirkende Beleuchtung der 3D-Objekte. Meist werden dazu virtuelle Strahlen von der zu berechnenden Oberfläche ausgeschickt. Erreicht ein Strahl den Himmel oder Hintergrund der Spielszene, wird die Oberfläche heller dargestellt, blockieren Objekte in der Umgebung einen Strahl, verdunkelt sich die entsprechende Stelle.

Bitte mal ein bißchen in Sachen Rendertechniken fortbilden...

Da hat er so seine Probleme....ich glaube er hat heute wieder seine Troll Phase;)
Was soll das denn jetzt wieder? Schwacher Diskussionsstil....
 
EvilsTwin schrieb:
Echt jetzt?
Wer hat den schon mal eine 3D Szene z. Bspl. in Blender berechnen lassen?
Das ist aber ohne denoising, sondern so viele rays bist das Rauschen weg ist. Hier Echtzeit RT mit denoising in 100 FPS und das ist reines Raytracing ohne Texturen/Rasterisation etc. mit 3 Lichtquellen und 2 paths (rays?) pro pixel https://www.computerbase.de/forum/t...-den-15-november.1834732/page-2#post-21918232 mit 6 Gigarays geht da theor. schon was. "While ray budgets are likely to increase with GPU and CPU performance, they are unlikely to increase ten-thousand-fold in the near future, as required for convergence in path tracing."
 
Zuletzt bearbeitet:
15. November welchen Jahres?...

Taktisch ist nVidia schon klug.
Öffentlich verbreiten das 1080ti noch bis April 2019 produziert wird...
Klammheimlich einstellen und die Leute zum Kauf der 2080(ti) verleiten...

Naja,... Mal sehen wie es sich entwickelt.
Schönste aller Nachrichten wäre, wenn die brach liegende Leistung bei Vega, komischerweise bei Raytracing ihre Früchte tragen würde. Schneller als Ampere, äh Volta, äh Turing.
 
  • Gefällt mir
Reaktionen: hurcos
ZeroZerp schrieb:
Bitte mal ein bißchen in Sachen Rendertechniken fortbilden...


Was soll das denn jetzt wieder?
Schön Wikipedia zitiert....aber wenn du weiter unten liest, steht da das das nicht in Echtzeit in PC spielen machbar ist und daher vorab gerendert wird.

Und du gehst halt nur auf das ein, was du gerne lesen möchtest und nicht das was gemeint war...

Wird sich zeigen, was BFV dann an Performance liefert....so wie es bis jetzt gezeigt wurde bin ich da halt nicht mehr so zuversichtlich.
 
  • Gefällt mir
Reaktionen: GERmaximus und CMDCake
Enurian schrieb:
In deinem "in echt" Beispiel ist das Milchglas und zudem mit einer Kamera aufgenommen. Falls es dir noch nicht aufgefallen ist: Kameras haben es nicht so leicht mit hell und dunkel zugleich, weshalb es den ganzen HDR Kram gibt.
Zufällig sitze ich gerade in einem Zimmer mit einem Fenster und komischerweise ist (trotz sehr bedecktem Himmel) selbst in der hintersten Ecke alles erkennbar.
Das ist doch nur eine Frage, wie der Art- Director die Szene ausleuchten will.
Er kann ja die Intensität des Bounces erhöhen und schon hast Du den von Dir gewünschten Effekt.
Das hat aber weniger mit der Technik, als der Justage derer zu tun...
Ergänzung ()

Baal Netbeck schrieb:
Schön Wikipedia zitiert....aber wenn du weiter unten liest, steht da das das nicht in Echtzeit in PC spielen machbar ist und daher vorab gerendert wird.

Und du gehst halt nur auf das ein, was du gerne lesen möchtest und nicht das was gemeint war...

Wird sich zeigen, was BFV dann an Performance liefert....so wie es bis jetzt gezeigt wurde bin ich da halt nicht mehr so zuversichtlich.

Hast Du Dir schonmal einen AO Shader angesehen?
Oh - Baal, da fehlt es aber weit....

Dann versuch mal in einem aktuellen Spiel mit zerstörbaren oder beweglichen Objekten Dein "prebaked" Ambient Occlusion (das ist das, worauf Du anspielst) zu integrieren...

Hier mal ein Beispiel einer einfachen Methode, wie sie in ECHTZEIT schon vor langem eingesetzt wurde:
https://en.wikipedia.org/wiki/Screen_space_ambient_occlusion

For every pixel on the screen, the pixel shader samples the depth values around the current pixel and tries to compute the amount of occlusion from each of the sampled points. In its simplest implementation, the occlusion factor depends only on the depth difference between sampled point and current point.

So- Nach was hört sich das für Dich an...
Sogar das "Denoising" wird wie bei RT durchgeführt.
 
Zuletzt bearbeitet:
Können Entwickler die zusätzlichen cores der neuen Karten auch für andere Bereiche verwenden?
 
EMkaEL schrieb:
ich frage mich, was die getestet haben, wenn der RTX patch erst später veröffentlicht wird?
Lies halt was im Artikel steht :rolleyes:

Offenlegung: Golem.de hat auf Einladung von Electronic Arts an einer mehrtätigen Testveranstaltung in Stockholm teilgenommen, die Reisekosten wurden zur Gänze von dem Publisher bezahlt. Anschließend haben wir außerdem in der Redaktion Zugriff auf die PC-Version erhalten, bei der wir allerdings wegen der noch nicht öffentlich erreichbaren Server nur die Kampagne spielen konnten.
 
  • Gefällt mir
Reaktionen: GERmaximus und MouseClick68
StefVR schrieb:
Gibt doch schon 100 Sachen, die einem. Vorteile bringen: high refresh monitore, schnellle maeuse, ultrawide, niedriger ping etc...

Dein Vergleich hinkt. Keine dieser Optionen ist abhängig von einem Hersteller/Anbieter, den der Spieleentwickler/Publisher vorgibt.
 
  • Gefällt mir
Reaktionen: CMDCake und GERmaximus
ZeroZerp schrieb:
Das ist doch nur eine Frage, wie der Art- Director die Szene ausleuchten will.
Er kann ja die Intensität des Bounces erhöhen und schon hast Du den von Dir gewünschten Effekt.
Das hat aber weniger mit der Technik, als der Justage derer zu tun...
Beliebig wird man das aber nicht intensivieren können. Man braucht ja jetz schon zwingend das Denoising und es reicht nichtmal wenn ich mir da so ein paar rauschende Ecken angucke.
Man bräuchte mehr Rays als die zwei, die im Moment in Metro genutzt werden. Eventuell wird das möglich, wenn sie weiter optimieren...da will ich mich nicht aus dem Fenster lehnen. Aber so wie es jetzt ist sind es nicht genug Rays.
----------
Auf meine Aussage hin, dass ambient occlusion nicht in Echtzeit gemacht wird:
ZeroZerp schrieb:
Hast Du Dir schonmal einen AO Shader angesehen?
Oh - Baal, da fehlt es aber weit....

Dann versuch mal in einem aktuellen Spiel mit zerstörbaren oder beweglichen Objekten Dein "prebaked" Ambient Occlusion (das ist das, worauf Du anspielst) zu integrieren...

Hier mal ein Beispiel einer einfachen Methode, wie sie in ECHTZEIT schon vor langem eingesetzt wurde:
https://en.wikipedia.org/wiki/Screen_space_ambient_occlusion

So- Nach was hört sich das für Dich an...
Sogar das "Denoising" wird wie bei RT durchgeführt.
Du redest erst von ambient occlusion und fängst dann mit Screen_space_ambient_occlusion an.
Ich zitiere mal den ersten Satz aus deinem velinkten Wiki Artikel:
"Screen space ambient occlusion (SSAO) is a computer graphics technique for efficiently approximating the ambient occlusion effect in real time. "
approximating ist hier das wichtige Wort. Es wird nicht mehr Rays gearbeitet, sondern nur noch mit den Tiefeninformationen der Szene.....die kennt die GPU schon aus den Positionen der Objekte.
"Without additional smart solutions, such a brute force method would require about 200 texture reads per pixel for good visual quality. This is not acceptable for real-time rendering on current graphics hardware. In order to get high quality results with far fewer reads, sampling is performed using a randomly rotated kernel. The kernel orientation is repeated every N screen pixels in order to have only high-frequency noise in the final picture. In the end this high frequency noise is greatly removed by a NxN post-process blurring step taking into account depth discontinuities (using methods such as comparing adjacent normals and depths). Such a solution allows a reduction in the number of depth samples per pixel to about 16 or fewer while maintaining a high quality result, and allows the use of SSAO in soft real-time applications like computer games. "
Einiges davon findet sich natürlich auch in RT wieder, aber deshalb massive Vorteile durch RT und Tensor cores zu prophezeien ist doch arg weit hergeholt.
Das könnte ja nur maximal so viel bringen, wie SSAO im Moment an Leistung kostet...ein paar % bei den high end Karten.
 
ZeroZerp schrieb:
Hast Du in irgendeinem anderen Spiel bei einem "Static Object" schonmal "echte" Spiegelungen gesehen
Keine echten, aber immerhin eindeutige Spiegelungen der anderen spielbaren Objekte (Flugzeuge) und sehr ungenaue der Landschaften in Flugsimulatoren. Die Flugzeuge haben Rückspiegel, in denen man etwas sehen kann. Wenn Battlefield das nicht hinbekommt ist es traurig. RTX kann das wohl.
 
  • Gefällt mir
Reaktionen: GERmaximus und Zitterrochen
freshprince2002 schrieb:
Die RTX Reflexionen sehen schon schick aus aber deswegen
1. kaufe ich mir keine RTX 2080Ti, die das wahrscheinlich als einzige halbwegs flüssig rendern kann
2. installiere ich mir kein Wndows 10
Ich freu mich trotzdem aufs Spiel.

Ich weiß nicht wie es bei BF5 aussieht, aber BF4 war unter Win7 schon auf sechs Threads begrenzt und lief unter 8.1 deutlich besser. Das mag jetzt bei Deinem 2600K noch nicht die große Rolle spielen, aber ab 6C/12T liegt dann Leistung brach.
 
  • Gefällt mir
Reaktionen: psYcho-edgE
Zurück
Oben