Test Battlefield V mit DXR: Update beschleunigt Raytracing massiv

Es gibt kein uninteressanteren Titel um Ray-Tracing zu demonstrieren.
Von dem abgesehen steckt das alles noch in Kinderschuhen. Ja es ist die Zukunft und Nvidia gibt den Anstoß dafür aber die Leistung ist noch nicht vorhanden. Ist eigentlich wie mit Tesselation damals. Da waren die ersten Karten auch völlig überfordert mit. Heute berechnen das Grafikkarten mal so nebenher...kein Problem. So wird es auch später mit Ray-Tracing aber nicht mit RTX.
 
Replay86 schrieb:
Es gibt kein uninteressanteren Titel um Ray-Tracing zu demonstrieren.
Von dem abgesehen steckt das alles noch in Kinderschuhen. Ja es ist die Zukunft und Nvidia gibt den Anstoß dafür aber die Leistung ist noch nicht vorhanden. Ist eigentlich wie mit Tesselation damals. Da waren die ersten Karten auch völlig überfordert mit. Heute berechnen das Grafikkarten mal so nebenher...kein Problem. So wird es auch später mit Ray-Tracing aber nicht mit RTX.
das bf5 der falsche titel ist stimmt, ob die karten zu schwach sind für hybrid raytracing wird sich noch zeigen. die erste implementierung bei bf5 zeigt doch aber das es selbst in dieser frühen form problemlos spielbar ist und einen grafischen mehrwert bietet.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Firesign schrieb:
4K benötigt ca. 4 x soviel Leistung als FullHD

1980 x 1080 = 2.138.400 Pixel
3840 x 2160 = 8.294.400 Pixel

= ca. 3,9 mal

Falsch!
Nur weil es 4x mehr Pixel sind, wird nicht 4x die Leistung benötigt.
Das liegt daran, dass nicht alles 4x berechnet werden muss.
Siehe Benches 1k vs 4k!
 
  • Gefällt mir
Reaktionen: SpamBot und Shoryuken94
@Replay86
Der Witz ist ja letztenendes, dass die Leistung eben schon vorhanden ist. Zumindest Hardwaretechnisch.
Die haben aber Softwareseitig noch so viele (für mich unverständlich) Baustellen, die verhindern, dass das Potenzial ordentlich abgerufen werden kann.

Wie gesagt- Wenn man die mögliche Leistung im Visual Studio simuliert, so kommt das schon hin, was NVIDIA da sagt. Nur ist es halt damit nicht getan. Die hätten ihre Hausaufgaben besser machen müssen und ein rundes Software- und Treiberpaket bereitstellen müssen, welches zumindest theoretisch in der Lage wäre, die volle Leistung abzurufen.
Das haben sie aber nicht und es ist außer bei Ankündigungen noch nichts weiter dabei rumgekommen.

Ich spiele grad Dreamfalls Chapters. Steampunk - Viele Spiegelungen und Lichtmalereien. Kein Shooter sondern ein Adventure. Bei sowas wäre es genial.
 
  • Gefällt mir
Reaktionen: Unnu
ich hoffe auch auf vernünftige implementierungen in singleplayerspielen die zeit zum grafik bewundern lassen.
 
Xes schrieb:
Selbst Pokemon hat eine Kompetitiv-Szene. ;)
Die deutlich größer als die von BF ist.
Was ich damit meinte ist, dass es keine großen bekannten Turniere mit riesigen Preisgeldern gibt. Sowas passiert höchstens innerhalb der Community. Battlefield ist einfach kein Spiel in dem es ne große Esports Szene gibt. Das wird größtenteils solo oder mit paar Freunden gedaddelt und nicht im großen Stil mit Clans.
 
@Fraggball

Wahrscheinlich wird das neue Metro Exodus da das erste Spiel, wobei die glaube ich Raytracing für die Beleuchtung einsetzen (was auch deutlich mehr bringt).

@Chillaholic Kein wunder bei dem Zustand, on dem die letzten Teile auf dem markt gekommen sind. Dazu haben sie immer wieder Balancing Probleme.

Zum anderen bieten sich auch die Spielmodi dafür nicht an. In BF3 die Squad Modi vielleicht, aber die waren auch nicht gut umgesetzt. Die relativ kurzen Releasezeiträume machen es nicht besser.

Wegen letzterem hat sich auch COD da nie so richtig durchgesetzt, wobei da das Spielprinzip es zumindest erlaubt hätte.
 
ZeroZerp schrieb:
@Unnu
Das ist auch etwas, wo ich auch nur den Kopf schütteln kann. Die haben einfach das Konstrukt nicht ordentlich kommuniziert und zudem ihre Software nicht so weit gebracht, dass man diese Funktionen alle überhaupt sauber nutzen kann.

Die Werkzeuge um die Shader zu entlasten, dass da deutlich mehr ginge, haben sie ja bereits entwickelt.

Fail, fail und nochmal fail. Dass die JETZT noch an irgendwelchen Treibern rumbauen, dass da überhaupt mehrere RT und standard Shaderoperationen parallel laufen können.... Da muss man sich echt am Kopf kratzen.

Und dass offenbar immer noch keine Bibliothek für das Denoising durch die Tensorcores existiert (ich hab bei denen schon mehrfach angefragt, wann die denn endlich fertig wird) eines der Hauptfeatures, die essenziell notwendig sind, um eben die Shader zu entlasten und mit wenig Strahlen ein gutes Ergebnis zu erhalten.... So bescheuert kann man doch eigentlich garnicht sein.

Als ob die NVIDIA Softwareentwickler selbst davon überrascht worden wären, dass die Karten, an denen NVIDIA ja schon seit zehn Jahren forscht, nun fertig sind.

Da hält man sich aber seitens NVIDIA sehr bedeckt, wenn man da entsprechende Fragen stellt.

Wenn Du mich fragst - Irgendwas ist da nicht ganz sauber gelaufen und läuft auch noch nicht sauber.
Vielleicht stellt sich jetzt im Nachhinein (aus was für gründen auch immer), dass das mit dem RT und den Tensor Cores bei bestehenden Engines dann doch nicht so richtig funktioniert.
Dann das wär doch der erste Gedanke, wenn ich "billig" einen großen Performancesprung machen will, dass ich die Shader vom Denoising befreie, was ja auch nicht zu knapp kostet und dafür eine extra dafür vorhandene, spezialisierte Einheit benutze, die das erstens tausendmal schneller kann und dazu noch in deutlich besserer Qualität...

Man weiss es nicht. Vielleicht gibts jetzt auch schon eine funktionierende Lösung, die dann im nächsten Patch nachgereicht wird. Einen Reim darauf machen, kann ich mir derzeit nicht und meine Anfragen verhallen im Nirvana :)

Hei heiii , zieh doch nicht so über NVidia her! ts tss tss...

Im Ernst.
Wieso kniest du dich eigentlich so tief rein? Jeder dritte Kommentar ist deiner, geschrieben hast du sicher schon ein Buch hier drin.

Es ist doch eine Tatsache, dass viele Dinge bei neuen Techniken falsch deklariert werden. Schon seit jeher muss man sicher ein Jahr warten bis jeder für sich in Fettnäpfchen getretten ist. Dann von alleine, ganz einfach und klar verständliche Lektüre überall im Internet auftaucht, die wirklich erklärt wie es funktioniert.
Das ganze für jedermann klar verständlich und verdaubar.

Du hast auch geschrieben RTX ist keine Erweiterung von DXR und andere Quellen haben mich genau darin bestätigt.
Es wird oft mehr interprettiert als tatsächlich verstanden. Denke, gehört zum Lernprozess.
 
ralf1848 schrieb:
Immer schön haten was ??? Dein Kommentar ist sowas von voll dummem Zeug, das sich die Balken biegen.

Aber deiner Signatur entsprechend ( AMD Fan ) wundert das nicht.
Können uns ja mal drüber unterhalten wie "oberpeinlich" der Vega Release waren, und der jetzige "Fine Wine" sind.

Kein einziges Wort das ich geschrieben habe ist dumm, sondern zu 100% die Wahrheit, da ich es aus dem Artikel entnommen habe. Einzig der Artikel ist dumm, dann habe ich auch dummes zititiert, dafür würde ich mich dann entschuldigen.

Ich fand den Vega Release nicht peinlich, nur den Ex-Angestellten bei AMD. Schlussendlich habe ich eine Vega im Rechner und bin sehr zufrieden damit.
 
  • Gefällt mir
Reaktionen: Pleasedontkill
Also die Schatten sehen ja echt gut aus, aber die Spiegelungen sind einfach völlig unrealistisch. Ich habe die letzte Zeit regelmäßig auf Spiegelungen im wahren Leben geachtet und konnte sie eigentlich so gut wie niegends finden. Man sieht einfach nicht in einem Autofenster wer hinter einen läuft.
 
  • Gefällt mir
Reaktionen: Orcon, Grundgütiger, styletunte und eine weitere Person
cruse schrieb:
grafik auf low hab ich auch mehr fps -> Ultra Einstellungen noch nicht reif für den markt !

Was ist das denn bitte für eine Antwort darauf, es ist ein Fakt das Raytracing einfach viel zu viel FPS frisst, das kannst du nicht mit low oder High settings vergleichen, da diese wiederrum gefühlt 100x mehr Auswirkungen auf die Grafik haben als Raytracing welches nur die Reflektionen "real" machen soll, wobei die nichtmal annähernd real aussehen.
 
  • Gefällt mir
Reaktionen: Pleasedontkill
Pure Existenz schrieb:
Falsch!
Nur weil es 4x mehr Pixel sind, wird nicht 4x die Leistung benötigt.
Das liegt daran, dass nicht alles 4x berechnet werden muss.
Siehe Benches 1k vs 4k!

An alle, ist jetzt ok Ihr habt Ihm die Eier abgerissen.

Es ist allen klar, Er hat fällschlicherweise 1980 anstatt 1920 geschrieben. Folglich auch falsch was Er an Pixel errechnet hat.
Dass es sich dann um genau 4x facher Rechenleistung handelt ist in der Wortwahl auch falsch. Sogar wenn die Parameter in der Rechnung stimmen würden, geht Rechenleistung über Pixelmänge hinaus.

Ist denke ich jedem, sogar dem Uhrverfasser klar.
Armen.
 
@LyGhT sollte auch eher ein Scherz sein. Ich erinnere mal an richtig alte Zeiten von ultima oder Wing Commander ("neuere" Beispiele wären Crysis)
Die Games waren auf damaliger Hardware nur schlecht lauffähig. Sollte man deswegen die Effekte komplett weglassen? Ich denke nein...

Ich z.b. schalte eh fast alles ab in bf5 und auch in nahezu allen anderen online shootern.
Ich erfreue mich aber trotzdem an neuen Sachen. Das raytracing erstmal Leistung frisst war sowieso klar, aber deswegen weglassen? - nee
Btw ich kann's sowieso nicht nutzen^^
 
  • Gefällt mir
Reaktionen: .Sentinel.
m.Kobold schrieb:
Habe vor mir eine 2080ti zu kaufen... und jetzt?
Mach doch! Wenn man bereit ist das nötige Kleingeld auszugeben ne super gpu.
 
  • Gefällt mir
Reaktionen: FCK-THIS
Pleasedontkill schrieb:
Ein sidegrade also , von 970 zu 580 !?? ...macht keinen Sinn.

Habe eine R9 390 und habe zur GTX1080 gewechselt. Ich glaube ich verkaufe diesen NV Scheiss. Zu wenig Performance gain und schlechtere Qualität.
ps: kann mir einer sagen warum das Bild immer so verdammt dunkel oder blaulastig ist!??

Und die "hippen" Bezeichnungen gehen mir allgemein auf den Sack: Troll, Fanboy.
Vorallem dieser verschissene Aluhut.
Nur für Idioten, zum diskreditieren anderer!

Das Problem scheint in deinem Fall eindeutig vor dem Bildschirm zu sitzen :rolleyes:
Dunkel und blaulastig soll das Bild sein und er meint es liegt an der Grafikkarte ...

Gortha schrieb:
Es ist ja nicht so, dass die Karten 2070 & Co. nicht auch so schnelle Karten wären ;)

Wenn das die streng religiösen Leute hier mal einsehen würden :rolleyes:

Hier wird immer so getan, als ob man um eine RTX zu kaufen unbedingt Raytracing nutzen müsste und diese sich ohne Raytracing überhaupt nicht verwenden lässt.

Dabei gibt es eine RTX 2070 aktuell zu den selben Preisen einer RX Vega 64 mit laut CB Performancerating 4% mehr Leistung @1440p. Das Raytracing Feature gibt es umsonst oben drauf, ob man es nutzt oder nicht ist völlig irrelevant. Oder war DX10.1 damals bei ATI auch ein Argument für euch? :rolleyes:
Ich habe mir die ATI 4990 damals aufgrund des besseren P-/L-Verhältnisses gekauft - und auch heute verfahre ich noch so.
Die GTX 1070 Ti und die RX Vega 56 liegen beide aktuell bei 389€:
https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/
Auch hier bietet die GTX 1070 Ti laut CB Performancerating 4% mehr Leistung @1440p.

Mit der RX580/590 bietet AMD aktuell im wichtigsten Markt ein unschlagbares Angebot, aber hier zu tun, als wäre AMD unter 500€ ohne Konkurrenz ist einfach nur eine Illusion.

Leute die nicht nach Farbe kaufen, kaufen die Grafikkarte mit dem besseren P-/L-Verhältnis. :smokin:

Mal ist es AMD, mal Nvidia. Im Highend Segment bietet AMD keine Konkurrenz, Diskussionen über den Preis überflüssig. Mir passt der Preis der RTX 2080 Ti auch nicht. Muss ich deshalb tagtäglich unter jeder Nvidia News heulen? Nein. Ich kaufe Sie einfach nicht, bis mir der Preis passt.
Aber bei den ganzen Nörglern zur RTX 2080 Ti besteht sowieso kein Kaufinteresse.
Mit einer RX580 / GTX 1060 in der Signatur steige ich ganz sicher nicht auf eine RTX 2080 Ti um, egal ob diese nun 700€ oder 1200€ kostet.

Eine RTX 2080 wird die selben Leute ansprechen, die nun an einer nicht mehr vorhandenen GTX 1080 Ti interessiert wären. Und nein, nicht jeder hat bereits eine GTX 1080 Ti. Manche haben eben erst jetzt den Betrag locker, da kauft man sich nun eben eine RTX 2080. Wer vernünftig sucht gibt aktuell keine 10€ mehr aus als die GTX 1080 Ti noch vor dem Abverkauf am 01.10.18 gekostet hat und bekommt etwas mehr Leistung. Kommt nicht wieder mit Final Fantasy, Ark oder sonstigem Kram für den sich kaum jemand interessiert und auf sämlichen Grafikkarten Probleme machen aufgrund der grottig komprimierten Texturen, selbst wenn bei den verwaschenen Texturen interessiert es keinen ob die Texturensettings nun bei „Ultra“ oder „Very High“ liegen. Wäre es ein wirklicher Grafikblockbuster, würde ich das Argument ja verstehen :rolleyes:

In 99% der aktuellen Spiele benötigt man @1440p nicht ansatzweise 8GB.

Habe selbst eine GTX 1080 Ti @1440p, bei maximalen Texturen benötigt kein aktuell relevantes Spiel mehr als +-7GB. Das sieht AMD wohl ähnlich, dort gibt es keine Grafikkarte mit mehr als 8GB, der Anreiz für Entwickler nur für die GTX 1080 Ti und RTX 2080 Ti extra schlecht komprimierte Texturen zu erstellen, dürfte sich in Grenzen halten. Schlecht optimierte Spiele wird es immer geben, AAA Titel sind davon üblicherweise nicht betroffen.

Die einzige Grafikkarte, die deutlich überteuert ist, ist die RTX 2080 Ti, dürfte aber von den Nörglern kein Prozent betreffen, mal davon abgesehen, dass sie zu dem Preis für Gamer (!) sowieso ein Nischenprodukt wie die in den letzten Generationen die ähnlich bepreisten Titans sein dürfte. Die aktuelle RTX Titan dürfte zu dem Preis für keinen Gamer mehr interessant sein, das ist wohl selbstverständlich.

Auf Navi und eine RTX 2060 dürfen wir nichtsdestotrotz gespannt sein. Konzentriert euch nicht immer auf den Markt, wo mit Abstand am wenigsten Grafikkarten verkauft werden, wenn eure Signatur doch ein ganz anderes Zielspektrum preisgibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha, IgnazMK, .Sentinel. und eine weitere Person
m.Kobold schrieb:
Habe vor mir eine 2080ti zu kaufen... und jetzt?
Dann kannst du es für dich testen und erneut bewerten. viel Spaß dabei. Wobei es dann ja für dich irgendwie Geldverschwendung ist 1200/1300 €, für eine Technik die du sehr gering schätzt, auszugeben. Da reicht im Grunde doch was du hast noch eine Weile.
 
Pleasedontkill schrieb:
Hei heiii , zieh doch nicht so über NVidia her! ts tss tss...

Im Ernst.
Wieso kniest du dich eigentlich so tief rein? Jeder dritte Kommentar ist deiner, geschrieben hast du sicher schon ein Buch hier drin.
Ist halt hier ne Community man lehrt und lernt. Wie vorhin so schön gesagt wurde, wofür ist so ein Forum sonst da?
Zudem gibt es ja immer wieder positive Erlebnisse, wo die User den Wolf, den man sich hier manchmal erklärt, dann doch zu schätzen wissen.

Aus was für einem Grund auch immer, kann ich es nicht ertragen, wenn man mitbekommt, dass sich eine Masse an Leuten auf das falsche Boot begibt, nur weil nicht einer mal dazwischengeschossen hat und sie drauf hingewiesen hat, dass es garnicht in die gewünschte Richtung segeln wird.
Zudem liebe ich einen vernünftig geführten technischen Diskurs, bei dem auch ich schon so manches gelernt hab.
Deswegen versuche ich in Threads, in denen Dinge behandelt werden, die mir wichtig sind, in genau diese Richtung zu schubsen.

Du hast auch geschrieben RTX ist keine Erweiterung von DXR und andere Quellen haben mich genau darin bestätigt.
Es wird oft mehr interprettiert als tatsächlich verstanden. Denke, gehört zum Lernprozess.
RTX ist ein Markenname, ein Technologiename oder Synonym, in welchen NVIDIA die in ihren Augen wichtigen und neuen Kerntechniken zusammenfassen.

DXR ist die allgemeingültige und für alle andockbare API, die den Treibern standardisierte Instruktionen übergibt.
Der Treiber von NVIDIA wiederum übersetzt die Instruktionen an die entsprechenden Schnittstellen der GPU die wiederum auf den RTX genannten Technologien bzw. dem Framework von NVIDIA basieren und die das ganze dann an die entsprechenden Hardware- Gewerke verteilen.

Genauso wie AMDs Treiber DXR Befehle annehmen können, die dann wiederum von deren eigenen Technologien verwurstet werden können (wenn zukünftig unterstützt)

Wäre es eine DXR Extension wäre RTX z.B. nicht auf OptiX oder Vulkan lauffähig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pleasedontkill, Esenel und FCK-THIS
SpamBot schrieb:
Also die Schatten sehen ja echt gut aus, aber die Spiegelungen sind einfach völlig unrealistisch. Ich habe die letzte Zeit regelmäßig auf Spiegelungen im wahren Leben geachtet und konnte sie eigentlich so gut wie niegends finden. Man sieht einfach nicht in einem Autofenster wer hinter einen läuft.

Absolut richtig. Genau das sollten alle tun, die sich mit Spiegelungen durch Raytracing auseinander setzen. In der Realtität, sind die meisten Spiegelungen schlecht, ungenau, diffuse, konvex oder konkav. Spiegelungen, die aussehen, als würden überall Spiegel auf dem Boden liegen, sind alles, nur nicht echt. Das sieht einfach nur absurd aus.

Aber dazu muss man im Reallife natürlich die Augen vom Smartphone nehmen, dass ist für den ein oder anderen sicher ungewohnt und nicht ohne Anstrengung überhaupt machbar.
 
  • Gefällt mir
Reaktionen: Unnu
Unnu schrieb:
Der wirkliche Spaß an der Sache ist ja, dass es jetzt tatsächlich schon im „Mainstream“ angekommen ist.
Ein bisl dauerts noch. Ein einziger Titel und wenigsten haben Geld für eine 500€ Grafikkarte. Für Mainstream müsste es sich der Preis mindestens noch halbieren.
https://store.steampowered.com/hwsurvey/videocard/
Da dürfte ohne AMD aber noch bisl Zeit ins Land gehen. Schon bekannt ob die 2060 und 2050 Raytracing unterstützen wird?
https://geizhals.de/?o=8
 
Zuletzt bearbeitet:
Zurück
Oben