• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Battlefield V: Weniger Raytracing für mehr Leistung auf GeForce RTX

Vitec schrieb:
Aber damals waren die high end karten grad mal mit rund 30fps in 1680x1050 ohne AA ,AF unterwegs (gtx 280).

Quatsch. Meine XFX 8800 GTX hat in 1920x1200 ~30 FPS auf High gebracht. Die 285 SSC war auf Very High in 1200p ebenfalls auf ~30 FPS.
 
Kommt wohl auf die szene an .Ich hab einfach mal den PCgames hardware benchmarkvergleich genommen mit der 285er gtx.
Aber bei THG wenn du noch eine andere Quelle willst, falls PCGH für dich zu "casual ist" wurden in Warhead mit 1200p mit ner single GTX 280 in 1200p 22 fps erreich in deren Szene.

BF 5 in high, wenn den RT an die presets gebunden ist und nur bei ultra Verwendung findet, dürfte wohl locker 4k @ 60fps anzeigen können bei der 2080Ti.
 
v_ossi schrieb:
[...]
Es ist mir bloß etwas zu kurz gedacht, NVidias Vorgehen ohne Berücksichtigung der Fortschritte in der Fertigung einfach als gottgegeben hinzunehmen. Sonst hätte man ja bei jedem Shrink bisher ein ähnliches Vorgehen rechtfertigen können, auch wenn es einfach ein Teil des Marktes ist, das bestehende Fertigungen billiger werden und damit größere Chips machbar sind.

ja, aber genausogut darf man nicht so tun als ob eine fertigung nach 16 monaten ausgelutscht und für "appel und ei" zu haben ist.
ein reiner pascal nachbau mit leicht höheren taktraten wäre mit 12nm locker möglich und hätte auch effizienz noch ein stückchen verbessert.
ABER: nvidia steht auch unter druck eine gewisse mehrleistung zu bieten - einfach nur raytracing auf die pascals dranzuflanschen reicht da nicht. raytracing ist aktuell nur bonus und entwicklerspielerei (wie in der vergangenheit öfters mal beim ersten schuss einer neuen technologie).
es ist zudem sogut wie nicht verbreitet und wenn die performance die außerhalb von raytracing auf dem pascal niveau liegt - nun, das wäre nicht gerade ein verkaufsargument.

wenn man also bei einem geringen fortschritt in der fertigung gleichzeitig raytracing einheiten UND mehr ausführungseinheiten (für "reguläres" rasterbasiertes rendering) in einem chip unterbringen will geht das zwangsläufig nur wenn man den chip größer desigt.
das ist bei diesem ausmaß schlicht teuerer - die preise richten sich nach wafern aus; wenn ich auf einem wafer schlicht _wesentlich_ weniger chips unterbringen kann, dann rettet mich weder die fertigungstechnologie (das ist der schritt ZUVOR) noch die yield rate. selbst bei perfekten yield raten kommen vom wafer her weniger chips raus...

oder anders:
eine feinere fertigungstechnologie wird aus mindestens zwei perspektiven bewertet:
der techniker/ingenieur sieht die verbesserte energieeffizienz, höhere taktraten, einfachere kühlung etc. als großen vorteil oder auch die möglichkeit weitere funktionen in gleicher oder geringerer chipgröße unterzubringen.
einkauf und marketing sehen darin jedoch vor allem die möglichkeit der kostenreduktion; die gleiche funktion wie zuvor kann man jetzt in kleineren chips unterbringen. und ja, für diese leute ist auch wichtig was der einsatz einer neuen technologie einbringt - wenn ich 20% HK wegen dem niegelnagelneuen prozess drauflegen muss, der ek-preis des jetzt kleineren chips aber um 40% sinkt, habe ich immernoch was gut gemacht.
wen man bei turing jetzt wegen der "reiferen" fertigung 20% weniger HK hat, die chips aber wegen deren größe 30% oder 40% mehr kosten...nun, die rechnung kann jeder für sich durchspielen...
 
@Vitec
Dein Vergleich stimmt insofern, dass es mit Sichereit immer wieder Features gab, für die die beste Hardware noch nicht leistungsstark war um > 60 FPS in der höchsten Auflösung zu schaffen.
Für mich ist es aber ein Unterschied, ob ein Spiele-Publisher damit um die Ecke kommt und die Hardware dafür noch nicht wirklich bereit ist oder ob es der Hardware-Hersteller selber ist.
Dieser schneidet sich damit nämlich ins eigene Fleisch, v.a. wenn es um das neu vorgestellte Flaggschiff in Verbindung mit der Wald-und-Wiesen Auflösung geht.
 
Vitec schrieb:
Kommt wohl auf die szene an .Ich hab einfach mal den PCgames hardware benchmarkvergleich genommen mit der 285er gtx.
Aber bei THG wenn du noch eine andere Quelle willst, falls PCGH für dich zu "casual ist" wurden in Warhead mit 1200p mit ner single GTX 280 in 1200p 22 fps erreich in deren Szene.

Ne kommt nicht auf die Szene an, mit der 8800 GTX lief es damals recht gut, klar konnte man alles so aufdrehen, dass danach die FPS im einstelligen Bereich waren des Weiteren gab es ab und zu Drops auf ~20 FPS und es hat kurz geruckelt aber das war wieder schnell weg. Gerade bei Explosionen war das der Fall.

Hier die Benches dazu:

Ist zwar der 8800 GT Test, aber da ist die 8800 GTX auch dabei.

https://www.techspot.com/review/74-inno3d-geforce8800gt/page4.html

Und hier der 285 Test:

https://www.tomshardware.com/reviews/geforce-gtx-285,2139-4.html

Da die 280 und 285 eben auf Very High statt auf High gebenched wurden sind die eben gleich langsam. Mit meiner damaligen GTX 285 SSC konnte ich Crysis in High aber super flüssig spielen.
 
Krautmaster schrieb:
@RuhmWolf

würds mir gern selbst mal anschauen, welche Videos zu welchem Zeitpunkt genau?

Guck dir zB das rtx on/off tomb Raider an: achte auf die Schatten im Vordergrund mit den drei Kindern und den zwei lichtquellen. Die Frau mit Kopftuch dazwischen wirft bei RTX ON keinerlei Schatten. Bei der Tanzszene und den zwei bewegenden bühnenscheinwerfer einfach mal auf den Typen mit Cowboyhut und seine Schatten achten.

Bei der demo mit dem einfallenden Licht durchs Fenster ist einfach mal die Ecke an der wand an der das Fenster ist heller als die andere.

Bei battlefield ab 0:57 Sekunden bei der Explosion hinterm Panzer kann sich in der parabolspiegelfläche des Scheinwerfers nicht die Explosion spiegeln (an der Außenseite des Gehäuses schon)
 
cypeak schrieb:
ja, aber genausogut darf man nicht so tun als ob eine fertigung nach 16 monaten ausgelutscht und für "appel und ei" zu haben ist.

Das wollte ich auch gar nicht sagen, nur das Argument "Aber der TU102 Die ist so viel größer als Pascal, der Preis ist bestimmt gerechtfertigt" ist eben nur eine Seite der Medaille. Und aus Kundensicht ist es mMn total abstrus den Preis "schönzureden" ohne dafür Beweise zu haben, denn letztendlich kennen wir weder Yield Raten noch konkrete Wafer Preise und damit auch nicht die Preise pro Die. Also kann man nur spekulieren wie gerechtfertigt der Aufpreis ist.

cypeak schrieb:
ein reiner pascal nachbau mit leicht höheren taktraten wäre mit 12nm locker möglich und hätte auch effizienz noch ein stückchen verbessert.

Das wäre für uns Kunden aber mMn die bessere Lösung gewesen. Stell dir mal vor, NVidia hätte genau das gemacht:
Turing wäre schlicht und einfach mit 25% mehr Leistung (minimale Architekturanpassungen, leicht höherer Takt und GDDR6) bei 20% geringerer Leistungsaufnahme auf den Markt gekommen. Dank kleinerem Die durch 12nm Fertigung wäre der Chip für Nvidia günstiger zu produzieren gewesen (als Pascal zum Start) und man hätte einfach mal aus psychologischen Gründen die UVP um 50€/$ gesenkt. Da wäre gar keine Diskussion im Internet entstanden und die Leute hätten denen die Bude eingerannt.

Ich meine; die jetzigen Vorbesteller hätten das auch in dem von mir gezeichneten Szenario und viele der Kritiker hätten kaum noch etwas zu meckern gehabt.

cypeak schrieb:
ABER: nvidia steht auch unter druck eine gewisse mehrleistung zu bieten

Nö, eben nicht. Oberhalb der 1080 hat NVidia ja keinerlei Konkurrenz , also muss der geneigte Kunde eh bei Nvidia kaufen.
Würde man jetzt das komplette Line-Up bei der Leistung um 20% nach oben ziehen und gleichzeitig die Leistungsaufnahme senken und evtl. noch den Preis minimal, wäre die Vega 64 auch keine Konkurrenz mehr zur dann neuen Nvidia 2080.

Was Nvidia hier mMn gemacht hat ist einfach einen sinnvollen und guten Profi Chip in den Gaming Markt zu bringen um keinen separaten Gaming Chip designen und eine eigene Fabrikationsstraße fahren zu müssen. In Maya, Blender, AutoCAD oder anderer professioneller Software ist der Fortschritt durch RT gewaltig. Da sind die erzielten Fortschritte direkt nutzbar, beim Gaming... wohl noch nicht.
Bei BF V rudert man anscheinend schon wieder etwas zurück (wobei ich mir da ohne RTX Karten am Markt und Battlefield in der veröffentlichten Version noch kein finales Urteil erlauben will) und wie viel von der RT Leistung bei der 2070 noch übrig bleibt, darf stark bezweifelt werden.
 
v_ossi schrieb:
Das wollte ich auch gar nicht sagen, nur das Argument "Aber der TU102 Die ist so viel größer als Pascal, der Preis ist bestimmt gerechtfertigt" ist eben nur eine Seite der Medaille. Und aus Kundensicht ist es mMn total abstrus den Preis "schönzureden" ohne dafür Beweise zu haben, denn letztendlich kennen wir weder Yield Raten noch konkrete Wafer Preise und damit auch nicht die Preise pro Die. Also kann man nur spekulieren wie gerechtfertigt der Aufpreis ist.



Das wäre für uns Kunden aber mMn die bessere Lösung gewesen. Stell dir mal vor, NVidia hätte genau das gemacht:
Turing wäre schlicht und einfach mit 25% mehr Leistung (minimale Architekturanpassungen, leicht höherer Takt und GDDR6) bei 20% geringerer Leistungsaufnahme auf den Markt gekommen. Dank kleinerem Die durch 12nm Fertigung wäre der Chip für Nvidia günstiger zu produzieren gewesen (als Pascal zum Start) und man hätte einfach mal aus psychologischen Gründen die UVP um 50€/$ gesenkt. Da wäre gar keine Diskussion im Internet entstanden und die Leute hätten denen die Bude eingerannt.

Ich meine; die jetzigen Vorbesteller hätten das auch in dem von mir gezeichneten Szenario und viele der Kritiker hätten kaum noch etwas zu meckern gehabt.



Nö, eben nicht. Oberhalb der 1080 hat NVidia ja keinerlei Konkurrenz , also muss der geneigte Kunde eh bei Nvidia kaufen.
Würde man jetzt das komplette Line-Up bei der Leistung um 20% nach oben ziehen und gleichzeitig die Leistungsaufnahme senken und evtl. noch den Preis minimal, wäre die Vega 64 auch keine Konkurrenz mehr zur dann neuen Nvidia 2080.

Frage ist will Nvidia AMD noch mehr Marktanteile nehmen?

Die Gefahr die Konkurrenz komplett zu verdrängen besteht halt dann im Gamingsektor.
Dann hast wieder in den Bereich ein Monopol wo einer walten und schalten kann wie er will.

Nvidia ist eh vorne da probiert man halt eher mit künftigen Technologien einen Schritt weiter zu sein. Da halt eine Gen Vorsprung zu haben.
Die Entwickler schwitzen wohl jetzt schon wenn sie auf klassische Weise die Grafik noch erhöhen sollen. Ist doch offensichtlich dass du für etwas mehr Optik immer mehr Entwicklungskosten, Entwicklungszeit und Rechenleistung brauchst.

Die Technik die RTX einführt soll ja künftig eher Zeit einsparen wenn halt die Leistung der Extrakerne stimmt.
Sowas ist halt sicherlich eher das wirtschaftliche Ziel wenn man einen Sprung weiter in der Grafik kommen möchte.

Die Medallie hat halt immer zwei Seiten. Die Preise muss man natürlich trotzdem nicht mitmachen.
 
Cl4whammer! schrieb:
Es besteht ein Unterschied zwischen "optimieren" und wir machen die Effekte wieder weniger weil es anderes einfach nicht geht. Erst damit werben und dann die Effekte wieder entfernen, da kann ich die Kritik durchaus verstehen.
Nirgendwo steht, dass sie "weniger" Effekte darstellen wollen. In dem Interview spricht er darüber, dass die Assets nicht für RT ausgelegt wurden und so teilweise nicht realistisch genug aussehen. Man will deswegen Parameter ändern oder noch die RT-Engine überarbeiten um die optische Qualität zu verbessern um das Bild nicht so hyperrealistisch erscheinen zu lassen. Das heißt aber nicht, dass es "weniger" Effekte geben wird. Das denkt sich hier Computerbase mal wieder aus.
Es heißt nur, dass es ein schöneres Bild bei sicherlich auch besserer Performance geben wird und nichts anderes.
Es soll ganz einfach das Preis/Leistungsverhältnis von Rechenaufwand zur Bildqualität verbessert werden. Das ist die hohe Kunst um die es in der Grafikentwicklung geht.

BTW: Hier werden einige der Optimierungen erwähnt, die DICE in Erwägung zieht:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Krautmaster
RuhmWolf schrieb:
Guck dir zB das rtx on/off tomb Raider an: achte auf die Schatten im Vordergrund mit den drei Kindern und den zwei lichtquellen. Die Frau mit Kopftuch dazwischen wirft bei RTX ON keinerlei Schatten.

ich denke dafür sorgt die andere Lichtquelle die den Schatten wieder aufhebt. Es stimmt dass die Schatten zub beim Kind links sehr ausgeprägt und hart sind für die sehr kleine Lichtquelle. Je naher die Lichtquelle zum Schatten werfenden Körper umso härter der Schatten.

Die Frau wirft schatten, sogar sehr präzise auf sich selbst.

Siehe den Arm in ihrer leichten Drehbewegung.

Man beachte auch die Schattenintensitäten am Boden
1536414541454.png


Das passt schon so. Pfeil rechts unten am wenigsten Schatten da von beiden Lichtern, primär dem rechten beleuchtet. Pfreil oben wirft die Frau in der Mitte den Schatten. Kaum Abstufung zum anderen Pfeil rechts dennoch erkennbar dass diese nach rechts oben einen Schatten vom Licht links wirft.

Im Pfeil links erkennt man zudem den eigenen Schatten der Frau der mit dem anderen des Kind rechts überlagert ist.
1536414722542.png


Ganz unabh davon ist der Schatten doch schon extrem gut. Auch wenn man mal schaut wie zb das Gesicht der Kinder schatten selbst auf deren Schultern usw wirft oder eben der Arm der Frau an ihrem Körper.

Selbst bei RTX Off ist der Schatten gut aber unrealistisch hart,
Ergänzung ()

auch noch ein paar Eindrücke zum RT

Wie gesagt, ich denke dass die RT Sache vieles auch dem Entwickler abnimmt.

ich schreibe absichtlich RT und nicht RTX, es wäre wünschenswert wenn unabh. von Nvidia RTX Zeug Raytracing eingesetzt wird.
Viele werden es sich einfach machen und RTX statt die DX Sache nutzen was ich auch nicht verübeln kann. Also Software Entwickler erfindet man das Rad nicht neu sondern setzt verfügbare API und Frameworks ein. Gameworks und RTX ist natürlich nahelegend. Kaum jemand wird die Ressourcen haben das neu zu implementieren. Für Studios ist es eben eine Arbeitserleichterung und Kostenersparnis zB Nvidias fertige Implementierung zu nutzen, gerade jetzt wo die Konkurrenz noch nichts dahingegend vorlegen kann.
 
Zuletzt bearbeitet:
Oh und ich dachte durch Raytracing wird alles noch viel schneller, weil dann die Grafikkarte, also der normale Kern, der sonst Ractracing berechnet, stark entlastet wird?
 
Kein Grafikkern rechnet jetzt irgendwas fuer Raytracting.
Raytracing wird in Spielen nicht verwendet.
Jetzt, weil Nvidia es sagt, wirds eingefuehrt, und bremst zukuenftige Games aus wenn mans verwendet.
 
ZeroZerp schrieb:
Es geht darum, dass sie überwiegend aus Art- Style Gründen (zu viel Spiegelung, Oberflächen wirken dadurch zu sauber) den Effekt zurückschrauben. Er ist also noch da, nur nicht so unnatürlich übertrieben.

Genau das war von den RT Kritikern hier immer einer der Hauptkritikpunkte, dass der Effekt übertrieben eingesetzt wird und das deshalb schlecht aussähe.
DICE sieht das offenbar ebenso. Jetzt ändern sie dies. Und wie Du richtig schreibst, nehmen sie sich vereinzelte Szenen vor, in welchen die Leistung aufgrund übertriebener Reflektionen unnötig in die Knie geht. Also ein normaler performance- Optimization pass.

Aus dieser Faktenlage wird aber von den Kritikern ein Beweis, dass RT und die Karten Mist sind und nicht performant genug.

Tjoar, wenn man sich die News ( https://www.computerbase.de/artikel/grafikkarten/battlefield-v-dxr-raytracing-test.65689/ durchließt waren es wohl doch nicht nur Stylegründe warum hier die RT Effekte heruntergefahren wurden...
 
@Cl4whammer!
Wo soll denn die Geschwindigkeit auch herkommen, wenn man seit präsentation der Demo bis auf einen nur in geringen Teilen funktionierenden Qualitätseinstellungsregler und kleineren Optimierungen der DX12 Schnittstelle keine Änderungen durchgeführt hat.

Es wurde eben genau seit Ankündigung NICHTS von dem gemacht, was angekündigt wurde.
Wenn Du die Ankündigungstrailer mit dem Release vergleichst wurden eben noch nichtmal die übertriebenen Effekte heruntergefahren. Die Spiegelungen wirken z.B. immernoch teils heller, als der Strahlenursprung und dinge wirken wie frisch poliert.

Sie haben dabei ja offensichtlich noch nicht mal bemerkt, dass durch einen Bug der Raytracing Pfad beim Vorhanden sein von Laub etc. massiv in die Knie geht (unter anderem wurden genau diese Szenen in den Benchmarktests bewertet).
Somit ist klar, dass man hier mit aller Gewalt einen DXR Patch zum Releasetag präsentieren wollte und DICE vor Veröffentlichung vermutlich aus Qualitätssicherungsgründen der Hauptsoftware keine Zeit mehr hatte, sich da um irgendwas zu kümmern.

Konkret wurde versprochen:
1. In Optimization Passes besonders Leistungskritische Passagen zu entschärfen.
2. Herausstechende und übertriebene Raytracing- Effekte abzuschwächen.
3. Statt nach der kompletten Berechnung der Szene das Raytracing on Top zu setzen, das Ganze mit der Übergabe der Geometriedaten parallel ablaufen zu lassen (großes Geschwindigkeitspotenzial bis zu 80%).
4.Unnötig viele Einzelgeometriedaten zu größeren Blöcken zusammenzufassen (Geschwindigkeitspotenzial rund um 30%).

Was man nach Kenntnisstand noch tun könnte:
1.DLSS integrieren = +30%
2.Tensor- Core Denoiser beutzen, der aus qualitativ schlechteren RT Berechnungen noch ein sauberes Bild liefern kann, und zudem die Shader entlastet
3.Die GPU die Aufbereitung der Szenengeometrie übernehmen lassen, da dies ein für RT weit effektiveres Culling durchführen kann.
Dass hier das culling- System von DICE überhaupt nicht funktioniert erkennt man daran, dass auch in Szenen, in denen sich nichts groß spiegeln kann, die Performance trotzdem teils unterirdisch bleibt.

Fazit:
Es liegt also allein technisch gesehen, ohne große Tricksereien noch sehr sehr viel Leistungspotenzial auf der Straße.

Ziel muss sein, unter WQHD auf stabile 60FPS+ zu kommen und zwar mit einer 2080 und nicht mit der TI.
4K 60FPS verlangt kein Mensch, da die Karte unter Standardrasterisierungsbedingungen diese in Teilen nicht halten kann.
Nur dann hat man eine reelle Chance, dass sich der Shitstorm legt und die Technik tatsächlich als Bonus und nicht als Malus wahrgenommen wird.

Wenn man sich diverse Benchmarkvideos ansieht (auch hier im Thread mit Dank an z.B. Esenel), sollte das aber ein nicht allzu schwer machbares Unterfangen sein.

Blablabla ich schreib schon wieder zu viel..
Ich kann es immer noch nicht fassen, was man da veröffentlicht hat.
 
Zuletzt bearbeitet:
Der Typ spielt auf 1080p Ultra Settings mit DXR auf Low mit einer super Framerate.


Ich muss ehrlich sein: Ich seh praktisch kaum Unterschiede zwischen DXR Ultra und Low.
 
Dennoch sehr interessant, wenn man den oben von mir geposteten Artikel liest.

Ich hab bis jetzt gedacht, dass eher DICE nicht wirklich willens war, das richtig umzusetzten.
Aber im Gegenteil- Die sind ja geradezu enthusiastisch dabei, das ganze Zeug umzusetzen und haben Ideen, die ja auch mal richtig genial sind (z.B.Screenspace Reflections nur dort mit Strahlen abzutasten, wo diese Fehler ausbügeln können).

Und genau das meine ich, wenn ich sage, dass die neue Technik in Zukunft in Dingen eingesetzt werden, die man sich in der jetzigen Form noch garnicht vorstellen konnte.

nVidia ist die Bremse, weil sie einige Funktionen treiberseitig nicht integriert haben (z.B. die Asynchrone Berechnung oder Simultane Berechnung)....

Das stimmt schon positiv, wenn man liest, was für ein Potenzial die sehen...
 
@RaptorTP
Es geht mir eher darum, dass man das Ganze eben, so wie es sich dort liest, schon mit der aktuellen Generation und in performant haben kann. Dass also wirklich die Software die Hauptproblematik ist und nicht die Hardwareleistung.

Was natürlich klar ist, ist dass das ganze eine ordentliche Menge an Software braucht, die das ganze auch nutzt (und das sinnvoll).

Dennoch- Dice schreibt, dass sie bereits eine Version mit sehr großen Performance- Sprüngen auf Lager haben und diese zum nächsten Patch mitschicken.
Viel fehlt ja wirklich nicht mehr. Wenn man 1440P in durchgängig 60FPS spielen kann, dann hat man ein Ziel erreicht, wo ich sage, dass das dann schon ein Wert ist, der heutzutage ausnahmslos als spielbar angesehen werden kann.
Und das trotz dieses enormen Sprungs Richtung Raytracing.

Anfangs dachte ich auch, warum da in Sachen Beleuchtung nichts gemacht wurde. Wenn man aber die Szenen analysiert, sehen die Szenen allein durch die Bounces der Spiegelungen auch lichttechnisch deutlich besser aus.

Greift halt irgendwie doch alles ineinander, dieses Strahlenzeug....

Ich bin wieder positiv gestimmt, obwohl ich eine Zeit lang wirklich sauer war.
 
alles verständlich ..

aber das macht es leider nicht besser

also kommt zum Punkt:

- das genug Spiele es unterstüzten

eben noch der Punkt:

- das die Umsetzung auch gelingt

dazu :)


Ich will es garnicht schlecht reden - aber der Output ist: WQHD und 144 Hz mit Raytracing ist mit einer 1300€ Graka nicht drin ... eher "unterhalb" 60fps.

Und ein Regler nach links schieben bei 1300€ ... ist HEUTE eigentlich nicht drin ;)
 
Zurück
Oben