Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsBattlefield V: Weniger Raytracing für mehr Leistung auf GeForce RTX
Der Stillstand herrscht doch bereits heute. Optisch tat sich seit Battlefront eigentlich fast nichts und den Unterschied zwischen den oberen Presets sieht man kaum. Dazu gibt es haufenweise Games die durchschnittliche Grafik bei massivem Grafikhunger auf den Schirm bringen.
Stimme zu, aber im Umkehrschluss bedeutet dass auch, das noch sehr viele Spiele und Engines Nachholbedarf haben. Dice ist doch quasi das (konkurrenzlose) NV der Spielebranche.
Nachdem sich Crytek aus dem Grafikrennen verabschiedet hatte, sind auch die Sprünge bei BF deutlich geringer ausgefallen. Einzig Ubisoft's Grafikbaukasten aus Unreal/CryEngine Hybrid kommt da mMn noch mit.
BF, Assassins Creed, Far Cry, ggf TombRaider.. und dann erstmal lange lange nichts.
Bevor also das hiesige Mittelfeld auf Raytracing setzt, sollten diese Studios erstmal versuchen nahe der Rasterrizing-Grenze zu kommen.
Jetzt das Ende auszurufen, weil die Speerspitze der AAA Titel sagt man kann nicht mehr viel machen... ich weiß nicht. Und nochmals, für mich hat DICE keine Konkurenz. Ob AC:O vllt einen Ticken besser aussieht oder nicht - geschenkt. Komplett anderes Spiel, welches sich nicht wirklich mit BF beißt. Gleiches für TR und FarCry.
wirklich zuverlässige tests der rtx karten gibt es noch nicht.
dass die karten auf der heutigen rasterizer technik die schnellsten sein werden ist abzusehen - das raytracing ist da nur noch das marketing sahnehäubchen.
also warum regen sich alle wieder so auf??
fakt ist bereits vor den tests dass nvidia aktuell die schnellsten beschleuniger herstellt und dafür einen relativ hohen preis abruft - das mag vielen nicht gefallen, aber dieses gebashe und gehate ist ja kaum auszuhalten.
ich denke von halbwegs erwachsenen menschen kann man doch einen "vernünftigeren" ton erwarten - oder sind hier neuerdings nur kindergarten gemüter unterwegs?
Naja Dice äußert sich schon deutlich, dass gerade wegen RT die Hardware-Anforderungen gestiegen sind. Und wenn es mit einer 2080 Ti in FHD schon Probleme gibt die 60 FPS zu halten, dann frisst das RT ganz schön viel Körner. Das sieht eben schwer danach aus, als hätte man die Anforderungen von RT unterschätzt, Dice kann nur schlecht jetzt einen Rückzieher machen und sagen, dass RT für Battlefield zuviel des Guten ist, wenn man vorher damit wirbt.
Bin auf jeden Fall gespannt, ob es anderen Spieleentwicklern ähnlich geht
Naja Dice äußert sich schon deutlich, dass gerade wegen RT die Hardware-Anforderungen gestiegen sind. Und wenn es mit einer 2080 Ti in FHD schon Probleme gibt die 60 FPS zu halten, dann frisst das RT ganz schön viel Körner. Das sieht eben schwer danach aus, als hätte man die Anforderungen von RT unterschätzt, Dice kann nur schlecht jetzt einen Rückzieher machen und sagen, dass RT für Battlefield zuviel des Guten ist, wenn man vorher damit wirbt.
Bin auf jeden Fall gespannt, ob es anderen Spieleentwicklern ähnlich geht
Ich glaube nicht das RT unterschätzt wurde. Es gab immer schon Grafikfeatures die extrem Leistung gefressen haben. Als SSAO anfangs kahm war das richtig übel und hat mal eben 25% der fps geschluckt. auch HBAO,HBAO+ PCSS und HFTS sind fordernd nur hat sich halt die Leistung der Grakas mittlerweile erhöht, sodass man diese leichter mal eben nebenher aktivieren kann. Wobei HFTS dürfte selbst auf einer 1080Ti immer noch ordentlich kosten.
Mich kostet es deutlich mehr Zeit die Oberflächen für RTX anzupassen und zu testen. Wo man vorher einfach matte Oberflächen verwenden könnte, muss ich nun spiegelnde Oberflächen verwenden.
Der höhere Aufwand ist aber nur jetzt da und sobald man einen Pool an diesen Oberflächen und die Erfahrung hat, macht es fast keinen Unterschied mehr.
Ich finde es richtig hier auf eine neue Technik zu setzen. Allerdings halte ich den Weg für fragwürdig, nur weil NVIDIA es sich erlauben kann muss man nicht alles machen.
(Ja ich weiß, Kapitalistisch... Aktionäre... usw)
Klar ich muss die Karten nicht kaufen, trotzdem empfinde ich die Art (Präsentation im Bezug auf BFV) und Preisgestaltung der neuen Technik für mich persönlich unangebracht.
Mich kostet es deutlich mehr Zeit die Oberflächen für RTX anzupassen und zu testen. Wo man vorher einfach matte Oberflächen verwenden könnte, muss ich nun spiegelnde Oberflächen verwenden.
das ist richtig, zugleich kann ich aber im Prinzip dieselbe Grafikengine und den Effektbaukasten auf eine beliebig definierte Szene anwenden und muss mich nicht um sowas wie Spiegelungen oder Shadowmaps kümmern die eine realistische Beleuchtung "vorgaukeln" sondern diese in Echtzeit physikalisch korrekt berechnen.
Ich pass dann zB "einfach" meine Lichtquellen / Materialien der Szene an, gern auch dynamisch (zb ändern die Wasseroberfläche bei Regen einfach den Reflektionswert), RT macht den Rest. Ich bekomme realistische dynamische Soft-Shadows egal wie oft ich Elemente neu platziere oder wie viele Lichtquellen ich hinzufüge.
Wird aber lange ein fließender Übergang sein, ich meine Effekte wie Explosionen, Nebel, Lensflare usw müssen ja nach wie vor rein.
Edit:
Gerade auch wenn man dran denkt dass Destruktion und Verformung zum Einsatz kommt ist das sicher "fancy" wenn Schatten usw dynamisch darauf reagieren ohne dass in der Engine dies irgendwie speziell getrickst werden muss. Zb Licht durch Einschusslöcher fällt und den Innenraum anders beleuchtet.
ja, natürlich spielt die yield rate eine rolle, aber maßgeblich ist immernoch die chipfläche und das nicht erst seit gestern.
du erwähnst es ja selbst: 12nm ist jetzt kein riesiger technologischer sprung im vergleich zu den 16nm; umso "krasser" ist da der anstieg der chipfläche.
wir reden hier nich von plus/minus 20-25% sondern von plus 60-70%.
in meinen augen wäre es da, trotz unterschieden bei der yield rate, naiv zu denken das hätte keinerlei auswirkung auf den preis.
davon abgesehen: die yield raten tendieren bei größeren chipflächen logischerweise schlechter zu sein...
Ergänzung ()
irgendwann muss man anfangen mit einer neuen technologie.
als damals die T&L engine einzug hielt,war die leistung der ersten generation auch eher "bescheiden" - zwei generationen weiter war das in einer gpu nicht mehr wegzudenken...
Dann guck dir auch mal die letzten großen Chips und deren Fertigungsgröße an.
Tesla M40 (Maxwell, GM200, 28nm, 250W, Nov. 2015)
Tesla P100 (Pascal, GP100, 16nm, 300W, April 2016)
Tesla V100 (Volta, GV100, 12nm, 300W, Mai 2017) Quelle
Während man Maxwell wegen der 'altbackenen' Architektur etwas ausklammern kann, kam die erste 16nm GeForce Karte im Mai 2016 auf den Markt (GTX 1080). Nur einen Monat nach der ersten Profi Karte in der neuen Fertigungsgröße.
Ich bezweifle einfach, dass NVidia jetzt so gravierend viel mehr pro Die bezahlt, denn man bringt die RTX Karten jetzt nicht einen oder zwei Monate, nachdem man einen neuen Prozess mit einem großen Profi Chip eingeführt hat, sondern 16 Monate später. Die ersten Profi Karten in 12nm, namentlich die Tesla V100 ist immerhin im Mai 2017 an den statt gegangen.
TSMC hatte also über ein Jahr, um den Prozess weiter zu optimieren und dann sind die RTX Karten ja auch allesamt teildefekt oder teildeaktiviert.
Da steckt also einiges an Entwicklung seitens TSMC drin, was die Kosten senkt und die Yield-Rate erhöht. Entsprechend wird NVidia auch nicht sein Tafelsilber verscherbeln oder ne Niere spenden müssen um diesen Riesen-Chip -das ist er ja zweifellos- anbieten zu können.
Die 12nm sind also jetzt 16 Monate nach GV100 kein so revolutionärer Kostentreiber.
Milchmädchenrechnung meinerseits:
Der GP104 der ersten 1080er war pro Quadratmillimeter teurer, als es der TU102 und TU104 momentan sind. Durch die gewachsene Die-Size ist Turing insgesamt aber trotzdem etwas teurer.
Es ist mir bloß etwas zu kurz gedacht, NVidias Vorgehen ohne Berücksichtigung der Fortschritte in der Fertigung einfach als gottgegeben hinzunehmen. Sonst hätte man ja bei jedem Shrink bisher ein ähnliches Vorgehen rechtfertigen können, auch wenn es einfach ein Teil des Marktes ist, das bestehende Fertigungen billiger werden und damit größere Chips machbar sind.
Zu 7nm erwarte ich dann einen kleineren Chip, der wiederum pro Quadratmillimeter teurer ist.
Das sollte sich -ganz grob gesehen- auch wieder ausgleichen.
... würde selber auch eher auf 7nm und Gen 2 warten was RT angeht. Wenn ich mir ne 2080 TI holen würde dann primär um damit ganz einfach in 4K zu zocken. RT hin oder her. Und ich denke damit bin ich nicht allein. DLSS und DSAA fände ich wichtiger.
Was man schwer sagen kann ist wie sich das mit dem VRAM verhält. Ich denke mit Material Definition bekommen Texturen und einhergehender VRAM Verbrauch + Bandbreite einen neuen Stellenwert. Denkbar dass der VRAM Verbrauch massiv ansteigt.
Wer nicht (?), alleine die Speicherstagnation ist ein Preis-Leistungs-Desaster vom feinsten bei den RTX Karten, so gesehen sind die Karten in Sachen Langlebigkeit unterdurchschnittlich bestueckt mit einem (fuer Early Adopter und Enthusiastenansprueche in Full-HD eigentlich unvereinbarem) gar nicht oder kaum bis mangelhaft implementierten RT-Raytracing in einer Anzahl ausgewaehlter kommender Spielen (die dadurch vermutlich gleich 5x soviel Spass machen werden und den veranschlagten Aufpreis vollends amortisieren werden , wer das ("der Lederjacke") glaubt?).
Speichermengentechnisch sollte in 7nm nachgebessert werden, wenn man die gleichen Preisregionen anstrebt wie jetzt bei den 12nm RTX Karten, und ja, ich befuerchte auch, dass dahingehend die erste RTX Generation auch schnell an die Grenzen stossen duerfte und sich fuer laengerfristige Nutzung nicht empfiehlt.
Ja gut, es ist zudem die Frage, ob man das Preisdiktat des Quasi-Monopolisten mittraegt/unterstuetzt/durch einen RTX Kauf absegnet, oder nicht? Nicht nur RTX alleine hat solche Preise moeglich gemacht sondern auch die Gier von nVidia und das ueber viele Jahre hinweg einseitige/nicht vorausblickende Kaufverhalten vieler Grafikkarten-Kaeufer.
Fragt sich dann im Endeffekt was wichtiger ist, ein halbwegs ausgewogener Markt oder in 4K/UHD fluessig in Ultraeinstellungen als einer der ersten spielen zu koennen und die nVidia Preistreiberei durch den Kauf (damit einhergehende Preisakzeptanz) weiter zu befeuern?
Wird AMD/RTG deutlich guenstiger werden (?) ... ich denke eher nicht.
Das waere dumm, wenn AMD/RTG von nVidia schon so eine Steilvorlage fuer eine neue Preiserhoehung bekommen bei der sie relativ ungeschoren Trittbrett fahren koennen, aber wie der Bericht von JPR (zur Entwicklung der dGPU-Marktanteile) aufzeigt hat der Markt eine Korrektur ziemlich noetig, wenn man denn kein Komplettmonopol nVidias im PC-Gaming und eine Abkehr von AMD/RTG bzgl. PC-Gaming foerdern will und dafuer dann noch viel tiefer in die Tasche zukuenftig greifen wird muessen.
Oh ja, und dann gaebe es noch die Moeglichkeit sich komplett zu enthalten/den Markt vorlaeufig zu boykottieren, bis die GPU-Entwickler endlich wieder stimmige Preise anbieten (weil durch die Kaeuferabstinenz und daraus resultierenden gesunkenen Boersenkurse die GPU-Entwickler veranlasst wuerden, die Preise wieder niedriger ansetzen zu muessen), aber das ist wohl heutzutage keinem mehr zu zu muten (zumindest nicht offiziell in diesem Forum ).
Oder aber PC-Gaming wird in nicht allzu ferner Zukunft per Exodus zu den Konsolen hops gehen, weil es den meisten die Phantasiepreise von nVidia nicht mehr Wert sind und ein Umstieg auf Konsolen dagegen so viel attraktiver wird, da werden eine Handvoll beinharte nVidia Early Adopter und Hobby-Enthusisten auch nichts daran mehr aendern koennen, aber diese koennen dann gerne unter sich bleiben/spielen und als verbliebene "PC-Masterrace" sich darauf etwas einbilden .
Das ist richtig, aber zum Beispiel SSAO: zum Launch von Crysis konnte man meines Wissens nach mit dem diesem Feature glänzen und die Hardware war auch im Stande das zu leisten. Im Falle von RT ist das aber kein Feature der Engine sondern auch der Hardware und gilt als Verkaufsargument Nummer 1. Man hatte bei Crysis ja nicht mit dem schönen Rendering geworben und musste zum Launch dann doch wieder zurückrudern, weil es ansonsten nicht flüssig spielbar ist (auch mit HighEnd-Hardware).
DerPessimist schrieb:
Der höhere Aufwand ist aber nur jetzt da und sobald man einen Pool an diesen Oberflächen und die Erfahrung hat, macht es fast keinen Unterschied mehr.
Ich meinte damit ja andere Entwicklerstudios, die müssen ja jetzt alle ihre ersten Erfahrungen mit RT-Implemenation machen und ich glaube nicht das DICE als einziger hier ins Straucheln gerät
Es geht darum, dass sie überwiegend aus Art- Style Gründen (zu viel Spiegelung, Oberflächen wirken dadurch zu sauber) den Effekt zurückschrauben. Er ist also noch da, nur nicht so unnatürlich übertrieben.
Genau das war von den RT Kritikern hier immer einer der Hauptkritikpunkte, dass der Effekt übertrieben eingesetzt wird und das deshalb schlecht aussähe.
Das hast du jetzt drei mal geschrieben und ich weiß nicht wie du darauf kommst. Es wurde bemängelt, dass die Berechnungen einfach falsch sind! Siehe autoscheinwerfer bei Bf V, der die Explosion spiegelt obwohl es gar nicht möglich wäre (Winkel des Fahrzeuges zur Explosion + Krümmung des Scheinwerfers nach innen). Bei tomb Raider sind die Schatten mit mehrenen Lichtquellen nicht korrekt und genauso der Lichteinfall durchs Fenster ins Zimmer mit den dunklen Ecken.
Ich finde es richtig hier auf eine neue Technik zu setzen. Allerdings halte ich den Weg für fragwürdig, nur weil NVIDIA es sich erlauben kann muss man nicht alles machen.
(Ja ich weiß, Kapitalistisch... Aktionäre... usw)
Klar ich muss die Karten nicht kaufen, trotzdem empfinde ich die Art (Präsentation im Bezug auf BFV) und Preisgestaltung der neuen Technik für mich persönlich unangebracht.
Bin der selben Meinung.
Ich finde es gut das nVidia versucht RayTracing zu pushen, weil es an sich eine gute Technik ist.
Aber es so zu verkaufen als wenn's super funktioniert ist eben das Problem.
Es war ja fast das Hauptargument.
Zum Thema Vorbestellung. Man kann diese doch problemlos wieder stornieren.
Also eigentlich auch kein wirkliches Problem für die Vorbesteller.
Naja, The Division sieht mit der Snowdrop Engine jetzt auch nicht schlecht aus. Gears of War 4 ist ebenfalls ein Hingucker und lässt sich detailiert einstellen. Genau wie Forza Horizon 4 noch mal eine Schippe auf den Vorgänger draufzulegen scheint.
Ein Wolfenstein 2 ist jetzt auch nicht gerade hässlich oder Doom.
Aber irgendwo werden die Sprünge halt immer kleiner. Wenn dann noch mal aufwendigere Schatten oder Umgebungsverdeckung (die man oft nur in höherer Auflösung dann besser sieht) einem die Framerate nach unten ziehen ist es halt ein Zeichen dass man mal die ganze Berechnung umstellen muss.
Da wird RT halt Leistung freischaufeln wenn die zusätzlichen Kerne in Zukunft stark genug sind um auf mehr als 60fps zuzulassen.
Nette Grafikeffekte nützen nichts wenn einem der gesamte Artstyle nicht zusagt.
Das ist klar. Aber beispielsweise Snowdrop kommt ja auch wieder aus dem Ubisoft-Baukasten.
Ich hatte irgendwo mal eine Grafik, die Ubisoft Engines sind immer hybriden zwischen Crytek/Unreal und noch einer, Name vergessen. Je nach Spiel bzw. Engine liegen die Schwerpunkte halt etwas anders. Auch Witcher sieht ja zum Teil super aus.
Gefühlt sieht man aber gerade zwischen BF, AC:O hinsichtlich der Anzahl an Polygonen, Sichtweiten, Illumination-Implementierungen große Unterschiede zum "best of the rest".
Rennspiele hatte ich außen vor gelassen. Durch die niedrige Anzahl an Objekten und Perspektiven mit starrer Kamera, ist das im Prinzip eine Disziplin für sich.
Ja, dann hat man aber je nach Spiel und VSync-Implementierung nur noch 40 oder 30fps, teilweise Input-Lag und so weiter. Wenn VSync so perfekt wäre, würden sich GSync und FreeSync wohl kaum verkaufen.
gutes Beispiel sind oft die Schatten finde ich. Meist hart wie gemeißelt. Der Zaun / Baum und das Kabel über der Straße werfen Schatten wie mit der Rasierklinge zugeschnitten, hoch-detailliert, alles nur nicht realistisch.
Das ist richtig, aber zum Beispiel SSAO: zum Launch von Crysis konnte man meines Wissens nach mit dem diesem Feature glänzen und die Hardware war auch im Stande das zu leisten. Im Falle von RT ist das aber kein Feature der Engine sondern auch der Hardware und gilt als Verkaufsargument Nummer 1. Man hatte bei Crysis ja nicht mit dem schönen Rendering geworben und musste zum Launch dann doch wieder zurückrudern, weil es ansonsten nicht flüssig spielbar ist (auch mit HighEnd-Hardware).
Ich meinte damit ja andere Entwicklerstudios, die müssen ja jetzt alle ihre ersten Erfahrungen mit RT-Implemenation machen und ich glaube nicht das DICE als einziger hier ins Straucheln gerät
Der Spruch : "But can it run crysis" kommt nicht von irgendwoher und hat sich bis jetzt ganz gut gehalten. Aber damals waren die high end karten grad mal mit rund 30fps in 1680x1050,max details, ohne AA ,AF unterwegs (gtx 285).
Mit der schon sehr starken Vorgängergeneration in Form der 8800 GTX war gar nicht an eine 1050er Auflösung zu denken @ max details.
Klar man konnte ssao einschalten, aber eben wie bei rt dann nur mit 30fps in 1050 rumdümpeln. Also der Vergleich passt durchaus finde ich.
Ebenso HTFS das in The Division in 1080p auf ner damaligen 980Ti, dem schnellsten das es gab, die FPS um ca 25% runtergedrückt hat von 60 auf ~45.
Da steht RT in 1080p und rund 60 fps gar nicht mehr so schlecht da.