Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsBattlefield V mit DXR: Patch für Raytracing erscheint um den 15. November
@ZeroZerp Ich weiß gar nicht, warum du das Raytracing in diesem (und auch schon in anderen Threads) 'bis auf's Blut' verteidigst. Die meisten, die ernsthaft darüber diskutieren wollen, streiten doch gar nicht ab, dass das langfristig die sinnvollere Rendertechnik ist. Ob die aktuellen Turing Karten aber die beste Implementation darstellen oder eher aus NVidias Firmenpolitik zur Profitmaximierung heraus geboren wurden, darf bezweifelt werden.
Selbst wenn man mit den Turing Karten Raytracing @4k/60 darstellen kann/könnte, kann man immer noch diskutieren, ob es den Preis wert ist.
Aktuelle Spiele sehen ja mit gefakten Effekten keineswegs schlecht aus und im laufenden Spiel fällt es nochmals schwieriger einige Effekte zu unterscheiden, die in Vergleichsbildern mal mehr, mal weniger deutlich sind. (Z.B. häufig bei Ultra vs. High Schatten oder Texturen)
Wenn man also mit 'klassischen Render-Tricks' ein optisch nahezu gleichwertiges Bild zaubern kann, warum zwingt man dem Kunden dann die teuren RT Karten mit viel Marketing auf?
Wenn ich mich zwischen einer 1300€ Turing RT Karte und einer 500€ Vega entscheiden muss und sich der Unterschied für mich auf '100% Bildqualität durch physikalisch korrekte RT Berechnungen oder 95% der Bildqualität durch clevere Tricks' reduziert, weiß ich, wo ich mein Geld investiere.
Und da steht NVidia nunmal in der Tradition seine Position u.a. mit Gameworks Effekten nicht zum 'Wohl der Allgemeinheit zu nutzen. Also darf mMn bezweifelt werden, ob die Zeit für RT schon jetzt angebrochen ist.
Na dann sind wir mal gespannt, ob die ganzen Optionen zur Beschleunigung von DXR gegenüber der Ursprungsdemo, die DICE selbst aufgelistet hat, umgesetzt wurden und ob diese dann entsprechend fruchten...
Zum Testen hatten wir Zugriff auf die PC-Version von Battlefield 5 (offizielle Systemanforderungen). Die meiste Zeit haben wir auf einem Rechner gespielt, bei dem wir in der Auflösung 1440p mit einer Geforce RTX 2080 Ti spielen konnten. Das Spiel sieht erstklassig aus: Schatten und Lichter wirken extrem glaubwürdig, Exturen sind sehr fein aufgelöst, Effekte sind stimmig - sehr viel besser geht es im Grunde derzeit nicht.
Ich ja absolut kein Freund solcher Spiele, reizen mich null. Aber die Grafik ist der Hammer, insbesondere der RTX-Effekt. Hab mir gerade mal Videos mit und ohne angesehen: wirklich beeindruckend
Wenn man also mit 'klassischen Render-Tricks' ein optisch nahezu gleichwertiges Bild zaubern kann, warum zwingt man dem Kunden dann die teuren RT Karten mit viel Marketing auf?
Wenn ich mich zwischen einer 1300€ Turing RT Karte und einer 500€ Vega entscheiden muss und sich der Unterschied für mich auf '100% Bildqualität durch physikalisch korrekte RT Berechnungen oder 95% der Bildqualität durch clevere Tricks' reduziert, weiß ich, wo ich mein Geld investiere.
Und da steht NVidia nunmal in der Tradition seine Position u.a. mit Gameworks Effekten nicht zum 'Wohl der Allgemeinheit zu nutzen. Also darf mMn bezweifelt werden, ob die Zeit für RT schon jetzt angebrochen ist.
Zwingen tut garantiert niemand; es ist ganz einfach bloß der nächste logische technologische Schritt, der aufgrund seiner Neuheit natürlich auch entsprechende Wirkung auf dem Markt hat, die NVidia im Moment für sich nutzt.
Die "alten" Rendertechniken werden noch eine ganze Weile Bestand haben und als nächstes sicherlich in Smartphones und anderen Kleingeräten Einzug halten - irgendwann jedoch vermutlich überholt sein. Wir sind leistungstechnisch - nach NVidias-Auffassung - anscheinend quasi gerade an der Gabelung angekommen. Daher wird es nun wieder Schritt für Schritt gehen und es wird noch einige Generationen elektronischer und Systemdesign-Finessen benötigen, bis RT alles ersetzt hat. Und bis dahin werden die Technologien parallel zusammenwerkeln und RT dabei nach und nach mehr Anteil am gerenderten Bild übernehmen.
Eins kannst Du dabei jedoch glauben: Ein komplett geraytracetes Bild mit all seinen Spirenzchen sieht 1000x besser aus als jede durch noch so gute Algorithmen an reale Gegebenheiten abgebildete Annäherung - nämlich real Aber nicht zu vergessen ist ja auch, dass ein anderer wichtiger Großteil des Eindrucks durch Materials, Texturen und Ultrahigh-Poly-Models kommt - was wiederum Leistung braucht...
Es geht nicht darum ob man das kann, sondern wie viel Aufwand es ist wenn diese Effekte langwierig von Hand erstellt werden müssen! Bei RT sagt der Designer nur da will es haben und bestimmt die Qualität fertig.
Alle AMD Besitzer können sich eigentlich auch freuen, weil Raytracing nur unter DX12 funktioniert und Spiele welche von Grund auf über DX12 entwickelt wurden prinzipiell besser auf AMD laufen als auf Pascal (wenn keine künstlichen Bremsen eingebaut werden).
Alle AMD Besitzer können sich eigentlich auch freuen, weil Raytracing nur unter DX12 funktioniert und Spiele welche von Grund auf über DX12 entwickelt wurden prinzipiell besser auf AMD laufen als auf Pascal (wenn keine künstlichen Bremsen eingebaut werden).
Vor allem sind jetzt auch endlich die Turing auf DX12 besser als DX11 das pusht endliuch den Markt, AMD hatte einfach zu wenig Marktmacht um das durchzusetzen. Davon werden auch AMD Spieler profitieren.
Zwingen tut garantiert niemand; es ist ganz einfach bloß der nächste logische technologische Schritt, der aufgrund seiner Neuheit natürlich auch entsprechende Wirkung auf dem Markt hat, die NVidia im Moment für sich nutzt.[...]
Gut, zwingen ist vlt. das falsche Wort, aber wer mehr Leistung als eine 1070Ti haben will, muss zukünftig zwangsläufig die RT Entwicklung mittragen.
Alternativ bleibt erst mal nur Verzicht oder die Hoffnung auf weitere AMD Entwicklungen.
Und wie oben schon geschrieben, sehe ich RT auch als nächsten logischen Schritt an, nur darf bis zur Veröffentlichung erster Titel und direkter Vergleiche eben durchaus kritisch hinterfragt werden, ob uns 'one giant leap' erwartet (wie Nvidia uns das verkaufen möchte und den man sich noch dazu vergolden lässt) oder nur 'one small step'.
Ich bin aktuell eher skeptisch und erwarte keine Wunderdinge, die das Spielgefühl derart verändern/verbessern wie uns das Marketing das gerne verkaufen möchte.
Gesteigerte Immersion durch bessere und realistischere Grafik nehme ich natürlich gerne, aber nicht zu jedem Preis.
Da hast Du natürlich vollkommen Recht, da kommt das eine mit dem anderen. Was damals 3Dfx zu günstigen Preisen gemacht hat, macht NVidia heute mit teuren und dann ist die Technik noch nicht mal einwandfrei
Schauen wir mal, was AMD in der nächsten Zeit macht. Vielleicht warten die ein bisschen, bis sie auf den selben RT-Zug aufspringen. Noch ist der ja nicht ins Rollen gekommen.
Ich ja absolut kein Freund solcher Spiele, reizen mich null. Aber die Grafik ist der Hammer, insbesondere der RTX-Effekt. Hab mir gerade mal Videos mit und ohne angesehen: wirklich beeindruckend
Abwarten wie es in freier Wildbahn aussehen wird.
Das was du da jetzt von den herstellern bekommst, ist stark in Richtung RTX geschönt um es als supertoll zu verkaufen.
Ich denke, dass man später den unterschied zwar sehen, er aber nicht "der Hammer" sein wird und teilweise vielleicht sogar zu vernachlässigen wenn man nichtmehr Standbilder vergleicht, sondern so, wie man Spiele eigentlich konsumiert.
Einiges davon findet sich natürlich auch in RT wieder, aber deshalb massive Vorteile durch RT und Tensor cores zu prophezeien ist doch arg weit hergeholt.
Du hast das schon alles ganz richtig geschrieben- Das annähern an AO wird anhand der Tiefeninformation und jetzt kommts - der Intersection der Objekte in der Projektionsmatrix berechnet.
Und ja- Da klingelts jetzt vielleicht bei einigen, die wissen, was die RT Cores z.B. besonders gut können...
Letztenendes wird sich die Technik tatsächlich am Einsatz in der Praxis messen lassen müssen.
Als jemand, der gerne Engines Modifiziert und gerne mit Shadern rumspielt, glaube ich aber, dass es sehr viele Einsatzmöglichkeiten der RT und Tensorcores in Spielen gibt und dass in diesen zukünftig der Schlüssel für weitere Geschwindigkeitssteigerungen im Grafikkartenmarkt liegen.
Die Fertigungstechniken bzw. ein weiteres Wachstum der Chipgröße wird es in dem gewohnten Maße jedenfalls nicht mehr so "billig" geben.
Es ist mir nachwievor ein Rätsel warum nVidia Marketingtechnisch den Weg gewählt hat, RTX nicht primär als Beschleunigungseinheit für eben nicht nur angenähertes GI, AO, Reflections etc. zu vermarkten, sondern mit schlecht laufenden und aussehenden Demos (Gerade Battlefield und Tomb Raider), irgendwelche "Effekte" anzupreisen, die sowieso die wenigsten interessieren.
Grüße
Zero
Ergänzung ()
v_ossi schrieb:
Wenn man also mit 'klassischen Render-Tricks' ein optisch nahezu gleichwertiges Bild zaubern kann, warum zwingt man dem Kunden dann die teuren RT Karten mit viel Marketing auf?
Die klassischen "Rendertricks" basieren inzwischen eben zum Großteil auf RT- Technik, nur dass diese verhältnismäßig teuer auf den Shadern berechnet werden müssen.
Die Technik wird außerdem von mir bis aufs Blut verteidigt, weil sie einfach in allen Richtungen misverstanden und gebasht wird. Sie ist aber nunmal der einzig vernünftige Weg in Sachen zukünftig gesteigerter Grafikqualität.
Wenn der Einführungsversuch fehlschlägt, denn werden die Spiele, wenn sie besser aussehen sollen oder noch mehr faken müssen dann bald auf einer 500 Gigabyte Festplatte ausgeliefert.
Denn derzeit erschlagen viele Entwickler die Echtzeitberechnung mit vorberechneten Daten (Prebaked), was den Speicherplatzbedarf moderner Spiele explodieren lässt.
Das ist einer der "Tricks", die angewandt werden um Performance zu generieren, von denen ich nicht sonderlich angetan bin, da sie eben eine Dynamisierung von z.B. Tages- und Nachtzeiten vorgaukeln, die aber wiederum nur sehr rudimentär z.B. einen flüssigen Tag-/Nachtwechsel darstellen kann.
Ergänzung ()
Silverjaak schrieb:
Das was du da jetzt von den herstellern bekommst, ist stark in Richtung RTX geschönt um es als supertoll zu verkaufen.
Sehe ich nicht so- Natürlich sieht ein gefaketer Effekt gegen den realistisch berechneten plötzlich scheisse aus.
Vorher hatte man halt keinen Vergleich und hat die Qualität einfach als State of the Art einfach hingenommen.
@ZeroZerp: Naja es wäre nichts neues wenn es dennoch so ist. War bei vorhergehenden neuen Features auch so. Genauso wie bei Trailern und Screenshots zu Games ja auch nie geschönt wird.
Hinten raus kommt idR ein gutes Stück weniger als voher großspurig angepriesen.
Sie ist aber nunmal der einzig vernünftige Weg in Sachen zukünftig gesteigerter Grafikqualität.
Mit der Grafikqualität magst Du ja Recht haben, aber einige Spiele machen ihre oberfächlich gute Grafik wieder zunichte weil sich die Spielfiguren wie Arthrosekranke Zombies bewegen oder die Gesichter aussehen wie eine schlecht sitzende Karnevalsmaske.
Naja, Hauptsache man kann die Spiegelung der untergehenden Sonne im Auge des Gegners sehen bevor man durch ihn hinduch kriecht.
da wird nv und dice heute schon schwitzen, danach kauft keiner mehr eine rtx karte
für 527€ musst ich natürlich zuschlagen für die 2080, nun reicht das geld nicht mehr für BF V
Bin gespannt in welchem Glanz ACC erstrahlt nächstes Jahr.
ich sehe das ähnlich, wie Enurian. der raum hat zwar nur ein einziges fenster, aber draussen scheint die sonne und nur der bereich des "bestrahlten" bodens soll erkennbar sein ?
alles andere liegt im stockdunklen und ist praktisch kaum oder nicht mehr erkennbar ? das ist falsch, unrealistisch und grafisch schlicht unattraktiv. hat mich schon bei der präsentation damals gestört.
würde ich persönlich in der form gar nicht spielen wollen.