• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Battlefield V: Weniger Raytracing für mehr Leistung auf GeForce RTX

Mutig wäre es von Nvidia gewesen ihr eigens geschäftliches Risiko nicht auf den Kunden abzuwälzen und Mondpreise zu verlangen. Die Marge ist bei Nvidia groß genug, das ist bekannt, wäre also problemlos möglich gewesen. Einzig sie bekommen halt den Hals nicht voll.

Ohne Preiserhöhung würde es zudem dazu führen, dass umso mehr Leute RTX fähige Hardware besitzen und damit ein Anreiz geschaffen wird RTX zu implementieren. So wird es ein Feature bleiben das einzig eine 1200€ Karte darstellen kann (und auch nur so lala) und damit umso mehr Nische bleiben.

Also keine Ahnung warum hier die jublen die von RT begeistert sind. Für die Verbreitung macht Nvidia nämlich alles falsch was es falsch zu machen gibt (mal wieder).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Suteki, Hatch, Chismon und 5 andere
Galle81 schrieb:
Ich bin immer noch der Meinung, wenn man eine aktuelle GPU (GTX 10x0) besitzt, dass man auf die RTX 20x0 Serie getroßt verzichten kann und lieber auf die nächste Serie wechselt.

Das war in der Regel aber schon seit jeher der Fall. (Natürlich muss jeder selbst wissen, nach welchem Schema er seine Grafikkarte(n) austauscht.) Ich z.B. handhabe es seit ca. 20 Jahren so, dass ich mich an dem Game orientiere, das ich zum entsprechenden Zeitpunkt exzessiv zocke.

Sobald eine Grafikkarte in der lage ist die Leistung in meinem aktuellen Lieblings-Game in etwa zu verdoppeln, dann kaufe ich (meistens aus dem unteren HighEnd-Segment). Die Leistungssprünge von Generation zu Generation fallen natürlich manchmal recht unterschiedlich aus.

Ich habe z.B über die Jahre wie folgt geupgradet:
FX5900 -> 7900GTX -> 9800GTX -> GTX285 -> GTX670 -> GTX980 (hier hänge ich aktuell noch fest; würde aber gerne mal wieder upgraden).

Der Sprung den die 6800GTX damals von der FX5900 gemacht hatte war z.B. immens und ich konnte mich nur schwer vom Kauf abhalten... der Sprung von GTX480 auf GTX580 war wiederum echt meehh. Aber im Schnitt kann man sagen, dass ich immer 1 Generation komplett aussetze und dann im unteren HighEnd-Segment der darauffolgenden Generation kaufe und für 3-4 Jahre meine Ruhe habe.

Nach diesem Schema wäre meine GTX980 aus dem Jan.2015 in Kürze fällig für einen Austausch. Ich wollte die GTX10x0(Ti) komplett skippen und bei den RTX20x0(Ti) eigentlich wieder zuschlagen; aber so wie das aktuell aussieht warte ich noch ein weiteres Jahr, bis der Kram gereift ist und es vllt. sogar 7nm-GPU's geben wird.
 
Da nun bereits DICE schon die Richtung für aktuelles Hybrid-Raytracing (für Echtzeit-Raytracing fehlt wahrscheinlich noch in 10 Jahren die Rohleistung) vorgibt, indem sie eben einräumen, dass selbst auf Karten mit RT-Cores schonender mit RT-Effekten umgegangen werden muss, um die gewünschte Leistung erzielen zu können, rechne ich einfach mal damit, dass sie bis zum Nachpatch Presets für RT in Battlefield integrieren, damit auch Käufer einer 2070 noch mit Raytracing in den Genuss kommen können, wenngleich die RT-Effekte dann nur noch auf ein Minimum gesetzt sind.

Raytracing mag die Technik der Zukunft sein, ich bin aber nicht bereits NVIDIA Geld für ein Feature zahlen zu wollen, dass ich als WQHD@144Hz Nutzer überhaupt nicht nutzen kann. Weiterhin denke ich auch, dass ein Battlefield mit die schlechteste Wahl gewesen ist, um Raytracing präsentieren zu können. In einem Shooter präferieren die meisten Spieler eher hohe FPS als hohe Bildqualität. Tomb Raider war da definitiv die bessere Wahl, wenn auch dort wahrscheinlich Crystal Dynamics massiv an Effekten einsparen werden muss, damit das Spiel überhaupt mit konstanten 60fps in FullHD läuft. Eher noch hätten sie RT für PvE-Shooter wählen sollen wie TD2 oder Anthem.

Eigentlich war ich auf die Tests der RTX-Karten gespannt aber mittlerweile gehen mir die Karten getrost am Allerwertesten vorbei. Wenn AMD 7nm Gaming-Karten in 2019 bringt, wird NVIDIA nicht viel später auch auf den Zug aufspringen. Ich denke, Turing könnte weitaus schneller zum Alteisen gehören als es bei Pascal der Fall ist.
 
  • Gefällt mir
Reaktionen: Dai6oro
  • Gefällt mir
Reaktionen: Piter73
Dai6oro schrieb:
Mutig wäre es von Nvidia gewesen ihr eigens geschäftliches Risiko nicht auf den Kunden abzuwälzen und Mondpreise zu verlangen. Die Marge ist bei Nvidia groß genug, das ist bekannt, wäre also problemlos möglich gewesen. Einzig sie bekommen halt den Hals nicht voll.

das wäre nicht mutig sondern dämlich gewesen, gerade in jetziger Situation wo man locker 50% vor der Konkurrenz liegt. Aber deswegen macht Nvidia und nicht du die Millionen. Was du hier beklagst ist eben typisch Kapitalismus und Geschäftswesen.

@SKu
ich denke aktuell macht es wenig Sinn wegen TR und RTX sich ne neue Karte zu holen. Ich hätte von mehr Shadern auch mehr da ich in 4K noch FPS brauchen kann. Es ist aber eher ne psychologische Sache, ma kann auch oft das Preset um 1 Reduzieren und sieht kaum nen Unterschied. Aber ich hadere immer damit das zu tun ;)

Wie gesagt ist das jetzt ganz am Anfang. Das ist wie sich ne 3D Grafikkarte in den 90ern gekauft zu haben wo 99,5% der Games alle 2D waren.
 
ZeXes schrieb:
frühstens bei der PS6 Einzug halten


aktuell glaube ich nicht, dass es diese geben wird. :D

das full raytracing von dem du sprichst wird wohl noch 10 jahre mindestens brauchen. ob es jemals im pc einzug hält oder dann nur per streaming möglich sein wird, muss die hardware entwicklung zeigen. die konsolen werden es mMn "niemals" haben.

diesen "mischmasch" von heute kann man relativ einfach über dx12 oder mantle (vulkan) darstellen. die dx12 technik ist schon "ewig" alt und die eigentliche technik von 2002. geht dann immer nur um die "power" die deine shader für diese berechnung zur verfügung stellen. daher wirbt nvidia auch immer mit xxx mal schneller als mit "normalen shadern"

"können" werden die neuen konsolen es ziemlich sicher über software, die geschwindigkeit und qualität ist vor allem von bandbreite und rechenpower abhängig. ob man dann genug leistung hat, um bestimmte effekte in raytracing zu berechnen, wird man sehen. kennt ja noch keiner die rohleistung des neuen chips. ob dann noch hardware beschleunigung ins spiel kommt, nun ja....kA :evillol:

mfg
 
Dai6oro schrieb:
Dice hat mit BFV ganz andere und vor allem wichtigere Probleme zu lösen. Ich schlage vor man kümmert sich erstmal um das eigentliche Spiel bevor man Bling Bling implementiert.


mit bling verkauft man. korrekte physik usw sieht man nicht so deutlich.

wesentlich mehr würde mich interessieren, wenn man die rtx vollständig für herkömmliche (rasterisierte) grafik mit möglichst hohen frames nutzen kann, anstatt bestimmte bereiche für raytracing zu reservieren, die dann brach liegen, wenn man das feature dann nicht nutzt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
GGG107 schrieb:
Und die bringt man unfertig auf den Markt?

Bananen reifen beim Kunden.

Der Kunde muss ja auch die Entwicklung bezahlen, wie sollen die Jungs denn sonst weiter machen ?

War eigentlich klar als es hieß "gerade so 60 fps bei FullHD"

das die Karte mit RT einfach zu langsam ist.
Wie die 1080 Ti für 4K

Schon Tee trinken und abwarten :)
 
ZeXes schrieb:
Grund? Ganz einfach. Die Next Gen Konsolen Xbox Two(?) und PS5 werden 100% nicht
RayTracing unterstützen. Das heißt das die Technik dann frühstens bei der PS6 Einzug halten wird
und das wird dann halt noch 10+ Jahre dauern.
Und woher weißt du das so genau?
 
Schön aber ich bin Kunde nicht das Unternehmen. Dann muss der Kunde der hier über RT jubelt auch einsehen, dass es erstmal nix wird mit einer flächendeckenden Verbreitung von RTX.

Es ist eben so offensichtlich dass Nvidia dies nur macht aus Marketinggründen und nicht um uns Kunden ein besseres Erlebnis zu bieten. Sorry dass ich aus Kundensicht argumentiere. Du kannst ja gerne den Part des Unternehmers spielen, aber dann kann ich dich nicht ernst nehmen. Voranbringen wird uns das nicht, daher finde ich das von Nvidia weder mutig noch sonst irgendwie bewunderswert.
 
  • Gefällt mir
Reaktionen: Dark Matter
Dai6oro schrieb:
Mutig wäre es von Nvidia gewesen ihr eigens geschäftliches Risiko nicht auf den Kunden abzuwälzen und Mondpreise zu verlangen. Die Marge ist bei Nvidia groß genug, das ist bekannt, wäre also problemlos möglich gewesen. Einzig sie bekommen halt den Hals nicht voll.
Wenn das nur so einfach wäre. Da, wo Anteilseigner/Aktionäre im Spiel sind, ist der Spielraum nicht sonderlich groß.
 
Torr Samaho schrieb:
wesentlich mehr würde mich interessieren, wenn man die rtx vollständig für herkömmliche (rasterisierte) grafik mit möglichst hohen frames nutzen kann, anstatt bestimmte bereiche für raytracing zu reservieren, die dann brach liegen, wenn man das feature dann nicht nutzt.

das interessiert mich auch. Denke man muss da sehr bedacht mit den Effekten umgehen.

Beide Techniken sollten eigentlich recht unabh voneinander agieren können, heißt mit verminderten RT Effekten sollten ggf auch 4K mit hohen FPS zahlen gehen. Manchmal spart man sich ggf durch das Weglassen von üblichen Schatten und Spiegelungen (Verlagerung nach RT) sogar Rasterizing Power ein, hat zb dann 120 FPS und nur die RT Effekte in 30p.

Nvidia ist da sehr auf die Publisher / Entwickler angewiesen und auf das was sie draus machen. Die haben ja auch noch kaum Erfahrung damit.
 
Klingt für mich, als hätte man erst kürzlich einfach die Baukastenlösung von NVidia integriert und beginnt erst jetzt damit überhaupt zu optimieren.

Mich beschleicht ja auf der Verdacht, dass Turing wie Vega ein Computemonster ist, aber bei Rasterizing nicht so opulent vorlegt. Und damit man nicht tote Chipfläche mit sich herumschleppt hat man rasch auf der Softwareseite Features kreiert, die das trotzdem nutzen können. Ich bleibe neugierig, wie es wirklich wird. Sowohl Turing, als auch Raytracing (:
 
Dai6oro schrieb:
Schön aber ich bin Kunde nicht das Unternehmen. Dann muss der Kunde der hier über RT jubelt auch einsehen, dass es erstmal nix wird mit einer flächendeckenden Verbreitung von RTX.
naja, der Vorsprung zur Konkurrenz ist so groß wie nie. Wieso sollte das also nix werden? Wegen Mondpreisen? Apple zeigt gut dass das wenige daran hindert.

Stell dir für nen Moment vor Nvidia hätte nichts von dem RTX erwähnt und die Karte so rausgehauen. Aufgrund der reinen Gaming Performance würde sie auch ohne RTX mehr als genug Käufer finden.
 
Krautmaster schrieb:
Beide Techniken sollten eigentlich recht unabh voneinander agieren können,


den aktuell eingeschlagenen weg empfinde ich sogar ziemlich durchdacht. man nimmt mit größer werdender rechenleistung immer mehr effekte und entwicklungszeit im pre rendering bereich weg und implementiert halt stück für stück licht, schatten, spiegelung usw in echtzeit.

am ende schaltet man das "raster" einfach aus. ob das 10 jahre oder 20 dauert, wird man sehen.

mfg
 
  • Gefällt mir
Reaktionen: Neo1179 und .Sentinel.
JaKno schrieb:
Riesenaufpreis für ein Feature, das es so noch nicht viel bringt. Trotzdem wird es gekauft, weil viele einfach nur das Beste/Neueste haben müssen.
Für Technik Nerds ist sicherlich das Neuste interessant, ob RTX Turing auch das Beste ist, das würde ich doch stark bezweifeln, zumindest zum heutigen Zeitpunkt!
 
  • Gefällt mir
Reaktionen: Dark Matter
Eine Add on Karte ala Voodoo 1 für RT wäre das richtige gewesen. Aber die schnallen es nicht außer die 2080 Ti hätten sie vielleicht noch massen an RT Beschleuniger verkauft für ältere Systeme. Wird aber nicht realisierbar sein weil es mitten im Rendern passiert.
 
Interessant für mich ist ob Amd bei ihrerer 7nm Navi Gamerkarte dann auch RT einbaut oder ob sie den anderen Weg gehen und dieses Feature einfach NVidia überlassen und dafür Performance satt anbieten.
Hat doch bei der x800 Reihe damals auch geklappt . Haben viele lieber zu der P/L Karte gegriffen als die neuen Karten zu nehmen die zwar die Qualität steigerten aber teils langsamer waren.
Vielleicht wäre für AMD eine Strategie ohne RT derzeit nicht verkehrt, sondern eher den Platz für mehr Shader und eine bessere Effizienz zu nutzen und den Mid Range berreich unter 500€ für sich zu Gewinnen.

Finde auch bei den Konsolen, wo die Leute sowiso nicht ganz so tolle Grafik gewöhnt sind und brauchen wäre der Schritt hin zu nativen 4k in allen Games und evtl. 60fps besser als hier auch mit muss RT einbauen zu wollen.
Zumal ja die RT Cores anscheinend auch ordentlich Saft benötigen und Konsolenchips sollen ja auch in einer gewissen TDP bleiben.

Zock schrieb:
Eine Add on Karte ala Voodoo 1 für RT wäre das richtige gewesen. Aber die schnallen es nicht außer die 2080 Ti hätten sie vielleicht noch massen an RT Beschleuniger verkauft für ältere Systeme. Wird aber nicht realisierbar sein weil es mitten im Rendern passiert.

Sicher eine interessante Möglichkeit, allerdings fraglich ob jemand mit einer 380,290 / 670 wirklich 100-200€ nur für einen Effekt ausgibt. Wäre auch nur wieder für die Enthusiasten interessant, denke ich mal.
Mit 7nm wird das auch leichter, da gewinnen sie etwas Fläche und können genug zusätzliche RT Cores bringen.

Vielleicht bringt NV Turing auch nur so, weil sie sowiso im Profiberreich hier ein ähnliches Desing haben und es mehr Entwicklungskosten verursacht hätte, extra das MAxwell/Pascal Design zu optimieren ?

Ps.: Kommt CB nicht für den RTX Test an eine Titan V ran, wäre interessant die auch mitgetestet zu sehen.
 
Zuletzt bearbeitet:
Zurück
Oben