• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Battlefield V: Weniger Raytracing für mehr Leistung auf GeForce RTX

GGG107 schrieb:
Also weniger RT für eine Nvidia RTX die auf RT ausgelegt ist - aus Performancegründen.
Das hat es ja voll gebracht mit der RTX - Respekt!
Falls sich RT je durchsetzt (und nicht so wie ich glaube nur glorifiziertes PhysX ist und bald wieder weg vom Fenster), dann werden 10 "Gigarays"/s wohl schon in 2 Jahren nur sehr wenig sein. Und dafür hat man dann 1.200 Euro ausgegeben... selbst Schuld.
 
Chillaholic schrieb:
Hast du seinen Beitrag gelesen? Er bezog sich auf "neue Features". Ob er Ray Tracing auf seinem UW-UXGA mit 160 Hz aktiviert, kannst du ja mal selber überlegen. Macht bestimmt richtig Bock bei der Menge an Pixeln auf so geringer FPS zu zocken. Mein Beitrag hat nur darauf hingewiesen, dass ausgerechnet er warscheinlich wenig von diesen Features profitieren wird.

Hab ich. Er will: Schnellste Gaming-Karte -> bekommt er; Neueste Features -> bekommt er auch.

Dass er keine 160fps mit Raytracing bekommt ist ihm sicherlich selbst klar. Da braucht's keinen Hinweis.
 
  • Gefällt mir
Reaktionen: Lübke82 und t3chn0
Dark Matter schrieb:
Und genau deswegen sollte doch jeder Gamer der bei Verstand ist, eben keine 1300€ für eine Graka und Technik ausgeben die nicht ausgereift ist und nicht die benötigte Leistung hat.
Hast du das denn überhaupt erwartet? Bitte denk mal objektiv über RT nach, mit den Infos die du die letzten 30 Jahre sammeln konntest.
Du hast wohl keine Ahnung gehabt, wie rechenaufwändig das ist. Du wirst noch viele viele Gens sehen, die deinen weltfremden Anforderungen nicht gerecht sind. Wer weiß, ob RT überhaupt in 10 Jahren da ist, wo du sie es heute schon erwartet hast.
 
  • Gefällt mir
Reaktionen: Lübke82
Tommy Hewitt schrieb:
Dass er keine 160fps mit Raytracing bekommt ist ihm sicherlich selbst klar. Da braucht's keinen Hinweis.
Du meinst, dass er von den "neuen Features" aufgund seines Anwendungsprofils gar nicht profitiert.
Das hat er aber als Argument angegeben... Komische Argumentation.
 
Also ich bin jetzt schon fertig mit der 2000er Serie - hab mir eben ne neue 1080 Windforce 3x gechartert; zum Abverkaufspreis von 399 € - sollen se ihre 800-1000€ 2080er verkaufen an wen se wollen, mir Latte - die 1080 wird die nächsten paar Jährchen noch locker durchhalten - In diesem Sinne, maybe better luck next time Nvidia. ^^
 
Ich verstehe die Aufregung nicht. Technische Neuheiten kommen immer als erstes im High End-Bereich und sind exorbitant teuer im Vergleich zum anfänglichen Nutzen. War schon immer so.

Ausserdem: Der Markt macht den Preis. Ein Markt existiert aber nicht mehr. Wenn die 2070 und 2080 (Ti) rauskommen, hat Nvidia nicht nur die drei mit Abstand schnellsten Karten am Start, sondern auch drei Karten mit einem Alleinstellungsmerkmal. Dieses Monopol lässt sich Nvidia vergolden, ob es den Leuten passt oder nicht. Zudem muss man hier eine Pionierleistung bescheinigen, die bestimmt einen recht hohen Entwicklungsaufwand bedeutet. Einer musste ja mal anfangen, das hat Nvidia nun getan und auch das muss refinanziert werden.

Ob AMD mit Navi da wirklich derart Bewegung reinbringen kann/will wie im CPU-Sektor mit Ryzen, steht vollkommen in den Sternen. Ob bei den Intel-Ambitionen etwas für Consumer abfällt, ebenfalls.
An Vega 20 sieht man doch bereits, dass Consumer-Grafiklösungen nicht mehr im Fokus von AMD stehen.

Zur Effektreduzierung:
Der Raytracing-Trailer war doch per Definition eine Techdemo. Kann nicht verstehen, dass jemand ernsthaft geglaubt hat, das würde 1:1 in das finale Produkt übernommen. Nun wird es auf ein normales Maß heruntergeschraubt, damit es auf der Hardware der ersten Stunde gut läuft. Die Early-Adaptor haben trotzdem einen Mehrwert.
 
Zuletzt bearbeitet: (Mein Gott, soviele Satz- Textaufbau- und Rechtschreibfehler in den paar Zeilen.)
  • Gefällt mir
Reaktionen: Lübke82 und 0xtapi
andi_sco schrieb:
Naja, konnten die ersten DirectX 8, 9, ... Grafikkarten den vollen Funktionsumfang flüssig darstellen?

Nein, konnten sie meist nicht.
Die hatten aber auch nicht alle ~50% Aufpreis zur vorherigen Generation.
Damals gab es die neuen Effekte sozusagen "geschenkt", als Kaufargument für die neue Generation.
Das, was es jetzt gibt, ist eher so, als müsse man eine zusätzliche Beschleunigerkarte für RT kaufen, die aber nicht optional ist. Wer kein RT oder gar AI haben will muss trotzdem dafür draufzahlen oder eben auch auf die erhöhte Rasterisierungsleistung verzichten, indem er irgendwas unter der RTX 2070 kauft.
Ganz nebenbei muss man dann, um den vollen Funktionsumfang (der Rasterisierungseinheiten ohne RT und AI) ausnutzen zu können (also z.B. 4K >60Hz mit GSync) nochmal 500€ beim Monitor drauflegen...
 
Dark Matter schrieb:
Man stelle sich nur vor wenn bei jedem Upgrade der Grafik (z.b. DX 7 - DX 8 - DX 9 - DX 10 usw.) jedesmal die Grakas 50-100% teurer geworden wären!?

lässt sich halt auch 0 vergleichen. Nun mit RT anzufangen ist eher der umstieg von 2D zur 3D Grafik. Das wäre wie wenn Intel nun X86 verabschiedet.
 
  • Gefällt mir
Reaktionen: Lübke82
Cl4whammer! schrieb:
Es besteht ein Unterschied zwischen "optimieren" und wir machen die Effekte wieder weniger weil es anderes einfach nicht geht. Erst damit werben und dann die Effekte wieder entfernen, da kann ich die Kritik durchaus verstehen.

Sie machen aber die Effekte nicht weniger, sondern sie nach Aussagen des technischen Leiters in Ihrer Intensität zurückgeschraubt, weil es teils übertrieben und unrealistisch aussah. Genau das was alle kritisiert haben, wird also jetzt nach den Wünschen der User abgeändert. Zudem werden einzelne Performancefallen entschärft.

Also was ist jetzt los? Wieso soll das, was alle gefordert haben den nun plötzlich schlecht und der Untergang sein?
Können sich die Kritiker vielleicht mal entscheiden?

Grüße
Zero
 
cookie_dent schrieb:
Blödsinn
Es sei den das Du mit "anständig zu befeuern" meinst, das bis jetzt keine Karte die 4K mit 144 FPS schafft - aber das wird eine 2080Ti auch nicht können.
Du musst meine Aussage in dem Kontext sehen, das mein Vorposter der Auffassung ist das er mit einer 2080TI nicht genug Leistung für 4K hat. Damit kann nur gemeint sein "alle Regler nach rechts und bitte 144 FPS".

Wenn das nämlich seine Anforderung ist, dann hat er sich einen Monitor gekauft der mit aktueller Hardware nicht zu betreiben ist.
 
  • Gefällt mir
Reaktionen: .Sentinel.
duskstalker schrieb:
https://www.overclock3d.net/news/so..._currently_exclusive_to_nvidia_rtx_products/1

es beginnt :daumen:

ich mein - ist klar, dass nvidia derzeit die einzige hardware mit dedizierten raytracing einheiten hat - aber auch konventionelle grafikkarten ....

Dagegen zitiere ich:
That can be resolved as we get hardware from another potential manufacturer.
And when AMD comes up with its own DXR-capable GPU, DICE will need to go back and re-tune Battlefield V to support it.
 
  • Gefällt mir
Reaktionen: t3chn0
zombie schrieb:
Wie war das doch bei AMDs Vega gelaufen ?

Na ja, nur der Name der GPU-Generation hat nicht ganz gestimmt ...

... aber die "poor" Bezeichnung seitens AMD/RTG stimmte dann wohl doch, nur eben "Poor Turing" und nicht "Poor Volta" :lol: ...
 
"die neue Technik biete lediglich eine bessere Grafik für leistungsstärkere Rechner"

Ich weiß nicht was ich von diesem Satz halten soll....bin jetzt aber zu faul ihn korrekt zu erörtern.
Darf jeder für sich machen ;)
 
LencoX2 schrieb:
Das kann ich dir gerne beantworten:
In der Halbleiterbranche sind die Wafer, ein sehr wesentlicher Kostenfaktor. Aus einem Wafer werden x funktionsfähige Chips gefertigt, die wiederum pro Stückpreis verkauft werden.
Daraus folgt, dass bei konstanten Kosten eines Wafers, falls durch Chipdesign oder Strukturgröße etc., y mehr funktionsfähige Chips gefertigt werden, die Kosten pro Chip sinken.
Anders gesagt: Mehrleistung kostet gleich viel oder weniger.

Das muss nicht für andere Industriezweige wie Metall, Elektro gelten !

Genau- Die Die größe des Turing ist eheblich gestiegen und die Yield gesunken. Ist also logisch, dass der Preis schon aufgrund des GPU Chips steigen muss.
 
  • Gefällt mir
Reaktionen: Lübke82
[wege]mini schrieb:
nvidia wird die neuen karten nicht drastisch im preis senken.
sag ich auch nicht. Das passiert erst wenn AMD wieder in die Pötte kommt oder war es bei den CPU und Intel etwa anders?
Ergänzung ()

ich denke für die meisten hier kann das laut CB gut funktionierende neue Deep Learning AA zunächst den deutlich größeren Mehrwert darstellen als RT.
Gute Glättung ohne "Verwaschen" bei weniger Performance Drop. Das macht schnell noch mal 1-20% on top.
Erste Eindrücke zur DLSS-Kantenglättung
Darüber hinaus hatte ComputerBase die Möglichkeit, sich die neue DLSS-Kantenglättung (Deep-Learning-Super-Sampling) einmal selbst anzuschauen. So war ein Vergleichssystem aufgestellt, das die Infiltrator-Demo von Epic gezeigt hat. Auf dem einen Monitor lief die Demo mit dem klassischen TAA, auf dem anderen mit dem neuen DLSS. Und in der Tat sah das Ergebnis mit DLSS deutlich besser aus – in zweierlei Hinsicht. Zunächst war die Kantenglättung selbst deutlich besser. Das TAA behandelt in der Demo manche Kanten zwar sehr gut, andere dagegen aber weniger, sodass das Bild flimmert. Mit DLSS werden die Kanten dagegen fast durchgängig besser geglättet, sodass das Bild ruhiger erscheint. Darüber hinaus verliert die Demo mit TAA etwas an Bildschärfe. Das Problem zeigt sich mit DLSS nicht. Und zu guter Letzt gibt es kleinere Bildelemente, die mit TAA nicht mehr korrekt dargestellt werden, mit DLSS aber schon. Schlussendlich ist das DLSS in Epics Infiltrator-Demo sichtbar besser als das Temporal Anti-Aliasing.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und Darkscream
Revan1710 schrieb:
@ZeT
Für FHD reicht eine Pascal-Karte locker aus, also was rechtfertigt dann den Kauf von Turing bzw. generell ein GPU-Upgrade? Du würdest also für FHD von einer 1080 auf eine 2080 um RT nutzen zu können?

Es gibt genug die jetzt schon in UHD spielen und noch mehr die es in absehbarer Zeit wollen. Wenn Nvidia das ignoriert, ignorieren sie eben den Mark. RT mag ja ein nettes Feature sein, aber es hat nie jemand gefordert im Gegensatz zu mehr Performance für UHD

Wäre für mich durchaus ein Grund gewesen eine RTX zukaufen. UHD kenn ich niemanden der so einen Monitor hat. Die meisten sind von FHD auf WQHD umgestiegen. Und die Frage ist doch wie relevant is der (High End) Gaming Markt? Die RT Cores wurden wohl eher für professionelle Anwendungen entwickelt und haben so den Einzug in die Gamingkarten erhalten.

Und wie gesagt, die handvoll High End User sind nicht die Erwähnung und Berücksichtigung wert da sie auf Nvidias Umsatz keinen wirklichen Einfluß haben. Ich geh schwer davon aus, das die am meisten verkauften Grafikkarten die 1050TI - 1070 waren.
 
Scheint es haben genug RTX Karten vorbestellt, jetzt können die Spielentwickler diesen Raytracingscheiß wieder zurück nehmen.

Es werden bestimmt andere Entwickler nachziehen.
 
  • Gefällt mir
Reaktionen: CBL
ZeT schrieb:
Weil 4k keinen außer 1% der Spieler interessiert und somit auch Nvidia nicht. Und das völlig zurecht.
Na sicher doch, und die restlichen 99% zahlen über 1000€ für eine Grafikkarte um dann in 1080p mit ca. 40 FPS zu zocken. Schon klar. ;)
 
  • Gefällt mir
Reaktionen: DarkerThanBlack und Zitterrochen
ZeroZerp schrieb:
Dagegen zitiere ich:

Weil das reinpatchen von solchen Sachen auch immer grandios funktioniert hat.

Außerdem kommt im Produktzyklus von bf 5 keine fremde Karte mehr, die die Voraussetzungen (dxr raytracing Hardware) erfüllt.

Die müssen den Code für alles andere als rtx neu schreiben. Das wird für so gammlige radeon gpus nicht passieren, die sowieso niemand kauft.

Und Postmortem braucht man mit Patch Support bei EA auch nicht mehr rechnen, das ding ist dann tot.
 
Zurück
Oben