Bericht Nvidia GeForce RTX: Battlefield V mit Turing und Raytracing im Video

NONNNNN schrieb:
Das musst du ja auch garnicht! Spiel es auf deinem 1500€ Monitor in 4K mit mehr FPS als mit deiner aktuellen Karte. Aber halt ohne RT. So wie du es bisher auch getan hast. Wo ist da jetzt das Problem? Du meckerst rum weil du ein neues Feature nicht in 4k mit 60+ FPS spielen kannst, obwohl du es bisher gar noch nie nutzen konntest.

Sorry, ich muss leider zugeben, dass ich deinen Post nicht vollständig gelesen habe. Ich habe meinen Post JETZT schon zwei mal editieren müssen. Ich habe mehr Text hinzugefügt und es dann doch entfernt.

Ich meckere weil die neuen Karten in jeder Hinsicht zu schwach sind. RT läuft nicht wirklich gut und ohne RT ist Turing einfach nur ein schwacher und überteuerter Nachfolger.
 
Taxxor schrieb:
Schau dir die Nvidia Präsentation an

Das waren keine ernstzunehmenden Vergleiche. Raytracing wurde dort extrem gepusht und Grafiken durch Rasterisation tendenziell schlechter dargestellt, als es heutzutage möglich ist. Aus marketingsicht verständlich, dass die Unterschiede größtmöglich ausfallen sollten. Ist ja ne Werbeveranstaltung gewesen. Einen Vergleich zwischen BF1 und BF5 ohne Raytracing werden wir erst nach Release sehen.

Generell bin ich von dem Gameplay Video bzw den gezeigten Effekten sehr angetan. Die Reflextionen in den Pfützen und in den Fahrzeuglacken finde ich beeindruckend realistisch.
 
Taxxor schrieb:
Und das rechtfertigt, bis zu diesem Zeitpunkt irgendwann in über 5 Jahren(wenn man sich mal anschaut wie viele alte Karten heute noch genutzt werden) sämtlichen Nutzern von Karten ohne RT eine schlechtere Optik zu bieten, nur weil man sich nur noch auf RT konzentriert?

Zeig mir doch bitte ein im Handel erhältliches Spiel wo es bewiesen ist dass man ohne RT einen Downgrade hat. Danke.
Nicht die Nvidia Demo wo noch gar nicht fest steht ob es im finalen Spiel so einen Unterschied gibt. Könnte lediglich der Sache des direkten Umschalten geschuldet sein dass nicht alle Effekte ohne RT gleich aktiv sind.

Sowas werden erst die Test der finalen Fassung zeigen. Glaube irgendwie nicht dass Entwickler es riskieren in direkten Vergleichsvideos zu z.B. BF One den Kürzefen zu ziehen. Bis jetzt wurde auch vor der RTX Präsentation in den Betas von einer bessere Optik zum Vorgänger gesprochen. Dass sie es jetzt absichtlich zurückschrauben würde auffallen.
 
  • Gefällt mir
Reaktionen: Oneplusfan, chris333 und Toprallog
CBL schrieb:
Sorry, ich muss leider zugeben, dass ich deinen Post nicht vollständig gelesen habe. Ich habe meinen Post JETZT schon zwei mal editieren müssen. Ich habe mehr Text hinzugefügt und es dann doch entfernt.

Ich meckere weil die neuen Karten in jeder Hinsicht zu schwach sind. RT läuft nicht wirklich gut und ohne RT ist Turing einfach nur ein schwacher und überteuerter Nachfolger.
Woher weist du denn das Turing zu schwach ist? Die einzigen 2 Benches die wir haben sagen 50% und 40% mehr Leistung im Vergleich zum Vorgänger ohne RT. Sag doch nicht zu schwach, sondern deiner ansicht nach zu teuer.
 
  • Gefällt mir
Reaktionen: .Sentinel., t3chn0 und chris333
iamunknown schrieb:
Warum denn, das 8" Smartphone hat doch auch nur 640x480 weil der Unterschied einer höheren DPI nicht sichtbar ist.


Hä?!

Versteh ich was falsch oder redest du Blödsinn!?


Der Zeitpunkt ist gerade eigtl ganz gut, um so einen Brecher wie Raytracing in die Echtzeit-Grafik-Berechnung einfließen zu lassen.

AMD hat sowieso gerade Zwangspause bis die neue Gen im große Stile in Silizium gebracht wird.

Nvidia kann es sich erlauben, und wird noch die Modelle der letzten Gen los, die sonst in Lagern versauern würden.

Als Spieler kann man sich entspannt zurück lehnen und den Fortschritt genießen (und Raytracing ist und bleibt ein notwendiges Tool, um einen weiteren Schritt Richtung Fotorealismus gehen zu können).


Ich sehe das ganze so:
Ich sehe mich erst mal nicht genötigt aufzurüsten und kann mich dennoch auf zukünftige Generationen freuen.

Ich würde auch niemals mehr auf eine Auflösung unter WQHD zurück, und warte eigtl auch nur auf brauchbare 4K Displays mit einer sehr hohen Bildwiederholrate, da diese beiden Faktoren grundsätzlichere Verbesserungen darstellen, auch ausserhalb eines Videospiels, als Raytracing.

Trotzdem freue ich mich jetzt schon auf zukünftige Versionen und Arten der Implementierung von Raytracing, da der optische Gewinn (insofern richtig eingesetzt) einfach grandios ist.
 
  • Gefällt mir
Reaktionen: .Sentinel., t3chn0, chris333 und eine weitere Person
chris333 schrieb:
@Malar Ich glaube Du bist der jenige der hier etwas nicht versteht.

Langfristig werden es mehr und mehr Games einführen, und die Hardware dafür wird sich entwickeln, und bezahlbar werden. Also Rückschritt sieht anders aus.


Du meinst so wie es bei all den anderen Sachen passiert ist. Wo ist den PhysX abgeblieben? Wo sind die Spiele mit flächendeckendem Hairworks, grass works, Flameworks, XY works die Nvidia vorangetrieben hat. Fakt ist, dass all diese Sachen von den Entwicklern nicht aus eigenem Antrieb implementiert wird sondern nur wenn Nvidia dafür zahlt und gleich auch noch die Expertise in Form von Leuten liefert.

Overall hat sich rein gar nix getan und das ist wenig verwunderlich wenn man alles anderen versucht auszuschließen. Fortschritt geht nur im Gesamten und nicht weil ein Hersteller das gerne so möchte.

Raytracing ist cool keine Frage aber ich persönlich hätte gerne andere Dinge zuerst die bitte flächendeckend in Spiele eingebaut werden sollen:

- Gameplay Physik (keine bling bling Physik die nur schön anzusehen ist)
- Hairworks bzw. Tress FX in jedem Spiel bei jedem Charakter
- True Audio in jedem Spiel
etc pp.

Das wären richtige Gamechanger die auch die Grafikkarte bis zur Kotzgrenze auslasten können dafür braucht man kein neues Feature.

Nividia versucht hier ein Feature zu hypen, dass die Mehrheit der Leute gar nicht haben wollten und gar keinen Bedarf hatten. Sowas nennt man auch am Markt vorbeizuentwickeln.
 
  • Gefällt mir
Reaktionen: -Snaggletooth-, ~Executer~ und Iscaran
Glaube auch nicht dass Turing ohne RTX Core wesentlich stärker geworden wäre. Der Preisaufschlag würde sicherlich wesentlich geringer ausfallen. Aber warum soll der Nvidia-Gaul höher hüpfen als er muss? Den NM-Prozess kannst eh nicht mehr noch viel weiter prügeln. AMD hat "noch" nichts entgegenzusetzen und der Sprung zu 7nm wirkt dann umso beeindruckender der dann wieder zum Neukauf anregt.
Keine Firma gibt Vollgas wenn sie nicht muss.
 
Full-Scene Raytracing wäre in der Tat mal was nettes - aber es gibt auch mit Ray-Tracing Probleme speziell bei "diffusen" Lichtsituationen. Diese werden oftmals mit den klassischen "Tricks" bisher besser gelöst bzw. sind mit Raytracing nur mit immensem Mehraufwand an Rays zu schaffen.
Eine gut kurze Analyse dazu gab es schon 2007 auf Beyond3d:
https://www.beyond3d.com/content/articles/94/1
Intel zeigte bereits 2010 ein Real-Time Hybrid-Raytracing (es ist im Video offensichtlich dass noch nicht "alles" Raytraced wird).
https://techreport.com/news/19631/intel-shows-wolfenstein-ray-traced-in-the-cloud
Das ganze lief in 720p auf 4 KnightsFerry Server Racks/Boards. (also ca einigen Tausend CPUs ein XeonPhi hat ca 60 Cores und ca 240 Threads)

Im Vergleich dazu also sieht das heute weder "wesentlich" besser aus, noch hat man wirklich 100% RT, und auch die über-genauen Reflexionen die teils einfach unecht wirken sind eben dem geschuldet dass man nicht allzuviele Rays/s hat um eben genau das Problem der diffusen und indirekten Lichtquellen die auch im Ray-Tracing schwierig sind korrekt wieder zu geben. (siehe Beyond3d).

Auch die neuen RTX-Karten sind eben leider weit entfernt von wirklich "gutem" real-time RT. Immerhin kann man Stand 2018 nun schon Hybrid-RealTime-RayTracing (RTRT) auf FullHD mit bis zu 60FPS gegenüber 720p@30FPS im Jahre 2007.

Dann besteht ja Hoffnung dass man so ab 2028 rum wirklich Gutes (also auch im Umgang mit diffusem Licht und diffusen Oberflächen) Hybrid/Voll-RTRT auf 60FPS @4k sehen und implementieren kann.
 
  • Gefällt mir
Reaktionen: Sun_set_1
Sleight88 schrieb:
Wenn man davon ausgeht das irgend ein Sync verfahren hier auf 60 fps gecaped hat und es auch 80 sein könnten, sieht es für die 2080 nicht schlecht aus. Und die 2070 sehe ich auch nicht als unmöglich an damit mit rt zu spielen.

Ich glaube du verwechselst da was. Die 2080 Ti hat 60 FPS mit spürbaren FPS Drops geschafft (Richtung 30-40 FPS). Da ist eine 2080 eine ganze Klasse darunter.
 
  • Gefällt mir
Reaktionen: Taxxor und Baal Netbeck
Sleight88 schrieb:
Woher weist du denn das Turing zu schwach ist? Die einzigen 2 Benches die wir haben sagen 50% und 40% mehr Leistung im Vergleich zum Vorgänger ohne RT. Sag doch nicht zu schwach, sondern deiner ansicht nach zu teuer.
"Zu teuer für die gebotene Leistung" hat mehrere Blickwinkel. Entweder zu teuer oder zu wenig Leistung.

Aber selbst wenn sie 100% höhere Leistung hätte, dann dürfte sie im Vergleich trotzdem nicht 100% mehr kosten. Allerdings bewegen wir uns derzeit bei 100% höheren kosten (1080Ti vs. 2080Ti). Überleg mal wo wir da wären, vom ersten 486er mit 66Mhz zum aktuellen i9-9900K. Diese CPU könnten sich die 500 reichsten Menschen der Welt leisten.
 
  • Gefällt mir
Reaktionen: swael
RT ist nur dann ein Thema, wenn das von NVIDIA forciert wird und auch Entwicklerstudios ins Boot geholt werden. Die bislang angekündigten Titel, wovon der überwiegende Anteil nicht wirklich erwähnenswert ist, hievt RT nicht automatisch in eine höhere Ebene.

Für NVIDIA bedeutet Turing wahrscheinlich erst einmal Lernphase. Ich hoffe die hauen nächstes Jahr einen 7nm Refresh heraus.
 
Aldaric87 schrieb:
Ich glaube du verwechselst da was. Die 2080 Ti hat 60 FPS mit spürbaren FPS Drops geschafft (Richtung 30-40 FPS). Da ist eine 2080 eine ganze Klasse darunter.
Wäre ich mir nicht so sicher. Wir haben hier ein alpha game. Warten wir doch einfach die richtigen test ab.
 
Achtung könnte Ironie oder/und Sarkasmus enthalten!

Das NVIDIA max. 2 Karten an Kunden abgibt ergibt einen Sinn, wenn man die volle Leistung haben möchte, also mehr als 60 FPS bei FHD, muss man sich diese Brücke kaufen.
Kann sich keiner beschweren sollte er nicht die 120 FPS oder 144 FPS erreichen, ihr MÜSST 2 Karten kaufen um in den Vollen Genuss der neuen Technologie zu kommen.
Bei einer RTX 2080 Ti sind das gerade mal günstige 2518, - € + 84,99 € für die Brücke, also absolutes Schnäppchen für den längsten Balken, vorausgesetzt ihr habt auch noch eine entsprechende CPU verbaut.

Zitat Nvidia:

GEFORCE RTX NVLINK-BRÜCKE

The GeForce RTX NVLink™-Brücke verbindet zwei NVLink SLI-fähige Grafikkarten mit der 50-fachen Übertragungsbandbreite der vorherigen Technologien. Damit kannst du dich auf superflüssiges Gameplay bei maximalen Auflösungen in ultimativer Grafikqualität mit GeForce RTX 2080 Ti- und 2080-Grafikkarten verlassen.

https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2080-ti/
 
Sleight88 schrieb:
Wäre ich mir nicht so sicher. Wir haben hier ein alpha game. Warten wir doch einfach die richtigen test ab.

Zitat News: "Laut Dice werden bei der finalen Version stabile 60 FPS für 1.920 × 1.080 in Battlefield V anvisiert."

Muss ich die Leseverständnis Links nochmal einfügen?
 
@Sleight88:

Die Entwickler dieser Spiele (Metro Exodus) und Dice (BF V) sprechen selbst davon, dass sie HOFFEN! auf FHD mit der 2080 Ti durchgängig 60 FPS zu schaffen. Versprechen wollten sie es aber nicht.
 
Sleight88 schrieb:
Wäre ich mir nicht so sicher. Wir haben hier ein alpha game. Warten wir doch einfach die richtigen test ab.


"Laut Dice werden bei der finalen Version stabile 60 FPS für 1.920 × 1.080 in Battlefield V anvisiert. Die Angabe bezieht sich voraussichtlich auf eine GeForce RTX 2080 Ti bei ansonsten maximierten Details. Höhere Auflösungen werden in Battlefield V damit voraussichtlich nur ohne Raytracing flüssig wiedergegeben werden können. Das ist entsprechend ein großer Nachteil. Denn auf der einen Seite machen die Reflexionen mit Raytracing sehr viel Spaß. Auf der anderen Seite können Spieler, die eine höhere Auflösung gewöhnt sind, sofort erkennen, dass das Spiel eben nur in Full HD läuft. "
 
SKu schrieb:
Für NVIDIA bedeutet Turing wahrscheinlich erst einmal Lernphase. Ich hoffe die hauen nächstes Jahr einen 7nm Refresh heraus.
Klar für NV gibt es eine Menge zu lernen, für die Spielentwickler auch. Mit einem Refresh können wir wahrscheinlich erst ab 2020 rechnen. Um Entwicklungskosten zu amortisieren, sind 2-Jahres-Zyklen wohl sinnvoll.
 
Sleight88 schrieb:
Woher weist du denn das Turing zu schwach ist? Die einzigen 2 Benches die wir haben sagen 50% und 40% mehr Leistung im Vergleich zum Vorgänger ohne RT. Sag doch nicht zu schwach, sondern deiner ansicht nach zu teuer.

Die Leaks, die ich bisher gesehen habe zeigen, dass eine RTX 2080 kaum schneller ist als die 1080TI. Das erklährt auch wieso wir gleich eine TI zum Launch sehen. Logisch, stimmts? Und ja, die Karten sind zu teuer.
 
Fakt ist, wir brauchen Testberichte, die uns aufklären.
 
  • Gefällt mir
Reaktionen: ChrisMK72, Oneplusfan und v_ossi
Zurück
Oben