Test Battlefield V mit DXR im Test: Die Strahlen sind los

EMkaEL schrieb:
in diesem video geht es ausschliesslich um VR! das ist nicht zu vergleichen mit non-VR gaming.
Das ist falsch! In dem Video kann man schön sehen, das SLI Null bringt, wenn nicht die Games auf SLI ordentlich optimiert werden. Aber ordentliche Optimierung bedeutet natürlich Mehrarbeit und Personal zur Verfügung stellen, was aber oft an den zur Verfügung gestellten Ressourcen scheitert! Scheinbar ist der Mehrwert an SLI Systemen überschaubar, so das dies sich für Nvidia nicht wirklich lohnt, sonst würde man dieses Thema nicht so vernachlässigen!
 
cookie_dent schrieb:
Schön das Du Deine eigene subjekive Meinung als die einzig Richtige darstellst.
Aber hast Recht, hier sind alle doof und verblendet - außer Dir natürlich.

Ich seh das exakt wie Mustis.
 
v_ossi schrieb:
@Wolfgang Könnt ihr/Kannst du evtl. noch ein paar Worte zum Stromverbrauch sagen?

Ist der gestiegen, jetzt wo die Karte erstmals komplett ausgelastet ist? Und wenn ja, wie viel?

der verbrauch sinkt - raytracing berechnung ist ein bottleneck, der core wird nicht voll ausgelastet.

irgendwie bitter, dass die 2080 ti mit ihren


nichtmal für reflektionen ausreicht - dabei wollte man noch schatten und licht mitberechnen. :freak:
 
  • Gefällt mir
Reaktionen: Baal Netbeck
t3chn0 schrieb:
Man liest jetzt hier immer wieder wie schlecht die 2er Serie doch ist und wie clever es war eine 1080Ti zu kaufen.
Niemand geht darauf ein, dass eine 2080Ti in 4K auch ohne DXR deutlich schneller ist als eine 1080Ti und es zum ersten Mal möglich ist mit vollen Details, durchgehend mit 60FPS+ zu spielen. Auf einer Single GPU. Das wollten doch immer alle....nun nicht mehr?

Natürlich ist die 2080Ti die derzeit schnellste Karte und man kann durchgehend mit hohen Details in 4K spielen was eine beachtliche Leistung darstellt.
Ich zocke mittlerweile über ein Jahr in 4K und möchte es nicht mehr missen, muss aber mit der 1080Ti bei einigen wenigen Spielen die Regler etwas nach links verschieben. Ich habe natürlich den Wunsch das ich 4K bei allen Spielen mit Ultra Settings zocken kann, sehe es aber absolut nicht ein für ca. 20 FPS mehr so viel Kohle auf den Tisch zu blättern.
Ich habe im August letzten Jahres für die 1080Ti 707€ bezahlt, eine 2080Ti kostet im besten Fall 1150€ und dieser satte Aufpreis sind mir die 20 FPS nicht Wert. Für ca. 850€ hätte ich sie mir wohl gekauft, alles andere ist hinter meiner Vernunftsgrenze.
RT ist für mit derzeit ein Gimmik und ein Blick in die Zukunft aber mehr auch nicht.
Vor allen Dingen werde ich dafür nicht wieder auf Full HD downgraden.
Und RT bei der 2070 ist für mich ein schlechter Witz.
Ergänzung ()

ZeT schrieb:
Ich seh das exakt wie Mustis.

Ist ja auch in Ordnung.
Mir gehen halt nur schon mal die Nackenhaare hoch wenn jemand seine eigene Meinung als die einzig richtige darstellt.
Vielleicht gehört RT ja die Zukunft, wer weis. Aber im Moment bin ich noch nicht so richtig davon überzeugt.
RT ist im Moment noch viel zu Kompromissbehaftet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MUKK86 und TheUngrateful
Ich finde RT bei Battlefield überhaupt nicht eindrucksvoll.
Es ist ein nettes Gimmick, mehr nicht. Zudem schafft es Dice wieder mal nicht DX12 vernünftig zu implementieren, was einfach nur noch lächerlich ist.
 
  • Gefällt mir
Reaktionen: hannes130185
cRoss. schrieb:
Bei der Leistung selbst in 1080p wird DXR wohl ein Feature bleiben, was man ab und zu mal anschaltet, um seinen Freunden zu zeigen, fürs eigentliche Spielen aber zugunsten besserer Framerates komplett abschaltet :P
Das hat sich ja schon früh abgezeichnet, trotzdem hat CB weiter von "viel Zukunft" der RTX-Karten schwadroniert.

Dabei ist das definitiv falsch: Entweder RT setzt sich durch, dann sind die paar RT-Kerne die ne 2080 Ti hat in fünf Jahren sowieso verzehnfacht. Oder RT setzt sich nicht durch, dann braucht man die RT-Kerne auch nicht.

Wie man es auch dreht und wendet - eine RTX-Karte zu kaufen lohnt sich nicht.
 
Mustis schrieb:
Die Ignoranz hier ist wieder mächtig. Sind die LEute alle so jung oder so vergesslich, dass sie sich an die Einführung von AA nicht mehr erinnern? An Spiele wie Freespace oder Far Cry/Crysis, die teilweise erst 2 Grafikkarten Generationen in Ultra flüssig spielbar waren und selbst dnan nur auf Highend Hardware?

100% Zustimmung, zumal es ist ja noch nicht aller Tage Abend ist, was weitere Optimierungen des Directx12 Pfades anbelangt, da dürfte doch noch einige an Leistung drinnen sein.
Ich kann es mit einer RTX 2070 zwischen 30 und 40 FPS auf Full HD spielen, alles auf Max. inkl Raytracing.
Natürlich ist das nur was für Grafikfetischisten und nichts zum dauerhaft auf "on" lassen, aber toll finde ich es allemal.
Wenn das nach den nächsten Updates mal schneller läuft, aktiviere ich es auch dauerhaft.
Das Denoising läuft noch über die Shader und gar nicht mal über die Tensor Cores.
 
Zuletzt bearbeitet:
Ehrlich gesagt ist mir in den verschiedenen Videos und Bildschirmfotos der verschiedenen Testseiten keine erhebliche Verbesserung der Grafikqualität mit Raytracing On aufgefallen - ich finde eher das viele der Effekte doch sehr "blockig" und damit billig aussehen und ich solche Effekte in so niedriger Qualität nicht in meinen Spielen haben möchte!

Und schon garnicht für DEN Preis!

Ich seh Raytracing nicht in den nächsten 1 bis 2 Grafikkartengenerationen solche Verbesserungen durchlaufen, das der Leistungseinbruch minimisiert und die Qualitätssteigerungen gigantomaxiert werden...
 
  • Gefällt mir
Reaktionen: TheUngrateful und Seskahin
sehr schön, endlich geht es mal weiter in der Entwicklung!
Wie toll war es doch zu Zeiten Crysis, als man mit starker Hardware bei 20 fps dahin ruckelte, es aber dennoch spielte, weil es eben so toll aussah. Und jedes Hardwareupdate brachte dann mehr frames obwohl man Crysis auch schon mit etwas mehr als 30 fps akzeptabel spielen konnte.
Endlich mal neue Technik, da kann ich ja jetzt auch mal wieder über ein Systemupdate nachdenken. Müssen nur noch vernünftige Spiele herauskommen. BF habe ich noch nie gespielt.
 
  • Gefällt mir
Reaktionen: pietcux und .Sentinel.
keine frage, sieht ganz nett aus, aber im multiplayer ganz sicher nicht zugebrauchen (stand heute), aber mal sehen, wie sich das in den nächsten grafikkarten-generationen durchsetzt und wie die leistung da noch (massiv) gesteigert werden kann. in anderen (singleplayer)-spielen, abseits von hektischen shootern, könnte das aber durchaus überzeugen.
 
Bei DEM Leistungshunger ist Raytracing aktuell (leider) völlig sinnlos. Die verschwendete Hardware-Power würde ich eher für bessere Texturen und mehr Details nutzen. Die meisten Spiele verwenden für ihre Flora immer noch flache, klobige Sprites, Blattwerk aus der Nähe wirkt wie kantig, eindimensionaler Pixelmatsch. Alles zu seiner Zeit, sage ich :)
 
  • Gefällt mir
Reaktionen: Orcon
Dome87 schrieb:
Toller Test, Raytracing ist also schön, nicht perfekt und im Anfangsstadium. Meine 2080Ti kommt am WE, ich bin gespannt (1080p 144Hz) :) Für RT habe ich sie nicht geholt, aber wenn man es nutzen kann, wieso nicht...
Was ein Schwachsinn :D:D Putzig das die Leute echt denken Raytracing sei eine neue Nvidia Erfindung :D:D:D das gibt es schon ewig und drei Tage..... Das Feature zu bewerben ist im Prinzip lächerlich, der Algorithmus ist sogar halbwegs "einfach", aber auf Grund seiner Rekursivität extrem Leistungshungrig. Im Prinzip gab es um 1500 rum schon Raytracing Techniken. Filme wie Herr der Ringe etc. sind alle durch Raytracing Algorithmen gelaufen. Raytracing war bei nvidia btw auch schon zu gtx480 zeiten ein Thema (damals im Studium habe ich mit 2 davon eine live Vorführung gemacht und wir haben alle schön Minuten lang gewartet, bis sich das Bild nach und nach aufgebaut hat. Heute ist die Hardware einfach stärker, daher kann man es jetzt auch in Echtzeit. Aber Raytracing ist NICHT im Anfangsstadium :D).
 
  • Gefällt mir
Reaktionen: MouseClick68 und Orcon
Ob Nvidia nun selbst etwas überrascht ob dieser Benchmarkergebnisse ist? Könnte ja sein, dass sie sich mehr versprochen haben. Chipingenieure können ja viel berechnen und sich ausmalen. Aber sehen was dann wirklich rum kommt, sieht man erst am Prototypen. Aber bei 12 nm hätten sie kaum größere/mit mehr Rechneneinheiten versehenen Chips herstellen können. So richtig viel Software um die Leistungsfähigkeit zu testen gab es noch nicht so, oder?
Nun sehen die selbst, dass es alles andere als prickelnd ist. Nun werden sie die Chips auf 7 nm shrinken, weiter aufbohren und optimieren. Noch größere Chips in dem aktuellen Fertigungsprozess hätten sie kaum machen können. Die sind jetzt schon riesig mit enormen Stromverbrauch. Fertigungskosten mal außen vor. Wenn die richtig Gas geben, sehen wir vielleicht in einem Jahr schon nen Nachfolger von Turing.
 
Wie selbst von dir beschrieben, ist die Berechnung in Echtzeit nun schon im "Anfangsstadium".

Und Erfindung von nVidia habe ich nirgends geschrieben?!
 
duskstalker schrieb:
nichtmal für reflektionen ausreicht - dabei wollte man noch schatten und licht mitberechnen. :freak:

Ich glaube kaum dass man sich aufgrund einer frühen Implementierung von RTX in Battlefield schon so eine ausführliche Meinung bilden kann.
Im AMD Thread verteidigst du AMD auf Blut und hier ist alles Müll.:rolleyes:
Ich hab so den Eindruck als ob RT wahrscheinlich noch mit gut 80 FPS in WQHD laufen kann.
Diese extremen slow downs die teilweise existieren lassen auf eine frühe erste Version schließen und genauso sagen es doch auch die Entwickler.
 
  • Gefällt mir
Reaktionen: Oneplusfan und kisser
warum schaffen andere spiele es, reflexionen auf böden / autos darzustellen ganz ohne RT.
aber bfv nicht (bei RT off)?
 
BF V ist definitiv da falsche Game. Hier hätte man auf eine Renn- oder Flight/Spacesimulation setzen sollen, aber da hätte man aus nV Sicht wohl nicht genügend absahnen können. Dennoch ist die Vorstellung die hier versucht wird schön zu reden eher peinlich. RT ist eine uralte Technologie, die nur mit purer Leistung erkauft wird. Das hier jetzt als den großen Wurf zu präsentieren ist einfach nur lächerlich. Ja, RT sieht gut aus, wenn es richtig eingesetzt wird, aber hier ist schnell nicht wirklich viel Verbesserung beim Hardware-Hunger zu erwarten, wie man das ggf. am Beispiel von Crysis gesehen hat.

Man sieht da zu wenig Unterschied, gerade bei einem schnellen Shooter bleibe ich nicht stehen und schaue mir die ach so schönen Spiegelungen in den 4 Pfützen im Level an die es gibt und dafür soll ich dann 50% Leistungsverlust in Kauf nehmen und 1400 Euro bezahlen?

Jungs, ihr habt doch den Schuß nicht mehr gehört. Bringt endlich mal eine Karte die in AAA Games Ultra High ordentliche 4K Frameraten average über 60 FPS packt und sich mal ordentlich von der 1080TI abhebt, die 40% weniger kostet.

Das ist doch hier komplette Verarschung bei diesen Preisen und Release-Politik. Sowohl von EA in Bezug auf die eher bescheidende visuelle Qualität bei 1080p und von nV mit diesem RT Nonsens.

Da fällt mir wirklich nichts mehr ein. Und ich habe schon viel gesehen seit den C64 Tagen...

nV sollte sich lieber zunächst einmal an einen ordentlichen Standard mit AMD hinsichtlich Gsync und Freesync einigen. Das wäre ein wirklicher Fortschritt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Orcon
Es sieht irgendwie anders aus, aber ob es jetzt besser aussieht?!!? Vorallem realtistisch sieht es jetzt auch nicht wirklich aus. Es ist eher anstrengender für die Augen. Der Leistungsverlust ist einfach viel zu groß für das gebotene. :lol:
 
m.Kobold schrieb:
Dazu werden die FPS in FullHD halbiert und in QWHD gedrittelt, ich werde mir in den nächsten Monaten noch ne 2080ti zulegen aber nicht wegen RTX. Für mich ist und bleibt RTX ein Papiertiger... reines Marketing von Nvidia und CB verkauft es im Fazit als großes Feature.... ein hoch auf die unterschriebene NDA.

So macht man das. Das Verhalten von Nvidia einfach mit einem Kauf bestrafen.

Nimm das, Lederjacke!
Ergänzung ()

ZeroZerp schrieb:
Ich hätte künftig schon gern CGI Qualität.

Ich würde mich über mehr gute Spiele freuen.
 
  • Gefällt mir
Reaktionen: Sierra Foxtrot, hurcos, n8mahr und 2 andere
Zurück
Oben