Test Battlefield V mit DXR im Test: Die Strahlen sind los

Ein ähnlich aussagender Post bekam 27! likes bevor er im Aquarium landete. Ne, hier wünscht sich keiner das scheitern. :rolleyes:
 
  • Gefällt mir
Reaktionen: HardRockDude, t3chn0 und .Sentinel.
Ich hab dazu ein paar Fragen:
1. Wird das Feature wie zB PhysX auch für AMD User verfügbar sein, nur halt von der CPU berechnet werden?
2. Frag ich mich die ganze Zeit, warum plötzlich Grafikkarten geeignet sein sollen für raytracing. Als ich das letzte mal über Raytracing nachgelesen habe, bevor Nvidia mit ihrem proprietären Zeug dahergekommen ist, war das noch reine CPU sache.
Selbst wenn die Tensor Cores recht optimiert sind auf diese eine Aufgabe, könnte es doch leicht sein dass ein Leistungsfähiger Prozessor da mithalten kann.
 
Gibt es eigentlich irgendwo einen Test zur Leisungsaufnahme? Vielleicht bin ich blind aber ich kann nichts finden. (Auch nicht über Google)
 
@RB6istGut
1. Es ist nicht proprietär. RayTracing ist offen. AMD muss es halt bei sich sowohl in Treibern als auch in HW integrieren.
2. Dann bist du lange nicht uptodate, schon vor Jahren war klar, dass CPUs dafür wenig geeignet sind und spezielle Cores dafür der bessere Weg. CPUs werden niemals (im Sinne von den nächsten Jahrzehnten)leistungsfähig genug sein für RT in Echtzeit.
 
AnkH schrieb:
Du stellst das immer schon ausserordentlich einfach dar, ist es aber nicht. Dank dem heutigen Marketing kann nicht einfach bei jeder neuen Technologie oder neuen Features lustig von einem Sprung gesprochen werden, der "notwendig" war und die Entwicklung "weiterbringt".
Das behaupte ich doch garnicht. Nur wird sich die Industrie davor hüten unter massiven Verlusten ein nicht gewolltes Produkt mit Gewalt durchzudrücken, da das nur in die Hosen gehen kann.

Thinktank, Entwicklung, Angebot an den Konsumenten, Zeit der Adaption und dann entweder Etablierung oder ein Verschwinden in der Versenkung.

Weiter ignorierst Du konstant den Umstand, dass man die "Nachfrage nach einem Produkt" nur sinnvoll bewerten kann, wenn auf dem Markt Alternativen existieren, ansonsten ist es schlicht ein Erzeugen einer "künstlichen Nachfrage" (siehe 3D Kino...).
Ich habe aber die Wahl im Kino den Film auch ohne 3D zu schauen. Zu Anfangs ist die Industrie überwiegend darauf angewiesen eine künstliche Nachfrage zu erzeugen, da die Menscheit in den Industrieländern mit allen Basisgütern bereits ausgestattet ist, nach der es eine "natürliche" Nachfrage geben könnte. Es wird also ein Begehren erzeugt.

Für eine High-End-Grafikkarte gibt's gar keine echte Alternative, man muss zur RTX-2080(Ti) greifen, auch wenn einem Raytracing am Popo vorbeigeht oder man es wegen dem hohen Performance-Verlust nicht nutzen will.
Da lässt Du aber außer Acht, dass es keine Notwendigkeit gibt, auf diesen High- End Zug aufzuspringen.
Das basiert auf freiwilliger Basis. Wenn ein Produkt ein Hauptfeature zu einem hohen Preis bereitstellt, welches Dich garnicht interessiert und man mit Alternativprodukten annähernd die gleich Leistung zur Hälfte des Preises erhält, dann greift hier einfach wieder mein Statement, welches Du als verdrehte Sichtweise und perversen Umkehrschluss bezeichnest.

Du kaufst Dir nämlich nicht einfach so etwas, was Du garnicht haben willst bzw. von dem Du für viel Geld kaum profitierst, esseidenn Du hast ein Problem damit es nicht zu besitzen...

Die hohen Verkaufszahlen einer RTX-2080(Ti) stehen aus diesem Grund in der Realität keineswegs so direkt für die Nachfrage nach Raytracing, nVIDIA kann es aber so interpretieren (eben: künstliche Erzeugung einer Nachfrage) und den Preis der RTX-2080(Ti) mit den neuen Features "rechtfertigen".
Das ist Deine Interpretation der Lage in Sachen Nachfrage und als Denkanstoß bei mir angekommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AnkH
Mich würde interessieren wie die Performance bzw. Performanceverlust auf Grafikkarten ohne Tensor-Cores aussieht? DXR müsste ja für alle DX12 fähigen Grafikkarten aktivierbar sein. Und vor allem auch auf Mainstreamkarten wie GTX 1050 und 1060.
Außerdem könnte man dann sehen wie proportional groß der Performance-Unterschied ist, wenn man nur Shader-Cores hat, und ob die Tensor-Cores doch nur mehr Schein als Sein sind.
 
"Ich kauf mir eine 2070, die ist nicht so teuer und kann trotzdem RTX!"

Jo.. nette Performance. Da weiss man doch wofür man sein Geld ausgegeben hat :B
Aber schöner Schachzug von Nvidia. Mein Aluhut meint, die wussten ganz genau, dass die 2070 gar nicht in der Lage sein wird, RTX mit entsprechenden FPS darzustellen, aber Hauptsache die Karte trotzdem mit dem feature anpreisen und vermarkten. Clever!

Aber man konnte das ja vorausahnen, als es erstmals hiess, RTX sei bloss mit der 2080Ti unter FHD und 60fps machbar.
 
  • Gefällt mir
Reaktionen: adaytoremember
franzerich schrieb:
Mich würde interessieren wie die Performance bzw. Performanceverlust auf Grafikkarten ohne Tensor-Cores aussieht? DXR müsste ja für alle DX12 fähigen Grafikkarten aktivierbar sein. Und vor allem auch auf Mainstreamkarten wie GTX 1050 und 1060.
Außerdem könnte man dann sehen wie proportional groß der Performance-Unterschied ist, wenn man nur Shader-Cores hat, und ob die Tensor-Cores doch nur mehr Schein als Sein sind.
Bei Grafikkarten ohne RT bzw. Tensor- Cores kannst Du die Leistung bei ähnlicher Grafikkartenklasse ca. durch 10 teilen.

Aus 60FPS werden also 6FPS.
https://video.golem.de/amp-iframe.php?fileid=21824
 
BridaX schrieb:
In Shooter brauche ich meine 100~200 FPS damit es auch gefühlt flüssig läuft.
Ich werde am WE bestimmt schwach und schaue mal rein :)

Schon mal die Schatten auf low gesetzt?
Nein bis zu low-Settings bin ich gestern noch nicht gekommen.
Nach anfänglichem tweaken gestern hat das Spiel ansich schon soviel Spaß gemacht, dass ich das Fine-tuning mal aufs Wochenende geschoben hab. :D
100fps wird knapp. Mit deinem Z-Boad könntest du ja zumindest den Allcore-Turbo auf das Maximum festlegen und den RAM hochtakten. Das geht mit meinem miesen Board aktuell leider nicht.

Eventuell reicht das schon um die 100er marke im Schnitt zu knacken. Ein Ryzen 5 2400G ist ja nicht so viel schneller und schafft hier im CB-Benchmark im Schnitt immerhin 112fps.
 
ZeroZerp schrieb:
Dann ist für Dein Grafikempfinden mit den aktuell verfügbaren Techniken alles zu Deiner Zufriedenheit erreicht.
Ist doch auch gut. Musst Dir also künftig keine teuren Grafikkarten kaufen.

da hast du die falsche Schlussfolgerung gezogen. das ding ist einfach das der nutzen weit unter dem verhältniss der kosten bleibt. nur damit ich nen hochganzpoliertes Auto in z.b. bf5 sehe, mit spiegelungen die mich bei der Action genau nicht interessieren. für ein sehr beschränktes " weil man sich darin spiegeln kann gefühl" ist das eben nur ein hype, und keine wirklich bahnbrechende entciklung. es gab vorher schon sehr realitätsnahe grafiken und spiele, der aufwand, so etwas zu programmieren, mag höher gewesen sein;)
 
Vielen Dank für den Test! ComputerBase! Die Screenshots sehen super aus wo man die Unterschiede zwischen RTX OFF und RTX ON erkennen kann! Ich bin sehr für Raytracing interessiert aber das reicht die Leistung für UHD (3840x2160) nicht aus. Ich warte ein paar Nvidia Geforce RTX Generation ab. Sehe noch keinen Kaufanreiz für den Geforce RTX 2070 da ich zur Zeit ASUS Geforce GTX 1070 ROG Strix Gaming (Referenztakt) besitze.
 
feidl74 schrieb:
da hast du die falsche Schlussfolgerung gezogen. das ding ist einfach das der nutzen weit unter dem verhältniss der kosten bleibt.
Da sind wir beim springenden Punkt. man darf das Subjektive Empfinden diesbezüglich nicht als allgemeingültigen Fakt darstellen.

Achtung- nicht ganz ernst nehmen:
Kann doch sein, dass mein größter Lebenstraum war, jemals physikalisch korrekte Realtime- Reflections in einem Computerspiel sehen zu dürfen.
Genauso wie es Leute gibt, die sagen ein Spiel wäre ohne mindestens 100FPS unzumutbar und andere, die ohne 4K nicht leben können, gibt es Leute, die die Krätze beim Anblick hässlicher und fehlerhafter Grafikeffekte bekommen.

Für genau diese (nicht dem durchschnittlichem Spieler entsprechenden) Leute (Enthusiasten) sind die neuen Karten ein Segen und der Lebestraum wird erfüllt und endlich werden Spiele, die vorher ungeniessbar waren zur reinen Freude. Für genau diese Klientel lohnt sich die Anschaffung und die geben das Geld mit Freuden aus.

nur damit ich nen hochganzpoliertes Auto in z.b. bf5 sehe, mit spiegelungen die mich bei der Action genau nicht interessieren. für ein sehr beschränktes " weil man sich darin spiegeln kann gefühl" ist das eben nur ein hype, und keine wirklich bahnbrechende entciklung. es gab vorher schon sehr realitätsnahe grafiken und spiele, der aufwand, so etwas zu programmieren, mag höher gewesen sein;)

Genau- DU legst einfach keinen Wert drauf. Man muss nur immer begreifen, dass es andere Leute unter Umständen eben schon als sehr wichtig erachten und es den Unterschied zwischen unspielbar und spaßig bedeuten kann. Tellerrand und so ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: t3chn0
Verteufeln sollte man RTX nicht, aber wenn man nun bei jeder Grafikkartengeneration heftige Aufpreise dafür zahlen muss, ohne eine Alternative zu haben, braucht sich auch niemand über den Aufschrei wundern. Was wäre wohl passiert, wenn es auf einen Schlag nur noch 4K TVs für mehrere tausend Euro gegeben hätte? Hätte nVidia die neuen Karten mit und ohne RTX im Angebot, letztere mit entsprechend niedrigeren Preisen, wäre auch der Shitstorm nicht so groß.
 
  • Gefällt mir
Reaktionen: HardRockDude
ZeroZerp schrieb:
Bei Grafikkarten ohne RT bzw. Tensor- Cores kannst Du die Leistung bei ähnlicher Grafikkartenklasse ca. durch 10 teilen.

Aus 60FPS werden also 6FPS.
https://video.golem.de/amp-iframe.php?fileid=21824

Der Vergleich im Video hinkt, weil es 2 komplett unterschiedliche Karten sind:

1080 Ti hat 3584 Shader-Cores
2080 Ti hat 4352 Shader-Cores + 544 Tensor Cores

Die 2080 Ti hat von Haus aus 1312 Cores mehr (768 Shadercores + 544 Tensor-Cores).

Interessant wäre der Vergleich erst dann: wenn die 1080 Ti "gewöhnliche" 1312 Shader-Cores mehr hätte, also 4896 Shader-Cores. Das ist der Vergleich den ich sehen wollte. Damit man wüsste man genau was die Tensor Cores wirklich bringen, oder ob sie doch nur aufgesetzter Schmafuh sind.
 
franzerich schrieb:
Mich würde interessieren wie die Performance bzw. Performanceverlust auf Grafikkarten ohne Tensor-Cores aussieht? DXR müsste ja für alle DX12 fähigen Grafikkarten aktivierbar sein. Und vor allem auch auf Mainstreamkarten wie GTX 1050 und 1060.
Außerdem könnte man dann sehen wie proportional groß der Performance-Unterschied ist, wenn man nur Shader-Cores hat, und ob die Tensor-Cores doch nur mehr Schein als Sein sind.
Finde jetzt denn Benchmark nicht mehr. Ist schon 2-3 Wochen alt.
Die AMD Vega 64 hat ca 10-11 Fps bei dem Raytracing Benchmark.
Raytracing läuft ja auch ohne spezielle Anpassung am GPU. Aber wie man sieht, extrem bescheiden.
 
franzerich schrieb:
Interessant wäre der Vergleich erst dann: wenn die 1080 Ti "gewöhnliche" 1312 Shader-Cores mehr hätte, also 4896 Shader-Cores. Das ist der Vergleich den ich sehen wollte. Damit man wüsste man genau was die Tensor Cores wirklich bringen, oder ob sie doch nur aufgesetzter Schmafuh sind.

Jetzt weiss ich worauf Du raus willst. Ich denke nicht, dass Du die Leistungsrelationen dediziert auf die einzelnen Sektionen runterrechnen kannst.
Es ist ja ein Zusammenspiel aus neuer Speicherarchitektur, RT- Cores und Tensor Cores, die zum Denoising (nicht gesichert) und Upscaling DLSS benutzt werden. Das besondere der neuen Karten ist ja deren Zusammenwirken.

Grüße
Zero
Ergänzung ()

franzerich schrieb:
Der Vergleich im Video hinkt, weil es 2 komplett unterschiedliche Karten sind:

1080 Ti hat 3584 Shader-Cores
2080 Ti hat 4352 Shader-Cores + 544 Tensor Cores

Die 2080 Ti hat von Haus aus 1312 Cores mehr (768 Shadercores + 544 Tensor-Cores).

Interessant wäre der Vergleich erst dann: wenn die 1080 Ti "gewöhnliche" 1312 Shader-Cores mehr hätte, also 4896 Shader-Cores. Das ist der Vergleich den ich sehen wollte. Damit man wüsste man genau was die Tensor Cores wirklich bringen, oder ob sie doch nur aufgesetzter Schmafuh sind.
Das kannst Du ja grob überschlagen ausrechnen, da bei RTX die Shader gut skalieren.
Einfach bei der GTX ohne RTX prozentual die Shaderanzahl auf die Leistung akkumulieren und dann vielleicht 10% Skalierungsverluste wieder abziehen.

Dann hast Du einen relaltiv genauen Wert, was die Karte durch eine gleichsetzung der Coreanzahl erreichen kann.
Ergänzung ()

Capthowdy schrieb:
Verteufeln sollte man RTX nicht, aber wenn man nun bei jeder Grafikkartengeneration heftige Aufpreise dafür zahlen muss, ohne eine Alternative zu haben, braucht sich auch niemand über den Aufschrei wundern. Was wäre wohl passiert, wenn es auf einen Schlag nur noch 4K TVs für mehrere tausend Euro gegeben hätte? Hätte nVidia die neuen Karten mit und ohne RTX im Angebot, letztere mit entsprechend niedrigeren Preisen, wäre auch der Shitstorm nicht so groß.

Mit dem Unterschied, dass es zu Anfang 4K Monitore nur für mehrere Tausend Euro gab.
Als Alternative gabs 1080P.
Und nVidia hat die eigenen Preise für die alte Kartengeneration um jeweils 100€ gesenkt.

Jetzt gibt es also die neue Generation mit RTX und eine verbilligte Generation ohne RTX.
Also genau das was Du forderst.

Gute Customs TI gabs zeitweise schon für gut 600,-€. Nur haben halt einige gemeint, dass die Preise immer weiter sinken würden. Die haben sich verzockt, weil sich doch im Hintergrund eine enorme Anfrage angestaut hat, die sich dann auf 2080 und 1080 TI Käufe (je nach Präferenz) entladen haben und die Preise wieder in die Höhe getrieben haben. Die Preise macht nämlich nicht nur nVidia.

Und genau das (die Gier), die dem Hersteller vorgeworfen wird, ist einem in diesem Fall dann selbst zum Verhängnis geworden, weil man dachte, dass man noch mehr für sich herausschlagen kann.

Also wo ist jetzt genau Dein Punkt?
 
Zuletzt bearbeitet:
Esenel schrieb:
Stimmt halt aber auch nicht.
1440p Ultra mit DXR Ultra => 80 fps avg

Schade, das Video aus der Praxis findet keinerlei Beachtung. Deine Karte performed schon echt krass durch dass OC und die Temperaturen der WaKü. Das alleine bringt schon bestimmt 10+ FPS. Du erreichst Werte, die man sonst in FHD erwartet. Sehr beeindruckend um ehrlich zu sein.

Man sieht auch ganz klar, das es fernab von unbrauchbar ist.

Was mich tierisch nervt ist, dass hier so viele meckern, die sonst selbst immer 60FPS als Grenze erreichen wollen für smoothess Gameplay. Genau das erreicht die Karte und sogar noch etwas mehr, aber nun ist das nicht mehr gut genug.

Die Leute erwarten 100FPS in 4K mit der 1.Generation einer DXR Karte.
 
  • Gefällt mir
Reaktionen: R.K.J, Esenel und .Sentinel.
CB vermischt hier aber zwei ganz klar separierte Spielergruppen miteinander.
Competitive Spieler, die mit Frameraten > 100 fps spielen, setzen ihre Grafiksettings ohnehin auf Low um den bestmöglichsten Vorteil zu bekommen. Die wollen eh kein Raytracing.
Wer allerdings Wert auf schöne Bildchen legt, der gibt sich hingegen auch mit flüssigen 60 fps (und weniger) zufrieden und braucht keine dreistelligen Frameraten für seinen 60 Hz Monitor.
Raytracing bei > 100 fps für's competetive gaming ist eigentlich nur sehr sehr selten gefragt, würde ich annehmen.
 
  • Gefällt mir
Reaktionen: #basTi und .Sentinel.
Berserkervmax schrieb:
Somit bestätigt sich meine Vermutung !

Die RTX Generation ist unnütz !
Für normales Spielen zu teuer und für RT zu langsam.

Da bleib ich doch bei meiner 1080TI !

Jepp. Für mich das Fazit aus dem ganzen Test. Nun weiss ich, dass ich erst mal keine RTX brauche.
 
  • Gefällt mir
Reaktionen: Berserkervmax
Zurück
Oben