Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestBattlefield V mit DXR im Test: Die Strahlen sind los
Danke für den Test. Wenn man sich die benches der üblichen Verdächtigen so anschaut würde ich diese Gen als überteuerte Techdemo bezeichnen. Da warte ich lieber noch auf nen 7nm Refresh oder die darauffolgende Gen.
Immerhin kann man jetzt zumindest in einem Spiel die Features nutzen, bringt zwar nicht wirklich was aber es geht.
Um nochmal die "Ihr seid alle doofe Fortschrittsverweigerer"-Fraktion anzusprechen:
1. "Errinnert Ihr euch nicht mehr an AA?" - Doch, und auch an Shader, PhysX, 3D-Monitore, VR-Brillen und andere Dinge. Die waren so ziemlich alle in erster Generation eher Geldverschwendung. Wenn man stolz darauf ist, der Wirtschaft, die ohnehin Millionengewinne einfährt, sein Geld hinterherzuwerfen, ich will es nicht verbieten. Ich glaub aber kaum, dass es zwingend notwendig ist.
Im Gegensatz zu damals hat man diese Techniken aber eine Existenzberechtigung zugesprochen und war, auch wenn man es sich nicht leisten konnte, froh um jede Neuentwicklung.
Da war neue Technik noch ein Faszinosum und nicht eine Bedrohung für die Besitzstandswahrung, weil diese vielleich den eigenen Besitz zum Alteisen werden lassen könnte.
Heutzutage wünschen sich die Leute das scheitern und gehen kampagnenartig gegen die von ihnen nicht für notwendig erachtete Technik vor. Und das ist ein großer Unterschied.
2. "Auf der 3DFx Voodoo 55 500 lief das AA auch nicht flüssig" - Ja, kann schon sein, die hab ich aber eben auch nie gekauft, so wie viele andere 1st Gen-Karten auch nicht.
Siehst Du- Genau so einfach funktioniert das Spielchen. Man muss nicht immer alles haben und man muss nicht böse sein, wenn man nicht immer das neueste und schnellste besitzt nur um des besitzens Willen.
Mir kommt es so vor, als ob die Konsumgesellschaft so weit fortgeschritten ist, dass einige Personen im Wissen nicht das Beste oder schnellste zu haben, einfach nicht mehr ruhig schlafen können. Ob es ihnen nun nützt oder nicht.
Sieht man daran, dass viele Leute auf den Preis der 2080TI rumhacken und zeitgleich aber meinen, dass sie sich nicht für Raytracing interessieren würden.
Wenn NVidia jetzt im kommenden Jahr eine 7nm RTX-Generation bringt, alles schrumpft, Shader gleich lässt und dafür die RT-Einheiten verdrei- oder vierfacht, dann passt sich die Software daran an und man kann mit seiner RTX 2080 Ti für 1200€ auf "Very Low" in 1080p gehen, während die neuen Karten Low in 4K oder gleich Schatten und Spiegelungen in 1080p schaffen. Und natürlich 4800€ kosten (3080Ti), weil ja die vierfache Leistung drin ist. Das Argument ist ja allgemein bei Technologiejüngern anerkannt. Man kann es sich ja leisten.
Das wird so nicht funktionieren, weil es für jedes Szenario einen Kosten-/Nutzenfaktor gibt. Ja insofern, als dass es ein par wenige gibt, die sich dann auch diese 4800,-€ 3080TI leisten werden. Nein, weil sich der Kreis der Käufer dann soweit einschränkt, dass man den Markt und die Zukunft von Raytracing dadurch ersticken würde.
Wenn man die bisherige Geschichte als Referenz nimmt, wird in der nächsten Generation die RTX Leistung der Top- Class in der Mittelklasse verfügbar sein und die der Mittelklasse in der Einstiegsklasse.
3. "RayTracing sieht so viel besser aus, seid Ihr alle blind/doof?" - Ja, in 1080p sieht es besser aus als ohne. Auf meinem 27" 4K Monitor sieht 1080p aber so oder so wie Grütze aus, warum sollte ich die Grütze dann noch gespiegelt sehen wollen? Das ist dann ja Grütze². Für mich wird das halt interessant, sobald es allermindestens in 1440p läuft (ja, das sieht besser aus als 1080p). 4K mit 40fps auf High kann meine Vega auch, die kostet aber deutlich weniger als 1200€ und braucht auch keine 60 für meine Spiele (bin jetzt eh nicht so der high-fps Shooter-Spieler) schaffen, weil sie FreeSync hat, wodurch sie halt die 2070 und zum Teil auch die 2080 aussticht, mindestens in Preis/Leistung.
Man darf nicht die Darstellungsqualität mit der Grafikqualität einer Szene verwechseln.
Auflösung und FPS haben erstmal nichts damit zu tun, wie realistisch zB. eine Szene beleuchtet wird, wieviele Details darin stecken oder wie genau Effekte berechnet werden.
Jeder, der sich die aktuellen Tests durchliest erkennt schnell, dass nVidia mit der aktuellen Generation ganz bewusst einen großen Schritt in Sachen Szenenqualität+Toolsets gemacht hat und weniger in Richtung Darstellungsqualität. Dieser Schritt war nach 10 jahren Stillstand in der Rastertechnik (ja Crysis 1 ist bereits wieder 10 Jahre her), absolut notwendig.
Alles in allem ist das von NVidia gebotene damit für mich halt total uninteressant. Das ist nichts gegen RayTracing an sich, es ist halt nur komisch, dass sie nicht bis 7nm gewartet haben, um dann viel mehr RT-Einheiten auf einem gleich großen Chip unterbringen und damit auch deutlich mehr Leistung in RT liefern zu können. Man könnte fast vermuten, dass sie so halt doppelt Umsatz machen wollen...
Nach 10 Jahren Entwicklung hätte das eine Jahr sie wohl auch kaum ruiniert, oder waren ihre Verluste schon so kritisch in den letzten Jahren?
Siehst Du- Diesbezüglich haben viele wie Du ein feines Gespür. Insgeheim kann sich jeder ausmalen, dass Raytracing schon die zukunft gehört. Es ist nur die Art und Weise der Markteinführung, die hier tatsächlich in allen Belangen unglücklich verläuft.
Es ist halt bisher nur für Randgruppen interessant
Das sehe ich wiederum anders. Die Aufmerksamkeit und die Reaktionen, die das ganze hervorruft zeigt, dass eine ganze Menge Interesse dafür zeigen. Es stößt ihnen aber sauer auf, dass sie, um in diese Technologie einzusteigen, ihr Haus verkaufen müssen.
Das ist ungefähr so, als würde man sich furchtbar darüber aufregen, dass viele Leute sagen, sie wollen sich keinen 5000€ Pelzmantel kaufen, die schädigen damit natürlich auch die Entwicklung von Pelzmanteltechnologien, ob sie es nun wegen der Tiere tun oder die 5k€ nicht von Ihrem Hartz IV gespart bekommen. PETA ist schuld, dass man auf Pelzmänteln noch nicht fliegen kann!
Für Pelmäntel gibt es funktionstechnisch günstigere und Umwelt- und Tierfreundlichere Derivate.
Für RTX nicht...
Ergänzung ()
feidl74 schrieb:
sry ich verstehe diesen hype nicht um nen paar Reflexionen und schatten die jetzt nen bissl realistischer sind. ich spiele doch keinen shooter um rumzustehen und mir diesen überflüssigen Schnickschnack anzuschaun.
Dann ist für Dein Grafikempfinden mit den aktuell verfügbaren Techniken alles zu Deiner Zufriedenheit erreicht.
Ist doch auch gut. Musst Dir also künftig keine teuren Grafikkarten kaufen.
Klar 4k tv s sind deshalb 5jahre später billig weil ein paar Leute sich vor 5jahren einen tv für 30.000euro+ gekauft haben.., ganz sicher liegt das nicht an der Verbesserung der Produktion, gesunkene Preise + höherer absatz und im Kreis von vorn.
Wenn keine Nachfrage nach einem Produkt besteht, entwickelt die Industrie dieses auch nicht weiter.
Hätten sich vor 5 jahren sich nicht zumindest ein par Leute für die 4K TVs interessiert, wären sie erstmal wieder in der Versenkung verschwunden.
Ich seh die RTX auch ein wenig, als Demo an. man hätte sie sicher auch gut 1080X 1070x nennen können.
Ich sag mal so, Kauf ich mir eine Nigelnagelneue neue Grafikkarte möchte ich das ich mit dieser save, jedes im moment auf dem markt erhältliche, so wie noch kommende spiel, ohne Probleme auf Ultra spielen kann.
Ich habe irgendwie eh ein wenig das Gefühl, das alles immer teuer wird. Früher konnte man sich mit 1200 Euro save nen ganzen gaming Pc zusammen bauen.
Die Hitman 2 Spiegelungen sind an Grausamkeit in der Darstellung und Immersionsfeindlichkeit nur durch schlechte Screenspace- Reflections zu übertreffen.
https://www.youtube.com/watch?v=Ep9nCrO8D2E
Da kann man nur lachen, wenn man die Szene sieht, wie sie im "Spiegel" aussieht und dann dreht er sich bei 11:46 um um und es gibt ein komplett anderes Bild als das was im Spiegel zu sehen war. Genau das sind für mich Immersionskiller schlechthin. Und zeigt wie schlecht die andere Technik ist, obwohl sie auch ordentlich Leistung schluckt.
Was für ein Irrsinn für jeden Spiegel die Kamera für eine Szene noch einmal und teils dreimal neu berechnen zu lassen, nur um dann ein so schlechtes Ergebnis zu erhalten...
Aber wie gesagt- Es gibt sicher Leute, die inzwischen mit dem Status der Computergrafik zufrieden sind und alles gut finden, wie es bereits aussieht. Die brauchen dann einfach keine neuen Grafikkarten. ist doch auch gut?
WQHD Auflösung, Grafik: Ultra/hoch (bin noch am ausprobieren), HW: GTX 1070, Xeon 1231v3, 16GB lahmer 1333Mhz DDR3 RAM:
Fps grob 70-90 sowohl CPU als auch GPU rennen komplett am Anschlag über 90%, je nach Szene limitiert einer von beiden. Senke ich die Grafik auf Mittel rennt der Xeon dauerhaft mit 100% und die 1070 taumelt um 70-85 Auslastung und die fps gehen um wenige Punkte hoch.
Wie sieht es bei dir aus?
Die 100+ fps würde ich dann doch gerne knacken. (Notfalls senke ich die Grafik, das Spiel sieht ja selbst auf mittel noch gut aus.)
Werde mir zum Black Friday vermutlich einen Ryzen 5 2600 mit flottem RAM irgendwo im Sale schnappen und mal sehen wie weit mich der (mit OC) bringt.
Eventuell ersetze ich die 1070 noch durch eine Vega 64 wenn ich ein richtig gutes Angebot finde. Die performen in Battlefield ja ganz gut und mein Monitor würde Freesync unterstützen.
Unsinn - niemand wünscht sich das neue Technik scheitert. Was man sich aber wünscht ist das neue Technik in einem ausgegorenem Entwicklungsstadium released und nicht im Alpha Stadium auf die Menschheit losgelassen wird.
Premiumpreise für neue Technik bezahlen ? Sicher, aber dann muss sie auch deutlich was leisten und nicht wirken als wäre sie grade vom Reissbrett einer "Möglich wärs ja ..." Studie auf direktem Wege in die Fertigung gewandert. ^^
WQHD Auflösung, Grafik: Ultra/hoch (bin noch am ausprobieren), HW: GTX 1070, Xeon 1231v3, 16GB lahmer 1333Mhz DDR3 RAM:
Fps grob 70-90 sowohl CPU als auch GPU rennen komplett am Anschlag über 90%, je nach Szene limitiert einer von beiden. Senke ich die Grafik auf Mittel rennt der Xeon dauerhaft mit 100% und die 1070 taumelt um 70-85 Auslastung und die fps gehen um wenige Punkte hoch.
Wie sieht es bei dir aus?
Die 100+ fps würde ich dann doch gerne knacken. (Notfalls senke ich die Grafik, das Spiel sieht ja selbst auf mittel noch gut aus.)
Werde mir zum Black Friday vermutlich einen Ryzen 5 2600 mit flottem RAM irgendwo im Sale schnappen und mal sehen wie weit mich der (mit OC) bringt.
Eventuell ersetze ich die 1070 noch durch eine Vega 64 wenn ich ein richtig gutes Angebot finde. Die performen in Battlefield ja ganz gut und mein Monitor würde Freesync unterstützen.
WQHD Auflösung, Grafik: Ultra/hoch (bin noch am ausprobieren), HW: GTX 1070, Xeon 1231v3, 16GB lahmer 1333Mhz DDR3 RAM:
Fps grob 70-90 sowohl CPU als auch GPU rennen komplett am Anschlag über 90%, je nach Szene limitiert einer von beiden. Senke ich die Grafik auf Mittel rennt der Xeon dauerhaft mit 100% und die 1070 taumelt um 70-85 Auslastung und die fps gehen um wenige Punkte hoch.
Wie sieht es bei dir aus?
Die 100+ fps würde ich dann doch gerne knacken. (Notfalls senke ich die Grafik, das Spiel sieht ja selbst auf mittel noch gut aus.)
Werde mir zum Black Friday vermutlich einen Ryzen 5 2600 mit flottem RAM irgendwo im Sale schnappen und mal sehen wie weit mich der (mit OC) bringt.
Eventuell ersetze ich die 1070 noch durch eine Vega 64 wenn ich ein richtig gutes Angebot finde. Die performen in Battlefield ja ganz gut und mein Monitor würde Freesync unterstützen.
Ich habe noch keinen Kauf getätigt. Ich habe befürchtet, dass mein Xeon zu stark limitiert.
Meine Kombination mit Xeon 1230 und GTX 1080 ist ziemlich Grenzwertig.
In Shooter brauche ich meine 100~200 FPS damit es auch gefühlt flüssig läuft.
Ich werde am WE bestimmt schwach und schaue mal rein
Ich weis ja nicht was du so verdienst, aber die Grafikkarte Kostet mehr, als so mancher Arbeiter im Monat Netto verdient.
"hinterher werfen" sind wir inzwischen soweit das 1200+ Euro als Akzeptabel gesehen wird ?
Gut, in ner Gesellschaft in der ein Handy für 800 Euro+ in jeder 3 Tasche landet, eine Dumme frage...
früher hat man sich das auto und häuser finanziert. Wie viele Finanzieren sich heute ihren Luxus, nur um das neuste zu haben ?
Sehr interessante Technik. Ich persönlich finde die Spiegelungen richtig gut. Allerdings ist BF 5 in der Tat das falsche Spiel dafür. Vorallem, da das SPiel in Full HD sehr unscharf wirkt.
Da spiele ich aktuell lieber mit 4K als RTX on. Trotzdem, eine sehr schöne Technik und ich freue mich schon auf weitere Spieler mit der Technik.
Ich weis ja nicht was du so verdienst, aber die Grafikkarte Kostet mehr, als so mancher Arbeiter im Monat Netto verdient.
"hinterher werfen" sind wir inzwischen soweit das 1200+ Euro als Akzeptabel gesehen wird ?
Gut, in ner Gesellschaft in der ein Handy für 800 Euro+ in jeder 3 Tasche landet, eine Dumme frage...
früher hat man sich das auto und häuser finanziert. Wie viele Finanzieren sich heute ihren Luxus, nur um das neuste zu haben ?
Da verbindest du nun zwei paar Schuhe.
Deine Aussage war, für 1200€ könne man sich nicht mehr save einen vollwertigen Gaming Rechner kaufen.
Das habe ich wiederlegt.
Mit Hinterherwerfen war gemeint, dass irgendwie jeder erwartet, dass die neueste Hardware für Lau angeboten wird. Niemand wird gezwungen eine 2080 Ti etc zu kaufen.
Auch eine 1080 reicht für WQHD oder auch 4k.
Die Regler müssen ja nicht immer rechts stehen.
Für mich ist das Ganze eine Nullnummer.
Erstens, wer achtet auf die Pfützen beim Zocken? (Überspitzt formuliert!)
Das interessiert doch fast niemanden...
Zweitens, 4K hat doch einen deutlichen Mehrwert gegenüber RTX. 1080p ist hier für viele ein deutlicher Rückschritt. Wozu hat man sich dann den 2K/4K - Fernseher/Monitor geholt?
Drittens, holt sich keiner eine 2070, 2080, 2080 Ti um damit in FullHD zu spielen.
Du stellst das immer schon ausserordentlich einfach dar, ist es aber nicht. Dank dem heutigen Marketing kann nicht einfach bei jeder neuen Technologie oder neuen Features lustig von einem Sprung gesprochen werden, der "notwendig" war und die Entwicklung "weiterbringt". Weiter ignorierst Du konstant den Umstand, dass man die "Nachfrage nach einem Produkt" nur sinnvoll bewerten kann, wenn auf dem Markt Alternativen existieren, ansonsten ist es schlicht ein Erzeugen einer "künstlichen Nachfrage" (siehe 3D Kino...).
Für eine High-End-Grafikkarte gibt's gar keine echte Alternative, man muss zur RTX-2080(Ti) greifen, auch wenn einem Raytracing am Popo vorbeigeht oder man es wegen dem hohen Performance-Verlust nicht nutzen will. Die hohen Verkaufszahlen einer RTX-2080(Ti) stehen aus diesem Grund in der Realität keineswegs so direkt für die Nachfrage nach Raytracing, nVIDIA kann es aber so interpretieren (eben: künstliche Erzeugung einer Nachfrage) und den Preis der RTX-2080(Ti) mit den neuen Features "rechtfertigen".
Oder um Dein Zitat oben zu bemühen: dank dem Verhindern einer Alternative wird die Nachfrage nach Raytracing schlicht künstlich erzeugt. Da kannst Du auch nicht mit dem 4K TV Beispiel antanzen, da es zu jederzeit für einen 4K TV Alternativen auf dem Markt gab (und gibt). 4K TV hat sich also trotz Alternativen schlicht durchgesetzt und mit der Masse an Käufer sank auch der Preis. Ganz abgesehen davon, dass es was komplett anderes ist als Raytracing in Spielen...
ZeroZerp schrieb:
Mir kommt es so vor, als ob die Konsumgesellschaft so weit fortgeschritten ist, dass einige Personen im Wissen nicht das Beste oder schnellste zu haben, einfach nicht mehr ruhig schlafen können. Ob es ihnen nun nützt oder nicht. [...] Sieht man daran, dass viele Leute auf den Preis der 2080TI rumhacken und zeitgleich aber meinen, dass sie sich nicht für Raytracing interessieren würden.
Völlig verdrehte Sichtweise. Die Leute, die nicht gut schlafen können, wenn sie nicht das "Beste oder Schnellste" haben, kaufen eher völlig unvoreingenommen eine RTX-2080Ti ohne sich überhaupt darüber Gedanken zu machen, ob sie damit einer neuen Technologie den Weg ebnen. Es sind genau diese Käufer, welche indirekt nVIDIA zurufen, ihre absurde Preispolitik sei in Ordnung. Diese Käuferschicht nun als Heilsbringer für neue Technologien darzustellen und daraus noch zu schlussfolgern, dass man ohne diese Käuferschicht viele neue Technologien verpasst hätte, ist schon fast ein perverser Umkehrschluss...
Ich glaube langsam, Nvidia verarscht uns wieder... Wozu gibt's denn die neuen Tensor Kerne für Raytracing wenn die FPS so krass Abfallen? Das erweckt doch den Eindruck als ob der Rest der GPU auch so krass mit Ran muss um überhaupt was darzustellen von den neuen Effekten... Ergibt für mich keinen Sinn.. Im Endeffekt lohnt es sich einfach nicht...
Völliger Schmarrn mit RTX, wird hoffentlich wie 3D beim Fernsehen bald aussterben.
Ist außerdem echt ne Sauerei, daß man jetzt keine neueren schnelleren Grakas mehr ohne RTX (Preis-) Aufschlag bekommen wird.