Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsBattlefield V auf Turing: Durch DLSS angeblich mit Raytracing so schnell wie ohne
Alles deutet darauf hin, dass Nvidia bereits am 7. Januar eine neue Turing-Grafikkarte vorstellen wird: Mit der GeForce RTX 2060 soll es einen günstigeren Turing-Einstieg ab 350 US-Dollar geben. In den zahlreichen Gerüchten zur Grafikkarte ist zudem noch eine weitere Spekulation zu Battlefield V enthalten.
Wenn sich die RTX 2060 auf dem Niveau der GTX 1070 Ti [teils sogar GTX 1080] einpendeln sollte, kein schlechter Deal für 350,— Euro.
400,— Euro fände ich schon wieder zu viel, denn selbst ein RX VEGA 56 [z.B. Sapphire Pulse RX VEGA 56 für 389,— Euro] bekommt man mit UV+OC auf das Niveau einer RX VEGA 64 [und somit GTX 1080.]
Natürlich ist eine RTX 2060 viel effizienter, aber mehr als 350,— Euro halte ich dennoch nicht für angemessen.
Hinzu kommt, wenn da nicht die 3, 4 und 6GB VRAM wären.
Ich weiß ja nicht... DLSS finde ich eigentlich ganz gut, aber so spontan würde ich mal vermuten, dass ~1800p zu 4k hochgerechnet wesentlich besser/unauffälliger skalieren, als 720-900p zu 1080p.
Irgendwann lassen sich fehlende Bildinformationen schlicht nicht mehr wegretuschieren.
Tests werden genaueres zeigen, aber ich bin zunehmend skeptisch.
PS.: Könnte @CB eigentlich mal einen umfangreicheren Test zu DLSS und den Alternativen machen?
Also mal 4k DLSS mit 1800p vergleichen? Und dazu noch 4k mir 90% Scaling in den Ingame Options.
Würde ja gerne mal sehen, ob Nvidia da wirklich ein großer Wurf gelungen ist oder die Marketing Abteilung nur kreativ war.
Bin nicht so überzeugt davon, Auflösungen "heimlich" zu verringern und dann zu versuchen, diese mit KI-DeepLearning-Hokuspokus hochzuschummeln.
Es ist gar nicht lange her, da hat man versucht, intern höher aufzulösen und das dann runterzuskalieren - brachte einen tollen Qualitätsschub mit sich und nannte sich, glaube ich, Supersampling.... wirkte jedenfalls ehrlicher als DLSS...
Wenn die 2060 wirklich so performt wie die 1080 und 350€ kostet, dann erschliessst sich für mich der Sinn einer wesentlich teureren 2070 nicht mehr wirklich. Darüber wird dann erst die 2080 wieder intrressant.
Ich bin auf erste Tests mit BFV RTX und DLSS @ 1080p gespannt. Viel wichtiger wäre allerdings, wenn endlich auch noch andere Spiele das Zeug unterstützen. Bis dahin bleibt es eine Techdemo und kein Kaufgrund.
Alleine die nicht deterministische Herangehensweise von DLSS macht mir das Feature unsympathisch. Probieren, Vergleichen und Herumfummeln für jeden einzelnen Titel unter Berücksichtigung von Treiberversionen und Patchlevel bevor angefangen werden kann zu spielen ist eine Tätigkeit, die mir einfach kein Spass macht.
Langsam werde ich echt sauer. Das Spiel hat Tonnen von anderen Bugs und Problemen die erstmal behoben werden sollte. Dice get your shit done und zwar das wirklich wichtige.
Dies ist auch (einer der ü+e) Grund für mich nahezu immer eine nicht ganz offizielle Version vorzuhalten.
GTAIV hat sich bspw. regelmäßig selbst zerbombt wenn es ein Update gab'. Die nicht offizielle .exe interessiert das 0. Seinerzeit hatte ich auch mit bf3 die Erfahrung gemacht, dass Origins/EAs Matchmaking derart krüppelig war, dass nur ein "Workaround" ohne Battlelog (Menü console ingame "connect IP") mich das Game noch hat spielen lassen.
Ja und ja, ich nutze zu 95% nicht offizielle Gameversionen, habe die offizielle aber dennoch. Die anderen 5 sind "Demos" die es so nicht gibt, mich aber in der Kaufentscheidung stark unterstützen.
Diverse Spiele sind aus einigen imaginären Wunschlisten rausgeflogen obwohl sie mich schon stark interessierten. Am Beispiel ist TestDriveUnlimited2 zu nennen.
Selbst nach Windows(neu-)installationen muss nahezu immer nur "redist" neu installiert werden und die inoffizielle Variante geht - die offzielle findet trotz korrekter Pfadangabe seine 140GB (BF3) nicht mehr und läd die erneut herunter, witzigerweise ebenfalls langsamer als zippy/mega/gdrive oder andere noch dunklere Vertreter.
Solange grau weißer ist als weiß bleibe ich bei grau. Konsequent geht sicher anders, aber naja.
das glaube ich nicht. Ich hab auch Interviews mit den Grafikengine-Entwicklern von Battlefield gesehen. Die Entwickler können sich doch nicht so reinlegen lassen. Sie haben bisher für das Denoising bei RTX Compute Shader statt der eigentlich dafür vorgesehenen Tensor Cores genutzt. Dass die aber jetzt dauerhaft beim Denoising unberücksichtigt bleiben, macht Sinn, da sie nun künftig für DLSS genutzt werden. Für mich klingt das so, als sei DLSS schon von Anfang an geplant gewesen.
Und warum könnte es nicht auch sein, dass auch RT Cores schon in der Titan V enthalten waren und nur nicht genannt wurden? Tensor Cores hatte sie ja auch schon. Eventuell wollte Nvidia noch etwas warten, bevor sie die große Revolution des Hybrid-Renderings verkündeten. Selbst jetzt gibt es mit Battefield V lediglich einen einzigen Titel mit DXR.
Probieren, Vergleichen und Herumfummeln für jeden einzelnen Titel unter Berücksichtigung von Treiberversionen und Patchlevel bevor angefangen werden kann zu spielen ist eine Tätigkeit, die mir einfach kein Spass macht.
Das ist als würdest du dich beschweren, dass LODs eingesetzt werden, prebaked scenes eingesetzt oder Polygonzahl bei Hauptcharakteren höher ist als bei unwichtigen NPCs. Es wird sowieso schon ohne Ende Hokus Pokus betrieben. Am Ende geht es nur darum, zu vermeiden, dass es jemand bemerkt. Das war in der ersten Generation von neuen Techniken noch nie perfekt. Warte 5 Jahre und es ist Standard und niemand redet mehr darüber. Dafür haben wir dann alle 8K.
Downsampling, Supersampling, Upscaling, etc. gibt es schon sehr lange. Antialiasing ist im Grunde auch ähnlich. Was DLSS anders macht ist, was über einen Supercomputer läuft und der Algorythmus, der daraus erstellt wird. DLSS wird leider falsch vermarktet. Das Problem ist, dass man das Bild hier als 4k verkauft, welches halt "nur" in WQHD berechnet wurde. Hätte man DLSS als Kantenglättung für WQHD verkauft, die nicht so extrem viel Leistung zieht (, wie z.B. Supersampling) und ein sehr gutes Bild unter WQHD-Auflösung auf 4k-Monitoren erzeugt, wäre das komplett anders augenommen worden.
Wenn die 2060 wirklich so performt wie die 1080 und 350€ kostet, dann erschliessst sich für mich der Sinn einer wesentlich teureren 2070 nicht mehr wirklich. Darüber wird dann erst die 2080 wieder intrressant.
Derzeit sieht es so aus dass die 2060 auf dem Niveau einer 1070/1070Ti liegt. Nur in eher seltenen Ausreißern kommt sie in den Bereich einer 1080. DasMonty hat dazu gestern ein Video gemacht, dort sind auch Benchmarks zu sehen.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Persönlich würde ich derzeit warten, die NAVIs stehen auch noch vor der Tür und was man da lesen kann ist schon heftig. Ob die Voraussagen stimmen ist natürlich fraglich. Aber wenn die Gerüchte stimmen, soll der NAVI 10, Radeon RX3080, mit 8GB GDDR6 und 150 Watt TDP bis zu 15% Mehrleistung zur Vega 64 bringen. Und das Ganze für 250 Dollar. Den Preis halte ich für unrealistisch, wobei man aber bedenken muss dass AMD kein Raytracing bietet mit dem Chip. Wobei derzeit Raytracing aber auch eher ein Nischenprodukt bleiben wird, bei der Leistung die das verbrät.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Anstatt diesem müll sollten sie einfach endlich GPU's auf den Markt bringen die 4k@60FPS Rendern können und nicht etwas "entwickeln" das es "simuliert aber doch nicht ganz so gut aussieht"