Bericht Nvidia GeForce RTX: Battlefield V mit Turing und Raytracing im Video

Jup, Half Life 2 hatte auch, zumindest in Erinnerung, hübsche Wasserreflexionen.
Naja wie bei der PhysX Einführung, erstmal muss es sich durchsetzen (was bei Raytracing schon wahrscheinlich ist), und dann braucht es noch 1-2 Generationen bis die Hardware im Mainstream das aus dem Ärmel schüttelt.
Also bleibt für die meisten RT kein Thema bis zur RTX 4060.
 
Es gibt ein paar Aussagen von nVidia zum Pascal - Turing Vergleich. Leider nur vom Marketingteam:

"The fact is that Turing, just a just the traditional Turing where you think about shaders and you think about memory bandwidth and all that kind of stuff. Turing is a beast and Turing is going to significantly improve the gaming experience on old games and it's going to just rocket when you adopt new technology. Right so we didn't do Turing just for Deep Learning and just for AI. Turing is our next step in that normal you know progression of Nvidia GPUs getting better every couple of years. Turing is our next big step so you know we did share some data that showed a bunch of games; looking at things like Final Fantasy, PUBG and you'll see the perf roughly somewhere between 35 - 45% better and roughly the same generation. So 2080 Ti to 2080 Ti and of course that is going to vary based on the game and based on the setting."​

We think that Tom misspoke when he said "2080 Ti to 2080 Ti," and actually meant "1080 Ti to 2080 Ti," which of course would make sense in the context in which he was speaking.

"So if you are CPU limited, like you're running an older CPU and you're running at lower resolutions, then really the GPU can't do anything because you're already... You know you're not giving the GPU enough work. And in those cases well you know we don't actually you know we don't get more work to do so it runs the same. But in most cases if you're paying you know if you're buying a high end GPU, you have a higher end resolution monitor or higher refresh rates, you're turning on more of the eye candy. And in the places where you are in fact GPU limited where you're seeing performance impacted by the GPU; Turing is gonna crush it! And it's it's a combination of faster shaders, you know faster clocks, wider memory bandwidths and architecture improvements. So even running existing games you're gonna see a nice bump."
https://www.hardocp.com/news/2018/0...ing_gives_interview_to_hothardware_on_turing/
https://hothardware.com/news/two-and-a-half-geeks-webcast-with-nvidia-tom-petersen
 
Exakt und wenn die Karten keiner kauft, wird es in der Hinsicht auch niemals für den Midrange Markt erschwinglich werden.

Raytracing bietet unglaubliches Potential. Was man in Star Citizen für unglaubliche Grafiken ermöglichen könnte ist der Wahnsinn.

Natürlich ist das Zukunftsmusik, aber wenn sich jetzt alle querstellen, wird die Sache RT vielleicht nichtmals mehr weiterverfolgt und das fände ich einen riesen Verlust. Vermutlich wird die 3070 bereits die RT Leistung einer 2080Ti erreichen können. Gerade bei solch neuen Entwicklungen sind die Performancesprünge in den ersten drei Itterationen am größten.

Leider hat AMD mit Vega vollmundiges versprochen, aber auch nur halbgar umgesetzt. Vega lag bei Release von der Performance her, maximal auf dem Niveau einer bereits 2 Jahre alten Generation von NVIDIA.

Etwas wirklich neues hat AMD dabei nicht eingeführt. Damals wurde wild über 16GB HBM2 spekuliert, über ein Monster was den Markt neu aufwirbelt. Was dabei am Ende rumkam haben wir ja gesehen.

Hätte es hier einen Push gegeben, dass AMD 20% mehr Leistung als eine 1080Ti, mit 16GB Speicher für 100€ weniger auf den Markt gebracht hätte(Fahrradkette), so sähe der Markt nun vollkommen anders aus.

Das ist aber nicht passiert. Wo AMD für mich deutlich besser ist, ist dass Thema Asynchronous Computing, DX12. Hier ist NVIDIA sehr enttäuschend. Nur war es bisher auch niemals nötig, explizite Fortschritte darin zu machen, da zumindest kaum ein Spiel massiv davon profitiert hat, was nicht auch mit DX11 perfekt laufen würde auf NVIDIA Karten.

AMD halte ich aber sehr zugute, dass sie gegen Intel und NVIDIA gleichzeitig kämpfen müssen. Im CPU Bereich hat man dies erfolgreich getan, das GPU Segment müsste man dafür wohl vernachlässigen.

Ohne AMD gäbe es vermutlich noch immer keinen 8700K und keinen 9900K.

Auf der anderen Seite hat AMD über 7 Jahre an Bulldozer, Vishera festgehalten und konnte Intel rein gar nichts entgegensetzen. Das haben aber viele im Ryzen-Wahn vergessen.

Wenn Intel die eigenen GPUs ; 2020 auf den Markt bringt, werden die Karten komplett neu gemischt. Dann bekommt NVIDIA wieder kaltes Wasser ins Gesicht.
 
  • Gefällt mir
Reaktionen: chris333 und surtic
ich verstehe die ganze ablehnung nicht.

seit über 20!!! jahren warte ich auf den tag, an dem offiziell angekündigt wird, man würde jetzt versuchen mit raytracing für stino´s zu beginnen. rasterization ist doch keine endlösung.

verrückte zeiten. die schöne rote ist mit dem schwarzen prinzen liiert. die basteln seit fast 10 jahren kinder konsolen und die schöne rote ist eine launische diva geworden. die grüne ziege ist dafür eine tolles rennpferd geworden incl. einem sehr sportlichem preis und der blaue riese hängt seit jahren an irgend welchen seen ab und ist vom coffee zum whiskey junky geworden.

evtl. wird ja der blaue riese auch bald erwachsen, die grüne schönheit hat sich ja seit jahren heraus geputzt und zusammen könnte man in den nächsten 20jahren was richtig tolles schaffen. jedenfalls blicke ich seit langer zeit wieder mal positiv in die hardware zukunft. die letzten jahre mit noch mehr fps bei noch mehr auflösung bei keiner signifikanten erhöhung der polygonanzahl aber immer schöneren explosionen bereitete ja langsam schon fast schmerzen.

raytracing in foto realismus mit "unendlich polys" ca. 2039 auch gerne in 1080p bei 30fps auf 21zoll. da wäre ich doch schon zu frieden. :D

mfg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeusTheGod
Beeindruckt mich nicht. Spiegelungen sind ja ganz nett, aber wann achte ich denn mal drauf. Ich spiele bf4 auch auf niedrig, da interessiert mich die grafik auch nicht.

Und die Spiegeöungen können ja auch gameplaytechische nachteile mit sich bringen :
Wenn sich da alles spiegelt hat der Kerl mit ner Rtx nen vorteil, wenn ich mich in der karre auf der anderen Straßenseite spiegel und er das sieht und ich nicht, weiß er wo ich bin un kann mich killen.
Wird selten passieren, klar aber ich finds trotzdem mäh.
 
Wer mit 720p im Jahre 2018 klarkommt dem sei nicht mehr geholfen :D
Failtracing trofft es wohl eher.
keine stabilen 60FPS und dass bei 1080p, na gute nacht...

Und ganz ehrlich, schatten und spiegelungen stelle ich persönlich von haus immer gleich auf medium, lenkt in shootern vie zu sehr ab!
 
  • Gefällt mir
Reaktionen: smart-
krsp13 schrieb:
also bist du der meinung, dass wir spielegrafik nicht weiter verbessern sollten?
wie sieht dein plan aus? back2basic? einfarbige wände? alles andere lenkt doch nur ab =P

Bin ich nicht (man beachte die Klammern im Satz und das Fragezeichen am Ende), aber zum jetzigen Zeitpunkt ist RT-Raytracing m.E. dazu praedestiniert zu floppen (ausser fuer eine kleine Nische, die es sich tapfer schoen reden wird).

Man kann es/RT-Raytracing bringen, wenn die Karten fett im Saft bei 4K/UHD in Ultraeinstellungen mit mindestens 60+fps (besser noch 120+ fps) stehen und auch schon die kommende/hoeheraufloesende AR-/VR-Generation gut/fluessig bedienen koennen, aber bei nVidia stand Profit(-gier) wohl an erster Stelle.

Der Leistungsverlust aktuell ist viel zu massiv - selbst auf einer fuer dieses nischenhaft genutzte Grafikfeature massiv ueberteuerten RTX 2080Ti - und neben Battlefield V wird man die Limitierung auf (fluessiges?) Full-HD in Shadow of the Tomb Raider (was evt. noch fordernder sein wird) auch feststellen koennen, wenn man den bisherigen Geruechten Glauben schenken mag.

Fortschritt ja, wenn man es sich leisten kann und 4K/UHD in Ultraeinstellungen (idealerweise mit 120+ fps)mindestens bei der teuersten (80erTi) Gaming-Kartenklasse bewaeltigt/uneingeschraenkt ist, aber davon sind wir noch ziemlich weit entfernt (bleibt die Hoffnung auf den Refresh in 7nm/moeglichen Ampere-Nachfolger).

Ich kann mir gut vorstellen, dass nVidia sich um den Grossteil der Gamer in der dann kommenden (Turing-Nachfolge-)Generation nicht grossartig scheren wird und versuchen wird teuer und verfrueht weiterhin Ihre RT-Raytracing Propiertaertechnik durchzuboxen (bei Entwicklern und Gamern) entgegen der Interessen der Mehrheit der Gamer (die lieber 4K/UHD in hohen FPS und AR-/VR-Technik der naechsten Generation ermoeglicht sehen wollen).

Bleibt abzuwarten wie AMD/RTG auf diesen kuenstlichen und verfruehten Hype um RT-Raytracing (was aktuell einfach viel zu wenig bietet, auch im Hinblick auf dafuer zu schwachbruestige GPUs) reagieren wird (bzgl. der naechsten GPUs und Konsolen) und womit Intel in 2020 womoeglich in den dGPU-Markt einsteigen wird.

Ich hoffe fuer das kommende Jahr auf eine solide AMD/RTG Navi Mittelklassekarte in 7nm gefertigt (nVidia hat sich mit Turing leider selbst abgeschrieben/disqualifiziert, nicht nur wegen der unverschaemten Preise fuer die verfrueht eingefuehrte, aktuell unausgegorene, vermutlich schnell/schlecht alternde (Vaporware-Potential-)Technik (in Anlehnung an PhysX), sondern auch weil die Karten zu wenig Langlebigkeit/Speicher bieten), die in etwa auf GTX 1080Ti Niveau liegt, deutlich weniger verbraucht und kostet sowie vorzugsweise schon 12GB bietet ... soviel zu meinem erhofften (GPU-Fahr-)Plan.

Wenn dazu noch eine Navi-Oberklasse-GPU kommen sollte, umso besser ... der Markt hat eine neue Gewichtung/Ausbalancierung dringendst noetig und vielleicht hat nVidia AMD/RTG mit Turing einen ungewollten Gefallen dahingehend getan, wenn denn die Kundschaft abseits der nVidianer auch ein Einsehen haben wird (?) und nicht blind kauft (hoffentlich auch unter Mithilfe serioeser Berichterstattung und Tests von Teilen der Gaming(-Hardware)-Fachpresse) ;).

Bei einigen regiert sicherlich aktuell die Schadenfreude oder der Spott, dass sich nVidia damit hoechstwahrscheinlich/endlich einmal in die Nesseln gesetzt hat, aber es wird sicherlich genuegend "dumme Schafe" und Early Adopter geben, die trotzdem bei den unausgereiften RTX Karten zuschlagen werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: surtic
Die meisten negativ antwortenden Forennutzer denken, glaube ich, in einem viel zu kleinen Maßstab. Es geht doch gar nicht darum, ob sich da etwas schön spiegelt und es ja vorher auch schon schöne Reflexionen gab und Schatten auch schon ganz gut aussahen. Es geht um die Art und Weise, wie das erreicht wird. Das ist ein bisschen wie Grundlagenforschung in den Naturwissenschaften: Klingt oft überhaupt nicht beeindruckend, öffnet aber die Türen zu unglaublichen neuen Entwicklungen. In zehn Jahren werden wir Spiele ohne Raytracing-Support auslachen und uns über limitierte Screenspace-Reflexionen und unnatürliche Schatten aufregen.

NVIDIA legt den Grundstein halt jetzt. Dass die Leistung dafür noch nicht reicht, spielt ja erst mal keine Rolle. Je früher man anfängt, desto eher werden Spielehersteller das Potenzial nutzen und desto eher ist auch die Konkurrenz zum Handeln gezwungen.

Überhaupt: Was ist denn, wenn die RTX-Karten auch bei klassischem Rasterizing eine deutlich höhere Leistung bieten? Wird dann immer noch gemeckert? Und was wäre die Alternative? Alles in brachial höhere Rohleistung stecken, damit die Balken 40 % wachsen und sonst alles beim Alten bleibt?

Das würde ich als extrem langweilig empfinden. Ich begrüße die Entwicklung und freue mich, endlich mal wieder komplett neue Render-Verfahren (zumindest für Spiele) entdecken zu dürfen.
 
  • Gefällt mir
Reaktionen: Zitterrochen, .Sentinel., ZeusTheGod und 4 andere
Tapioka84 schrieb:
NVIDIA legt den Grundstein halt jetzt

gut, der blaue riese hat auch 20+ jahre erfahrung damit. der ist in letzter zeit nur einfach am pennen. evtl. hat der zenmaster ihn ja aus seinem tiefschlaf geweckt und gegen eine intel raytracing gpu hätte ich gar nix :D

auf jeden fall geht das mit nvidia nicht so weiter :D die rennen und rennen und keiner weiß wohing. ein jockey wäre gut. oder eine möhre, aber einfach irgend was entwickeln und dann "nicht" rausbringen (volta) ist doch auch nutzlos.

mfg
 
  • Gefällt mir
Reaktionen: edenjung
Ich finde es eher auch ein Grundstein für die Zukunft, allerdings für 4K mit RT und über 100 Hz wird es wohl dauern. :mad: :(

Grafisch beeindruckt RT, jedenfalls mich. :)
 
  • Gefällt mir
Reaktionen: Duststorm
RYZ3N schrieb:
...

Wenn eine RTX 2080 Ti mit massiv höherer Leistung (im Vergleich zur 1080 Ti) und zusätzlichen Raytracing Features (die ohne jeden Zweifel geil aussehen) kommt, warum wirbt NVIDIA nicht mit eigenen Benchmarks und 60%+?

Wenn unabhängige Tests am 14.09. „nur“ 40%+ bestätigen, ist doch alles gut. Das Herstellerbenchmarks immer „geschönt“ sind, wissen wir (egal ob NVIDIA, AMD oder Intel)...

Aber warum kommt dahingehend gar nichts?

...

Liebe Grüße
Sven

Da möchte ich mal einhaken. Nvidia hat doch ne Folie gebracht zur Mehrleistung einer 2080 zur 1080. Klar, Finale Tests müssen das eh noch detailliert klären, aber ne Stoßrichtung gab es schon Afaik :)
 
t3chn0 schrieb:
Das ist aber nicht passiert. Wo AMD für mich deutlich besser ist, ist dass Thema Asynchronous Computing, DX12. Hier ist NVIDIA sehr enttäuschend. Nur war es bisher auch niemals nötig, explizite Fortschritte darin zu machen, da zumindest kaum ein Spiel massiv davon profitiert hat, was nicht auch mit DX11 perfekt laufen würde auf NVIDIA Karten.

Es gab so einige Spiele die DX12 schon eingeplant hatten und Releasen wollten... aber auf wundersame weise wurde daraus nichts... da Nvidia deren Sponsor war. (ARK, pCars1/2)
 
  • Gefällt mir
Reaktionen: edenjung
RYZ3N schrieb:
Sollte eine 2080 Ti eine 1080 Ti signifikant schlagen (40-60%), dann könnte man ggf. auch über den Preisaufschlag (für die ersten RT-fähigen GPUs) hinwegsehen.

Dazu benötigen wir aber reale Benchmarks und deshalb freue ich mich auf den 14. September.

Liebe Grüße
Sven

Wenn das so wäre, hätte man schon längst Benchmarks veröffentlicht, anstatt eine Salamitaktik zu fahren, in dem nur Benchmarks gegen eine 1080 in den neuen Technologien wie der neuen Kantenglättung oder RTX verglichen wird. Nvidia hat sich da noch nie zurückgehalten, wenn die neue Generation deutlich schneller war.

Mehr wie 20 - 25% werden es nicht sein, garantiert.
Ergänzung ()

Palmdale schrieb:
Da möchte ich mal einhaken. Nvidia hat doch ne Folie gebracht zur Mehrleistung einer 2080 zur 1080. Klar, Finale Tests müssen das eh noch detailliert klären, aber ne Stoßrichtung gab es schon Afaik :)

Eine Folie mit null aussagekraft. Da wurde nur AA gegen die neue Kantenglättung verglichen.
 
Zuletzt bearbeitet:
Das sieht mit RT schon verdammt gut aus, muss man sagen. Aber für jeden, der einen WQHD/UHD Monitor hat sind die Karten uninteressant. Solange sie natürlich nicht die Auflösung auf FHD stellen (was vermutlich die wenigsten tun würden). Aber selbst da bedarf es schon einer 2080ti. Ich meine klar es ist noch ne alpha usw. aber ich kann mir beim besten Willen nicht vorstellen, dass sie durch patches und Treiber die Leistung soweit anheben können, dass man zumindest bei 1440p auf annehmbare Frameraten kommt. Schade eigentlich.
 
Zuletzt bearbeitet:
Also ich bin nochmal in mich gegenagen und sehe keinen Grund für eine RTX2080. c.a. 5% Mehrleistung zur 1080ti die ich schon habe und dafür aber auch nochmal 200 Euro teurer. Von einer 2080ti für 1300 Euro brauchen wir ja gar nicht erst anfangen zu diskutieren.

Cyberpunk 2077 wird auf einer 1080ti entwickelt und das beruhigt doch zu wissen.
 
Schon seltsame Zeiten irgendwie. Ich finde die Preise für HighEnd ziemlich abgehoben und überzogen, mindestens um den Faktor 2.
Flaggschiff GraKas bin ich preislich gewohnt (im Katalog) bei 400-500€.
Andererseits konnte man als Gamer nie seine Hardware so lange nutzen wie heute.
Du kannst für echt kleines Geld einen neuen PC bauen oder für noch kleineres Geld mit gebrauchten Teilen und damit alle aktuellen Spiele daddeln.
Also kann von einer zwei Klassen Gesellschaft beim PC Gaming geredet werden?!
 
seit mit doom (wolfenstein 3d) die 3d grafik für endverbraucher quasi eingeschlagen ist wie eine bombe, gab es immer mal ausreißer nach oben. gerade glide (was hammer aus sah) war nicht preiswert. 2 voodoo2 12mb sli für 1024x768 haben damals auch ordentlich gekostet. und dann brauchte man noch eine brauchbare 2d karte :D

1k sind wirklich nicht wenig, aber es ist aktuell ein bisschen mit der glide zeit vergleichbar. mutti würde brückentechnologie sagen.

mfg
 
Haut mich persönlich kein bisschen um. Ich kenne Leute die Shooter bewusst mit kleinerer Auflösung zocken um die Gegner besser zu Orten. Je aufwändiger die Grafik ist, desto schlechter kann man sich bei so hektischen Spielen doch konzentrieren? Zudem ist der Preis für das Gebotene ja mal absolut lächerlich zumal ich mir keine 2080ti hole und dann beim Monitor nur mit 1080p herumdümpel.

Eigentlich sollte AMD mal wieder konkurrenzfähig werden und eine Karte bringen die Preis und Leistung besser hin bekommt als Nvidia es aktuell macht. Das wäre jetzt eigentlich die richtige Zeit um aus der Versenkung aufzutauchen.
 
n00p schrieb:
Lass die Hater einfach weiter haten.

Die sehen nur das NVIDIA etwas rausgebracht hat das AMD noch gar nicht kann und heulen rum.

Ich bin keineswegs ein NVIDIA Fanboy, habe sogar AMD Aktien, aber dieses rumgemeckere hier ist total lächerlich.

Das ist das erste mal seit langer Zeit, dass es endlich mal einen Fortschritt und eine Neuentwicklung im Grafikbereich der Games gibt, die auf Dauer sogar richtig gut aussehen wird! und ihr habt nichts besseres zu tun als rumzumeckern, dass es nicht sofort auf jeder Grafikkarte flüssig, am besten bei 4k 144hz HDR läuft... Bleibt einfach offline, ist besser so.

Die Rohleistung soll ohne Raytracing deutlich steigen, klar sind die Preise überzogen, aber aus Unternehmehrsicht: Wer kann der kann. Und NVIDIA kann; warum das so ist, solltet ihr mal drüber nachdenken.

Ich freu mich auf Raytracing und werde bei der nächsten/übernächsten Generation zuschlagen, denn man sollte mittlerweile Wissen, dass man von Technik in Kinderschuhen nicht erwarten kann, dass sie sofort optimal läuft ;)
Gut das ich ne Nvidia Karte habe und es lächerlich finde was Nvidia da macht, aber naja jeder ist sofort ein Hater nur weil man es nicht gut heisst, yikes was ne logik.

Das einzige was lächerlich ist, ist Nvidia die groß ankündigen mit RTX und die performance so gut wie poop ist auf FHD in 2018, nice 4k karte btw. Und solche die das nice finden sind halt leute dennen alles egal ist und auch gerne mal den knuckel suckeln
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Vollkorn
Also der gezeigte Straßenkampf ist ja wohl mega. Scheint eine tolle Map zu sein. Erinnert mich stark an Seine aus BF3. Ich bin gespannt! Bin auf die Performance mit meiner Hardware gespannt.
Was Nvidia mit dem RT hinzaubert ist schon ein Augenschmankerl. Für mich allerdings "leider" kein Argument mir die jetzt die Neue zu kaufen. Hab einfach nicht mehr die Zeit dafür ergo lohnt sich nicht.

Naja insgesamt überlasse ich es dem ein oder anderen über die neue Karte und die horrenden Preise zu schimpfen. Der Aktienkurs profitiert auf jeden Fall seit Release deutlich
 
Zurück
Oben