News Nvidia Turing: Potentielle Benchmark-Ergebnisse entdeckt

Raytracing wird ganz sicher keine Eintagsfliege, denn ab einem bestimmten Punkt ist es sinnvoller, Raytracing zu nutzen als immer mehr Brute Force für nur noch marginale Verbesserungen in klassischen Rendering zu stecken. Turing ist halt der Anfang, große Performance Verbesserungen ggü der Vorgänger Generation erwarte ich nicht, die Chipfläche wird eben für die RT Cores benötigt. Solche "Zwischengenerationen" gab es immer, ist nicht ungewöhnlich. Muss man sich nicht drauf stürzen und kann gern noch 1-2 Generationen abwarten, dann sind die auch so schnell, dass das eigentliche neue Feature vernünftig genutzt werden kann.

T&L auf der ersten Geforce brachte auch nur etwas mit langsamer CPU, später war es Standard.
DX8 auf der GF4 brachte uns Quecksilberwasser in Morrowind, später war genug Shaderperformance da, um damit auch was Sinnvolleres zu machen.

etc.

(ich fühl mich grad alt :D )

ZeXes schrieb:
Raytracing sehe ich alleine als sehr schwierig an, weil ich sehr stark bezweifel, dass die nächsten Next Gen Konsolen PS5/XB2 Raytracing unterstützen werden. Beide Konsolen werden auf einer NAVI+Zen Architektur aufbauen und ich bezweifel aktuell stark, dass NAVI so stark mit Raytracing umgehen wird.

Die größten Änderungen in Spielen werden immer durch die Konsolen weiter gebracht/gefördert, aufgrund ihrer hohen Stückzahlen. Sollte keine next gen Konsole Raytracing unterstützen, dann hat halt NVIDIA Pech gehabt und Raytracing wird eine Eintagsfliege.
 
  • Gefällt mir
Reaktionen: sonic_blade, DefconDev, .Sentinel. und 4 andere
aivazi schrieb:
Naja, den Rückschritt von 4K 60 FPS zu 1080p 60 FPS muss man sich erstmal auf der Zunge zergehen lassen.
Welche Entwickler sind den davon begeistert ??

Ich finde es schade dass du so bemüht bist bei jeglichen Nvidiathemen immer alles schlecht zu machen.
Ich wiederhole mich, aber scheinbar ist es dir entgangen dass es hier keinen Fertigungssprung gibt, deshalb ist deine Kritik an der laut dir geringen Mehrleistung ziemlich absurd.
AMD erreichte zuletzt im gleichen Fertigungsprozess Steigerungen von 15 bis 20% mit Fiji vs. Hawai, bei gleichzeitig auch gestiegener Leistungsaufnahme, ohne RTX Einheiten.

Und Bildqualität kostete schon immer viel Leistung, wieviel FPS das dann werden ist bisher aber unklar.
Hast du mal Crysis damals gespielt?
Das lief in Full HD nicht mal auf dem stärksten SLI flüssig...

Und die Entwickler sind begeistert, das haben sie ja jetzt nun mehrfach schon ausgesagt.

Ansonsten gäbe es auch nicht bereits jetzt schon breite unterstützung dafür.
https://www.computerbase.de/news/gaming/nvidia-rtx-plattform-21-spiele-raytracing-dlss.64653/

http://www.pcgameshardware.de/Cyber...chtzeit-Raytracing-Nvidias-Hairworks-1263889/

Laut PCGH Raff sind alle Entwickler ziemlich angetan davon.
 
  • Gefällt mir
Reaktionen: Oneplusfan und .Sentinel.
Axxid schrieb:
Kein strenges NDA dieses mal? Oder hat das eine andere Plattform geleakt?
Sie zitieren es von andern Computerseiten dadurch ist das kein problem beim nda
 
ZeXes schrieb:
Raytracing sehe ich alleine als sehr schwierig an, weil ich sehr stark bezweifel, dass die nächsten Next Gen Konsolen PS5/XB2 Raytracing unterstützen werden. Beide Konsolen werden auf einer NAVI+Zen Architektur aufbauen und ich bezweifel aktuell stark, dass NAVI so stark mit Raytracing umgehen wird.

Die größten Änderungen in Spielen werden immer durch die Konsolen weiter gebracht/gefördert, aufgrund ihrer hohen Stückzahlen. Sollte keine next gen Konsole Raytracing unterstützen, dann hat halt NVIDIA Pech gehabt und Raytracing wird eine Eintagsfliege.


völlig richtig. ich denke aber eher, die konsolen werden es haben weil nvidia es jetzt schon gnadenlos mit high-end chips in den konsumermarkt drückt. letztendlich sind es nur angeflanschte neue cores an vorhandene. könnte eine begründung sein, warum amd vega dann für konsolen eingestampft hat und lieber polaris mit "irgendwas" zu navi ausbaut :D

und letztendlich wird es sowieso noch 2-3 generationen von hardware benötigen, bis man das ganze bild full raytracing live in 30+ fps rendern kann. bis dahin ist es ja sowieso ein "mischmasch". da könnte man auch raytracing zusatz karten bauen für bildnachberechnung alá voodoo oder physix.

mfg
 
Zuletzt bearbeitet:
Hitomi schrieb:
ich geb ja nicht viel auf solche geleakten Benchmarks. Aber wenn diese hier nur halbswegs zutreffen, frage ich mich womit nVidia den hohen Preis für die neuen Karten rechtfertigen will. Nur wegen des Raytracings bestimmt nicht.

Evtl DLSS. Wenn die Tensorcores mitarbeiten dürfen, sehen die Spiele - zumindest nach Angaben von Nvidia - besser aus und laufen schneller. Ist wohl auch wesentlich leichter (nachträglich) zu implementieren.
 
rico007 schrieb:
Von Maxwell auf Pascal war ein großer Sprung.
Der Sprung war nur der höhere Takt. Wenn man die gleich hoch taktet ist kein Unterschied mehr zu sehen.
Wie nennst du das bitte einen großen Sprung?
 
  • Gefällt mir
Reaktionen: exuser0815
Nulight schrieb:
Dann habe ich mit der EVGA 1080Ti FTW3 im Abverkauf ja alles richtig gemacht und nicht voll ins Klo gegriffen.;)
Um welchen Preis? :D
 
Man könnte auch sagen: die Spiegelungen und Reflexionen in den Tränen (der Käufer) werden gigantisch!
 
  • Gefällt mir
Reaktionen: LOLinger78, nebulus, chuckie und 4 andere
nochmals: sollte nicht auch noch GTX Modelle mit Volta(?) GPU erscheinen? und dann wieder zu erträglichen preisen?
 
Würde DLSS out of the box mit allen Spielen funktionieren, dann wäre ich vielleicht schwach geworden.
 
aivazi schrieb:
Turing ist quasi eine Refresh Generation mit neuem Raytracing Feature und höheren Preisen :D

Soviel Unfug behaupten tut schon irgendwo weh. Polaris als RX 580 ist ein Refresh, und 7% schneller als eine RX 480 bei gleichzeitig stark angestiegener Leistungsaufnahme +20%.

Das hier ist ein neuer Chip mit mehr Einheiten,überarbeiteten Shadern,Raytracing und neuer Speichertechnologie und du nimmst Refresh in den Mund.
 
@Ludwig55
Es interessiert mich wie der Reissack aus China, ob hier null, ein, zwei oder fünf Shrinks vorliegen, die Grafikkarte Geforce GTX 10x0 mit Pascal-Chip war für mich als Kunde attraktiv und revolutionär in Bezug auf Leistung, Verbrauch und Speicherkapazität, was Turing in allen drei Punkten nicht ist. Das der Turing Chip teuer und groß ist, interessiert mich nicht im geringsten, AMD Vega ist auch groß und trotzdem für mich als Kunde weniger Wert, als eine (kleinere) GTX 1080, weil 2 der 3 angesprochenen Punkte (Leistung, Verbrauch) nicht mithalten können.

Nvidia bringt jetzt hier neben den drei angesprochenen Kaufkriterien einen weiteren Punkt auf den Tisch: Ray Tracing - dieser ist für mich (und sicher einige andere) rein gar nichts Wert, weil 1080p 60FPS in dieser Preisklasse ja wohl nur ein schlechter Witz sein kann. Ich spiele seit 2014 in WQHD 144Hz und das seit der GTX 970 flüssig, wenn auch nicht immer in Ultra-Einstellungen.

*Phone Call incoming* : Das Jahr 2018 hat angerufen und möchte gerne den kleinen Nvidia aus dem Jahr 2008 abholen

Entwickler finden zwar RT eine tolle Sache, aber solange keine breite Hardwarebasis für RT vorhanden ist wird sich auch bis auf ein paar Spielereien (zu exorbitanten Peformancekosten) rein gar nichts an den Spielen ändern. Und wenn RT in der Masse vorhanden ist, kann man mit der Leistung der RTX 2000 Generation ohnehin nichts mehr anfangen. Das Feature noch nicht einmal in der early adoper phase angekommen und bietet mir daher absolut null Mehrwert.
 
  • Gefällt mir
Reaktionen: Bullz, GERmaximus, Herr Melone und 12 andere
Je nachdem welche Karte (2070 oder 2080) gebenched wurde war das Ergebnis so abzusehen.
Die "großen" Performancesprünge gibt es wohl nur in Titeln die aktiv DLSS unterstützen.
 
der große unterschied von 10x0 zu 20x0 soll ja raytracing sein. wenn ich mir https://blogs.msdn.microsoft.com/directx/2018/03/19/announcing-microsoft-directx-raytracing/ und https://github.com/Microsoft/Direct...ies/D3D12RaytracingFallback/developerguide.md ansehe, dann sehe ich, dass raytracing klassisch über shader realisiert wird. damit das möglichst einfach funktioniert, müssen diese shader speziell auf den speicher der graka zugreifen können, was jetzt erst mit der 20x0 geht (alle anderen karten können das emulieren).

jetzt hat die 20x0 reihe ein paar shader mehr, die nun für raytracing genutzt werden können (gleiche rasterization performance + ein paar raytracing goodies) oder man lässt raytracing weg und hat etwas mehr performance wenn man nur rasterization benutzt.

in meinen augen nett, aber den (jetzigen) enormen aufpreis nicht wert.
 
Dafür, das nVidia mit der 2xxx vorne startet, wurden wohl hohe Erwartungen geschürt. Mal schauen, ob die "offiziellen" Benchmarks (mit passenden Treibern) auch eher eine Generation 11xx erwarten lassen oder ob es noch den Sprung schlechthin geben wird, der eine 2xxx rechtfertigen könnte (aus Marketingsicht).
 
Zitat von mackenzie83:
nochmals: sollte nicht auch noch GTX Modelle mit Volta(?) GPU erscheinen?


die frage ist wozu? nvida hat doch haufen gtx10x0 chips zurück genommen. wenn nachfrage da ist, werden die umgelabelt und die waren und sind ja wirklich toll. selbst bei 50-100 watt haben die richtig viel leistung.

und einfach nochmal verkaufen :D

mfg
 
Die wirklich wichtige Frage ist doch: Für wann ist Navi in 7nm zu erwarten?
Eigentlich hieß es ja immer 2019 - jedoch kommen ja immer mehr und mehr Gerüchte auf, dass AMD die Entwicklung auf die PlayStation5 abzielt, welche frühstens 2020 kommen soll...
 
aivazi schrieb:
Naja, den Rückschritt von 4K 60 FPS zu 1080p 60 FPS muss man sich erstmal auf der Zunge zergehen lassen.
Welche Entwickler sind den davon begeistert ??

Sollte RT tatsächlich so toll (vor allem schnell) funktionieren wie angepriesen, wird dir jeder mit halbwegs Ahnung bestätigen dass es schlichtweg DER SHIT ist.

Vernünftige Render mit Raytracing (aus 3dmax, c4d, maya oder whatnot) brauchen für ein einzelnes Bild in annehmbarer, vergleichbarer Qualität ne Minute. Das wären 0.016 FPS

So gesehen sind selbst 30FPS @ 1080p tatsächlich eine krasse Leistung.
 
  • Gefällt mir
Reaktionen: mr_capello, .Sentinel. und [wege]mini
Zurück
Oben