News Nvidia Quadro RTX: Turing mit bis zu 16 TFLOPS und RT-Cores für Raytracing

Hill Ridge schrieb:
Leider ist das halt nicht mehr aktualisiert worden, GCN5 fehlt da.
1534356912773.png

https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D
 
Mh sie haben auch behauptet dass TR und Ryzen und Gsync auf Win10 alles gebt und nix geht klasse Leistung.

Nur verstehe ich nicht entweder die bekommen von Intel Geld oder warum machen die dass.
Ergänzung ()

Genau deswegen NV GPU AMD CPU für den A*** ist leider immer noch so. Deswegen nix mit NV meant to Play zumindest wenn AMD CPU drin ist. ;-)
 
Inxession schrieb:
Vermutlich vom Fehlenden Async
Läuft seit Pascal.

Mcr-King schrieb:
Nur verstehe ich nicht entweder die bekommen von Intel Geld oder warum machen die dass.
"Der Nvidiatreiber scheint mir mit 32/64T nicht klar zu kommen und die Leistung bricht in CPU lastigen Szenen um die Hälfte ein. Wie schon geschrieben existiert diese Auffälligkeit auch bei Intel Systemen bei derart hohen Kernzahlen (schon seit Jahren provozierbar). Wenn Windows mit 64 logischen Prozessoren gebootet wird bricht die Performance massiv ein."
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11769097&postcount=60

Es ist ein Treiberfail der beide Hersteller betrifft.

Mcr-King schrieb:
Genau deswegen NV GPU AMD CPU für den A*** ist leider immer noch so.
PCGH hat ein Special bezüglich der Ryzen-Performance bei einer 1080 GTX vs. Vega64 gemacht und im Schnitt war da kein Unterschied zu erkennen.
Mit einem Bulldozer hat man sich früher gewiss über den DX11 Nvidia-Treiber freuen dürfen, da er wesentlich besser skaliert, als AMDs DX11-Treiber:
https://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/5/

Also die Aussage das NV GPU + AMD CPU schon immer für den A war, ist nicht wahr.
 
Shoryuken94 schrieb:
Spannend wird auch, wie viel Speicher Nvidia wirklich verbaut. Wenn Sie wirklich eier haben, könnten sie tatsächlich 16GB auf die 2080

Die Eier sind aber nicht vorhanden. Es ist eine ähnliche Bestückung wie bei der 1080 auf der neuen Karte.
 
Stimmt nicht ganz Async Shader läuft auf NV Pascal nicht mit HW sondern mit SW.

Trotzdem läuft NV auf Intel und DX besser ausser dem gibt es keine 32/64 Desktop CPU von Intel. Wenn außer dem ass Problem bekannt ist warum weiß CB nix davon.

Doch wieder pro Intel NV komisch.
 
Apropos Intel, die ersten diskreten GPUs von Intel sollen angeblich auf den Gaming Markt abzielen und nicht das Profi-Segment (zumindest ist da keine klare Hierarchie/Priorität sichtbar und wird auf gute/günstige Skalierung (von AMD CPUs abgeschaut ?) gesetzt), wenn man Wccftechs Prognose/Quelle(?) Glauben schenken mag.

Wie es bei diesen dann wohl um dedizierten Raytracing-Support bestellt sein wird?

Bei den Namen ("Arctic & Jupiter Sound") musste ich schmunzeln beim ersten lesen, das wäre Intel-passend (analog zur "Lake"-Geschichte bei den CPUs) :p.
 
  • Gefällt mir
Reaktionen: Mcr-King
Mcr-King schrieb:
Stimmt nicht ganz Async Shader läuft auf NV Pascal nicht mit HW sondern mit SW.

Trotzdem läuft NV auf Intel und DX besser ausser dem gibt es keine 32/64 Desktop CPU von Intel. Wenn außer dem ass Problem bekannt ist warum weiß CB nix davon.
Nein, Async Shader laufen auf NV über die HW, du siehst die Verwaltung von Compute-Queues unter GPUView:
https://benchmarks.ul.com/static/images/news/nvidia-gtx-1080-async.png
https://benchmarks.ul.com/news/a-closer-look-at-asynchronous-compute-in-3dmark-time-spy

Und genauso meldet Maxwell unter Vulkan keinen Support für Compute-Queues zurück, Pascal aber schon:
https://vulkan.gpuinfo.org/displayreport.php?id=3829#queuefamilies
https://vulkan.gpuinfo.org/displayreport.php?id=3835#queuefamilies

Unter DX12, wo immer alle Queues unterstützt werden müssen, werden die Commands-Lists einer Compute-Queue bei Maxwell in eine 3D-Queue gesteckt und das übt weder auf der CPU, noch GPU-Performance einen relevanten Performancefaktor aus.
Sniper Elite 4 AC on/off:
http://www.pcgameshardware.de/Sniper-Elite-4-Spiel-56795/Tests/Direct-X-12-Benchmark-1220545/
https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/3/

Und bezüglich der CPUs, ich weiß gar nicht was dein Argument sein soll.
Nvidias Treiber hat ein Problem mit dem sehr hohen Threadcount, schon seit langer Zeit, auch unter Intel.
Nvidia wird da weder von Intel bestochen, noch bremsen sie mit Absicht AMD.
Es fällt eben nur jetzt mehr Leuten auf, da AMD CPUs mit 64 Threads unter einem CPU-Package verkauft und das solch CPU auch von der Mainstream-Presse getestet wurde, mit den eben auffälligen Ergebnissen.
 
Na schau an, Speicher wie bei der 1000er Reihe, Preise wie bei der 1000er Reihe. Wer häts gedacht? :rolleyes: Wie unerwartet, shocking.... not.
 
Speicher und Preise sagen ja noch nichts über die Leistung aus. Das Nvidia beim Speicher geizt war doch schon immer so...
 
Na aber hier wurde doch quasi als gegeben gesehen, dass die 2080 12 oder mehr Speicher haben MUSS, weil alles andere ja völlig Blödsinn sei.... Selbiges zu den Preisen, wo manche Spezis hier ja von 900$ UVP und dergleichen fantasiert haben. Zur Leistung wird man schauen, ich erwarte keinen so großen Sprung. Turing wird über Features Punkten. Der nächste große Leistungssprung wird wahrscheinlich erst mit den 7 nm Karten kommen.
 
denke auch das erst mit 7nm ein größerer Takt/Leistungssprung gemacht wird. Aber man muss abwarten wie die Architektur mit den jetzt zur verfügung stehenden Mitteln arbeitet.
 
Zuletzt bearbeitet:
Ich habe nur in den Raum gestellt warum Gsync und HDR und MultiCore Support immer noch nicht richtig geht auf NV. Was mich ja gleich wieder drauf bringt dass ganz Wenige Gsync HDR und Multicore mit 8 und mehr haben.

Zur GPU wartet auf die GamesCon und auf Intel laut neusten Berichten tut sich da was mal sehen. Wenn es stimmt ende des Jahres dGPU für Gamer von Intel dann warte ich noch bis zu 2018/19.

Ein Player mehr am markt ist immer gut 👍
 
Mcr-King schrieb:
Ich habe nur in den Raum gestellt warum Gsync und HDR und MultiCore Support immer noch nicht richtig geht auf NV.
Was soll da bitte nicht gehen? Und wo ist da überhaupt der Zusammenhang? So redest wirres Zeug...
 
AMDs TR bricht auf NV massive ein auf Vega nicht Gsync geht seit 1807 Win 10 nicht mehr Richtig, HDR auf Pascal verliert massive an Leistung.
 
Mcr-King schrieb:
Ein Player mehr am markt ist immer gut 👍
Ja natürlich, die Intel Info ist das es sich um eine dGPU handelt und diese Deep Learning kann, also AI und damit könnte sie sicher auch auf eine Weise Raytracing beschleunigen.

Das man auf der Gamescon 2019 schon was sieht glaube ich nicht , eher 2020.

Z.Z. soll nV erstmal den Treiber für 32/64 fit machen, was nutzt die ganze GPU Performance wenn die CPU womöglich im Echtzeitrendering limitiert, mehr Cores sind immer gut. Man kann sich nur vorstellen, dass dies auf Quadros nicht anders aussieht?

Das sie einen besonders guten Linux Support liefern kann man auch nicht behaupten.
 
Mcr-King schrieb:
AMDs TR bricht auf NV massive ein
Kann ich jetzt nichts zu sagen, aber anhand deiner sonstigen Ergüsse ist das erst mal ne blanke Behauptung von dir.
Mcr-King schrieb:
t Gsync geht seit 1807 Win 10 nicht mehr Richtig
Falsch, das ist nicht generell so, ich hab z.B. kein Problem damit, zum Teil ist der Bug aber auch schon gefixt.
Mcr-King schrieb:
HDR auf Pascal verliert massive an Leistung.
Völliger Schwachsinn. In einigen wenigen Games ja. Und? Vega kackt in einigen Spielen auch ab, ganz ohne HDR. Zudem ist Nvidia auch mit HDR noch immer schneller als AMD. Kannst du die Ergebnisse hier auf CB nicht verstehen oder nimmst du die echt so selektiv wahr? Oo
 
Zurück
Oben