News Nvidia Quadro RTX: Turing mit bis zu 16 TFLOPS und RT-Cores für Raytracing

Mustis schrieb:
... man kann Ray Tracing nicht proprietär machen. Es ist eine physikalische Berechnung. Man kann nur vorgefertigte Bausteine anbieten, die Programmierer nutzen können. Diese könnte man aber jederzeit auch selbst programmieren. Immer wieder dieser auf blanken Unwissen propagierte Mist ey...

Na ja, leider ist nicht jeder mit solcher Allwissenheit beglueckt :rolleyes:.

Natuerlich kann man kuenstlich alles proprietaer machen, wenn man denn will und die Marktmacht (den Standard setzen kann, bei G-Sync etwa ist das gluecklicherweise nicht passiert, und Entwickler in der Tasche hat bzw. sich diese in die Tasche holt) hat.

Ob es so kommen wird oder nicht, werden wir wohl abwarten muessen ... unwahrscheinlich ist es jedenfalls nicht und so eine Vorgehensweise waere nVidia-klassisch/-typisch bzw. es waere erstaunlich, wenn man daraus kein Kapital schlagen wuerde, um die eigene Marktdominanz weiter zu festigen.
 
Zuletzt bearbeitet:
Locuza schrieb:
Nicht jeder GameWorks Effekt ist und war über die DX11 API umgesetzt, einige Dinge wurden durch Nvidia exklusive APIs bereitgestellt, wie Conservative Rasterization, was Nvidia für The Division und Watch Dogs 2 integriert hat.
.

Darum schrieb ich ja auch "fast" :)

Wobei CR eine DX 11.3 API Spezifikation ist und somit vom AMD eh selbst implementiert werden muss. Die einzigen Dinge die nicht rein DX11 sind, sind die APEX-Effekte die PhysX brauchen, soweit ich mich erinnere.

Dass nVidia noch zusätzliche APIs bringt glaube ich auch. Die Frage ist halt wie relevant die dann fürs Gaming sind.
 
Seskahin schrieb:
ei/henne
ohne Hardware wird's keine Software geben
Locuza schrieb:
wie Conservative Rasterization, was Nvidia für The Division und Watch Dogs 2 integriert hat.
das ist inzwischen aber in dx11/12 integriert? selbst Intel docs findet man dazu.
johnieboy schrieb:
Solange Rytracing nicht adäquat gut auf AMD Hardware und damit den Konsolen läuft wird es genau so laufen wie damals mit PhysX. Ein Feature das in "The way ist meant to be played" Spielen nachträglich angeflanscht wird via Nvidia Gameworks Blackbox.
Aber keinerlei native Implementierung.
es wird eine amd Implementierung geben, keine sorge. amd hat sich bereits dazu geäußert.
es bringt aber nix sich jetzt nvda gegeüber dazu negativ zu äußern nur weil amd hier nix vorzuweisen hat.
schon vor jahren gab es die Brigade Demos. vor kurzem die UE4 demo von StarWars
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran
Bitte jetzt hier nicht wieder einen AMD gegen NVIDIA Thread draus machen.

Hier im Thread interessiert 0, was AMD nicht dagegensetzen wird, wie unverschämt teuer nicht die neuen Karten werden (bei den Consumer Karten ist noch nichts bekannt) und wie schlimm NVIDIA nicht ihre Marktmacht ausnutzen wird etc. etc.

Es geht hier zudem um die Quadro...

Danke
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Crax und cruse
@WorkX
Ziemlich dünner erster Beitrag (Forenregeln nicht gelesen?).
Führe doch mal Deine Gedankengänge und logischen Folgerungen dazu aus...

Grüße
Zero
 
BestinCase schrieb:
Wann kommt den AMD mal eine Ankündigung?

polaris 30 (12nm refresh) kann jederzeit kommen. ich vermute, dass das ab der gamescom bis spätestens ende q3 2018 der fall sein wird. ist ja nix wirklich neues.

falls eine vega 7nm kommt, wird man vielleicht auch um september/oktober was davon in form von leaks zu sehen bekommen. release, falls er denn kommt, würde ich Q4 18 bis Q2 19 anpeilen.
wenn amd schnell ist, könnte man versuchen mit einer 7nm vega demo das gamescom event von nvidia zu crashen - aber das ist fast n bissl früh.

navi irgendwann h2 2019.

gesetzt natürlich, amd will im gaming segment weiter machen - von dem ich nicht ungedingt ausgehen würde.

man könnte navi auch komplett an sony abgeben - ohne desktop spinoff - vega nur noch für professionelle karten entwickeln und sich polaris 30 sparen. die 10-15% mehr leistung hin oder her ist dann au wurst, wenn man sowieso aus dem markt aussteigen will.
 
Ich muss doch nicht ernsthaft erklären, warum eine GPU keine Billion (ist schon klar wie viele das sind) Dreiecke pro Takt(!) transformieren kann.

Ist ja nicht böse gemeint aber:
Wenn Auto Bild schreibt der neue Tesla fährt 50000 km/h glaube ich das auch nicht, weil die Größenordnung nicht plausibel ist.
 
In dem Wiki Artikel steht doch gar nichts über den Polygondurchsatz oder habe ich das jetzt überlesen?

Nochmal:
Angeblich 1 Billion Dreiecke pro Takt(!) (über 1 Mrd. Takte pro Sekunde) macht also pro Sekunde locker 1 Milliarde Billionen Dreiecke.

Das ist von der Größenordnung her unglaubwürdig. So als ob einer sagt er hätte 1 Milliarde Milliarden auf dem Konto oder in Seiner Stadt würde ein 10.000 Km hohes Haus gebaut.
Ich will das nicht prinzipiell als unmöglich bezeichnen, aber nicht in den nächsten 100 Jahren.
 
  • Gefällt mir
Reaktionen: Hill Ridge und Darkscream
Doch steht es. Texelfüllrate. Das der Autor pro Sekunde meint, sollte klar sein. Takt ist hier wohl im Sinne von Zeittakt gemeint, üblicherweise also 1 Sekunde und nicht Takt im Sinne von einem Durchlauf auf der KArte.
 
@WorkX
Vielleicht liegt auch der klassische Überstzungsfehler "Billion" Englisch = "Milliarde" Deutsch...

@Mustis
Texels sind aber "durchtexturierte Pixel":
https://de.wikipedia.org/wiki/Texel_(Bildsynthese)

Nachtrag:
Ist wohl so wie oben geschrieben. Billion = Milliarde

Um die Leistungsdaten einordnen zu können:
In the 1080 GTX there are 20 polymorph engines thus it is supposed to be capable of processing 10 triangles per cycle and in theory should be processing 16 billion triangles per second. The tests show that it can process around 11 billion triangles per second.

Grüße
Zero
 
Zuletzt bearbeitet:
Das wäre aber, wenn wirklich nur ein Durchlauf auf der Karte gemeint ist, auch massiv zu hoch.

Turing soll 3 ma so schnell sein wie Pascal. Das entspräche ca. 1 Billion Texel pro Skeunde.
 
DocWindows schrieb:
Darum schrieb ich ja auch "fast" :)

Wobei CR eine DX 11.3 API Spezifikation ist und somit vom AMD eh selbst implementiert werden muss.[...]
cruse schrieb:
das ist inzwischen aber in dx11/12 integriert? selbst Intel docs findet man dazu.
[..]
Conservative Rasterization ist auch unter DX11.3 und DX12 spezifiziert, aber diese APIs verwenden die genannten Spiele nicht, sondern DX11.0 mit Nvidia exklusiven APIs für CR.
Somit läuft das nur unter Nvidia, aber auch von Windows 7-10, DX11.3/12 sind W10 exklusiv.
Würden die Spiele DX11.3/12 für HFTS verwenden, dann würde es folgerichtig auch unter Intels Gen9 Hardware und auch unter GCN5 (Vega) funktionieren, aber wie gesagt wird das dort so nicht umgesetzt.

Analog dazu die Geschichte mit RTX und Raytracing.
Da bin ich jedenfalls noch gespannt darauf, wie die Implementierung mit DXR und RTX in den Spielen aussehen wird und ob nicht einige Spiele das Ganze völlig Nvidia exklusiv umsetzen.
 
  • Gefällt mir
Reaktionen: Iscaran und cruse
Das könnte sein. Es wären meiner Meinung nach noch immer unglaubwürdig viele Polygone.

Aber immerhin Faktor 1000 besser. :-)
 
  • Gefällt mir
Reaktionen: Hill Ridge
Hier in den Kommentaren kommt es so rüber, dass Spiele die Raytracing-Support haben auf ältere Grafikkarten nicht gescheit laufen werden. Da stellt sich mir die Frage ob man das Feature nicht einfach dealtivieren kann und gut ist?
 
duskstalker schrieb:
navi irgendwann h2 2019.

gesetzt natürlich, amd will im gaming segment weiter machen - von dem ich nicht ungedingt ausgehen würde.

man könnte navi auch komplett an sony abgeben - ohne desktop spinoff - vega nur noch für professionelle karten entwickeln und sich polaris 30 sparen. die 10-15% mehr leistung hin oder her ist dann au wurst, wenn man sowieso aus dem markt aussteigen will.

Mit etwas Glueck darf Navi auch gerne (ueberraschend) etwas frueher kommen ;), ich gehe aber auch vom 2.Halbjahr 2019 aus.

Also die Navi-Entwicklungs-Sony-Exklusivstories/-geruechte halte ich fuer massiv hanebuechen, denn so klein ist Microsoft (zum Glueck) im Konsolenbereich auch nicht. Ausserdem waere es nicht nur strategisch hochgradig daemlich von AMD damit eine Spaltung im (zum Glueck) noch dominierten Konsolenbereich zu forcieren und oekonomisch ebenso, wenn man mit den Gaming-Einstiegs- und Mittelklasse-GPUs den groessten Profit (weitaus mehr als bei den teureren (semi-)professionnellen GPUs auf Basis von Vega, nicht nur wegen HBM2 aber vor allem wegen der Die-Groesse) macht.

Bei allem (nicht unbedingt ungerechtfertigten) Pessimismus, den Du bzgl. AMDs/RTGs zukuenftigem Engagement im Gaming-GPU-Segment hier regelmaessig zum besten gibst, bitte male hier nicht gleich den Teufel an die Wand und es braucht m.E. keine (teure/vergeudete/finanziell nicht tragbare) 7nm RX Vega als Gegenstueck zu Turing, sondern eine (hoffentlich) baerenstarke Navi im kommenden Jahr ist deutlich wichtiger.

Wenn AMD/RTG clever ist, werden sie genau eine solche Navi GPU kurz vor oder parallel zum Turing-Markstart bewerben, um nVidia den Wind etwas aus den Segeln zu nehmen und Leute zum warten auf Navi (als Alternative) zu bewegen, auch wenn das noch ein Weilchen hin ist bis Navi erscheint ... andererfalls wird der Grossteil des Kuchens leider wieder gegessen sein, weil das Marketing von AMD/RTG gepennt/versagt hat bzw. man nVidia "wehrlos" das Feld ueberlassen hat.
 
Zurück
Oben