News Turing für Spieler: Nvidia enthüllt GeForce RTX 2070, 2080 und 2080 Ti

Das von AMD noch nichts zu hören ist kann vielleicht daran liegen, das die Nvidia GPU´s zwar vorgestellt sind aber die reale Leistung noch nicht bekannt. Da AMD nächstes Jahr 2 Jubiläen feiert, kann man sich nur wünschen das sie sich was gutes ausdenken. Das Jubiläumsgeschenk von Intel war ja ein Reinfall, die machen es hoffentlich besser, ist ja das 50 jährige Gründungsjubiläum von AMD (1. Mai 1969) und dann noch 10 Jahre Gründung von GLOBALFOUNDRIES (2. März 2009) durch AMD. Ob diese Datums für Veröffentlichung genutzt werden, das kann man noch nicht sagen.

Nächstes Jahr könnte noch einmal sehr interessant werden und die Karten wieder neu verteilen.
 
Warum sollte AMD auch direkt darauf reagieren?

Ich fände es gut, wenn sie sich einfach mal bedeckt halten würden und nicht wieder irgendwas für in nem halben Jahr bis Jahr ankündigen.

Man kann ja über NV sagen, was man will, aber ich finde es gut, wenn man einfach die Sachen rausbringt, ohne vorher so ein Riesen-Trara zu machen schon Monate vorher.

Dann gibt's nämlich auch nicht so viele lange Gesichter, wenn etwas dann doch nicht vollends überzeugt.
 
  • Gefällt mir
Reaktionen: Müritzer
xexex schrieb:
Es gibt einen Standard der für alle gilt! Wo hat sich Microsoft auf etwas eingelassen?
Na dann rück mal mit der Sprache raus wo der Teil von DirectX ohne zusätzliche Umwege den Raytracing Part anspricht und somit als einheitliche Schnittstelle zur Hardware fungiert.
 
Mcr-King schrieb:
Bin mal auf den verbrauch gespannt wenn eine RTX dass doppelte frisst wie eine GTX.

Bei doppelter Leistung wäre das doch okay.
Bei gleicher Leistung wird das wohl nicht passieren, ist ja keine AMD GPU.
 
demonicron schrieb:
Bei doppelter Leistung wäre das doch okay.

Das ist ja wieder Definitionssache. Die reine Raytracing-Leistung ist bei den Turing-Karten wesentlich mehr als nur doppelt so hoch.
Die Grafikleistung insgesamt ist dann schon viel schwerer einzuordnen. Streng genommen geht die ja sogar (recht massiv) runter, sobald man RTX zuschaltet. Dafür wird es hübscher.

"Schönheit/Watt" ist eine Einheit, mit der wir noch nicht so gewohnt sind umzugehen. :)
 
Wadenbeisser schrieb:
Na dann rück mal mit der Sprache raus wo der Teil von DirectX ohne zusätzliche Umwege den Raytracing Part anspricht und somit als einheitliche Schnittstelle zur Hardware fungiert.

Standard ist wohl das falsche Wort, aber nichts hindert dich auch abseits von DX12 RT einzusetzen. Das einzige was MS jetzt macht ist, eine Schnittstelle in DX12 dafür einzubauen die übrigens jeder benutzen kann.

AMD hat das gleiche bei Vulkan gemacht.
 
ZeT schrieb:
Vergiss es. Versuch nicht einem religiösen Fanatiker einzureden das es Gott nicht gibt. ;)

Es wurde ja schon oft genug erklärt das RT kein prop. Mist is den weder MS noch NV erfunden haben. NAch der tausendsten Wiederholung sollte man verstanden haben das es die Leute nicht interessiert.

Frei nach "was interessieren mich Fakten, ich hab mir meine Meinung schon längst gebildet."

Man stelle sich vor AMD hätte eine VEGA RTX released... dann würden alle in Jubelarien ausbrechen weil sie den Stein der Weisen gefunden haben. ( außer sie würden 1200€ verlangen - dann wären sie der Evil schlechthin und NV der Verfechter des kleinen Mannes) ;)
Kleiner Tip.
lesen -> denken -> posten und exakt in dieser Reihenfolge.
Es geht nicht um Raytracing an sich sondern um die Hardware Beschleunigung sowie die dafür zuständige Schnittstelle.

Um aber deine Frage zu beantworten, hätte AMD sowas rausgebracht dann wäre das gleiche passiert wie bei so vielen anderen Sachen auch.
Die aktuelle jubel Fraktion schreit im Chor.
"Hat nvidia nicht, brauch keiner, die sollen lieber mal die Sachen von nvidia einbauen und dafür kräftig Lizenz Gebüren blechen oder noch besser, gleich deren Kram auf Lizenz bauen und dafür maximal die Hälfte verlangen."
Ergänzung ()

ZeT schrieb:
Standard ist wohl das falsche Wort, aber nichts hindert dich auch abseits von DX12 RT einzusetzen. Das einzige was MS jetzt macht ist, eine Schnittstelle in DX12 dafür einzubauen die übrigens jeder benutzen kann.

AMD hat das gleiche bei Vulkan gemacht.
Vulkan ist eine eigenständige API, so wie ich das verstanden habe würde ich DX12 RT eher als Wrapper bezeichnen.
 
  • Gefällt mir
Reaktionen: Mcr-King und Rockstar85
https _blogs-images.forbes.com_jasonevangelho_files_2018_08_DlIBpH3X0AUZAMu.jpglarge-1200x795.jpg
 
  • Gefällt mir
Reaktionen: Apocalypse und exuser0815
Wadenbeisser schrieb:
Na dann rück mal mit der Sprache raus wo der Teil von DirectX ohne zusätzliche Umwege den Raytracing Part anspricht und somit als einheitliche Schnittstelle zur Hardware fungiert.

Welche Umwege?
Requirements
  • Visual Studio 2017 with the Windows 10 Fall Creators Update SDK
  • Fallback Layer requires:
    • Windows 10 with the Fall Creators Update or higher.
    • Dx12 GPU with a driver that has retail DXIL support.
  • DirectX Raytracing requires:
    • Windows 10 with the April 2018 update with DXR SDK overlay binaries.
    • Dx12 gpu with a compatible DirectX Raytracing driver.
      • Nvidia: Volta or higher with 397.31+ driver.
      • Other vendors - please consult the vendor you’re working with for HW and driver availability.
  • Enable Developer Mode or sideload DXIL.dll from the latest Windows SDK to accompany the compiler.
  • DXR SDK overlay binaries - download DirectXRaytracingBinariesV1.2.zip from https://github.com/Microsoft/DirectX-Graphics-Samples/releases and copy all the contents to Samples/Desktop/D3D12Raytracing/tools/x64.
https://github.com/Microsoft/DirectX-Graphics-Samples/tree/master/Samples/Desktop/D3D12Raytracing

Unsurprisingly then, the actual DXR commands for DX12 are very much designed for a highly programmable GPU. While I won’t get into programming minutiae better served by Microsoft’s dev blog, Microsoft’s eye is solidly on the future. DXR will not introduce any new execution engines in the DX12 model – so the primary two engines remain the graphics (3D) and compute engines – and indeed Microsoft is treating DXR as a compute task, meaning it can be run on top of either engine. Meanwhile DXR will introduce multiple new shader types to handle ray processing, including ray-generation, closest-hit, any-hit, and miss shaders. Finally, the 3D world itself will be described using what Microsoft is terming the acceleration structure, which is a full 3D environment that has been optimized for GPU traversal.
https://www.anandtech.com/show/12547/expanding-directx-12-microsoft-announces-directx-raytracing

DXR ist die unterste API Schicht und stellt sogar eine Emulation zur Verfügung. Darunter ist nur noch der Treiber und die Hardware.

Wadenbeisser schrieb:
Vulkan ist eine eigenständige API, so wie ich das verstanden habe würde ich DX12 RT eher als Wrapper bezeichnen.

Dann hast du was falsch verstanden.
1534947138366.png

https://developer.nvidia.com/rtx
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und Oneplusfan
Wadenbeisser schrieb:
Es geht nicht um Raytracing an sich sondern um die Hardware Beschleunigung sowie die dafür zuständige Schnittstelle.

Vulkan ist eine eigenständige API, so wie ich das verstanden habe würde ich DX12 RT eher als Wrapper bezeichnen.

Wo ist der Unterschied ob AMD in Vulkan nachträglich RT integriert oder ob MS das jetzt mit DX12 gemacht hat?

Was Nvidia jetzt mit dedizierten RT Cores gemacht hat, ist das gleiche was damals T&L war.
 
  • Gefällt mir
Reaktionen: Mcr-King
Weiß jemand, welche PCBs der momentan kaufbaren Custom Modelle dem PCB der Founders Edition entsprechen? Weil wegen Wasserkühlung...
 
Herdware schrieb:
Streng genommen geht die ja sogar (recht massiv) runter, sobald man RTX zuschaltet. Dafür wird es hübscher.

Sind für das RTX nicht die RT Cores zuständig? Das müsste die Shader doch entlasten, "nur" halt dann mehr Strom ziehen
 
xexex schrieb:
Welche Umwege?




DXR ist die unterste API Schicht und stellt sogar eine Emulation zur Verfügung. Darunter ist nur noch der Treiber und die Hardware.



Dann hast du was falsch verstanden.
Anhang anzeigen 703102
https://developer.nvidia.com/rtx
Aus einer der älteren News:
DirectX Raytracing ist die API, doch muss es auch ein Backend der GPU-Hersteller geben, das sie ansprechen kann. Nvidia hat das passende Software-Backend bereits vorgestellt, das auf den Namen RTX hören wird. Nvidia hat nach eigenen Angaben eng mit Microsoft zusammen gearbeitet, um RTX für DXR anzupassen. Volta und zukünftige GPUs werden RTX per Hardware unterstützen, ältere DirectX-12-GPUs können den langsamen Fallback-Modus per Direct Compute nutzen.
https://www.computerbase.de/2018-03/directx-12-raytracing-dxr/
lange Rede, kurzer Sinn....die ansprechstelle der Spiele mag DXR sein aber letztendlich geht es über eine herstellerspezifische Schnittstelle zur Hardware Beschleunigung um die es schließlich geht. Anderenfalls läuft es über den Fallback Modus, vermutlich über die normalen Shader.

Das ist die gleiche hohle Nummer wie beim GPU PhysX. Klar, du kannst es auch im Spiel aktivieren wenn du nicht auf ner Nvidia Karte daddelst nur läuft es dann ohne Hardware Beschleunigung durch die GPU sondern wird von der CPU berechnet. Natürlich mit dafür suboptimalen Code damit es ja nicht zu gut läuft. (Befehlssätze und Anzahl der genutzten Kerne)

Wenn also bei den Raytracing Spielen was von RTX Unterstützung steht dann kann man vermutlich getrost davon ausgehen das DXR selbst gleich umgangen wird.
 
  • Gefällt mir
Reaktionen: Mcr-King
Wadenbeisser schrieb:
die ansprechstelle der Spiele mag DXR sein aber letztendlich geht es über eine herstellerspezifische Schnittstelle zur Hardware Beschleunigung um die es schließlich geht.

Die "Schnittstelle" heisst Treiber und es steht jedem Hersteller frei den an DXR anzubinden. Ich habe dir die passende stelle sogar extra markiert gehabt.
Unsurprisingly then, the actual DXR commands for DX12 are very much designed for a highly programmable GPU. While I won’t get into programming minutiae better served by Microsoft’s dev blog, Microsoft’s eye is solidly on the future. DXR will not introduce any new execution engines in the DX12 model – so the primary two engines remain the graphics (3D) and compute engines – and indeed Microsoft is treating DXR as a compute task, meaning it can be run on top of either engine. Meanwhile DXR will introduce multiple new shader types to handle ray processing, including ray-generation, closest-hit, any-hit, and miss shaders. Finally, the 3D world itself will be described using what Microsoft is terming the acceleration structure, which is a full 3D environment that has been optimized for GPU traversal.

DXR vereinheitlicht die Sprache mit der man Raytracing nutzen kann. Was die GPU damit macht ist Sache der GPU Hersteller.
Wadenbeisser schrieb:
Das ist die gleiche hohle Nummer wie beim GPU PhysX.

PhysX ist eine eigenständige und proprietäre API, wie Mantle.
 
Zuletzt bearbeitet:
Allen Unkenrufen zum Trotz und auch angesichts der aufgerufenen Mondpreise, die zweifellos inakzeptabel sind, darf man eines nicht vergessen, wenn es um Performance-Erwartungen geht: Nvidia hat es in der Vergangenheit durchaus schon geschafft, im gleichen Fertigungsprozess einen ziemlich großen Leistungs- und Effizienzsprung zu machen - namentlich mit Maxwell, der nach Kepler ebenfalls auf 28nm basierte.

Es bleibt natürlich trotzdem abzuwarten, ob sich das wiederholt, aber letztlich ist alles andere erstmal Spekulation - auch Rechnerei auf Basis der bekannten Zahlen. Am 20.9. oder kurz wissen wir dann mehr ...
 
  • Gefällt mir
Reaktionen: Mcr-King
xexex schrieb:
Die "Schnittstelle" heisst Treiber und es steht jedem Hersteller frei den an DXR anzubinden. Ich habe dir die passende stelle sogar extra markiert gehabt.


DXR vereinheitlicht die Sprache mit der man Raytracing nutzen kann. Was die GPU damit macht ist Sache der GPU Hersteller.


PhysX ist eine eigenständige und proprietäre API, wie Mantle.
Ähm falsch, PhysX ist das Zwischenprogramm und so wie ich das richtig mitbekommen habe CUDA die API für die Hardware Beschleunigung. Damit ist auch klar warum nur auf der Geforce beschleunigt wird.
Die Nummer hat nvidia so weit getrieben das die Hardware Beschleunigung sogar abgeschaltet wird wenn dafür zwar eine Geforce im System vorhanden ist, primär aber auf einer GPU eines anderen Herstellers berechnet wird. Das ist eindeutig eine künstliche Beschneidung denn die Sperre wurde erst nachträglich eingebaut.
Wenn du was mit GPU PhysX vergleichen willst dann wohl eher mit AMDs TressFX.

Der Compute Task bei DXR dürfte wohl eher den Fallback Modus betreffen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben