News Nvidia Quadro RTX: Turing mit bis zu 16 TFLOPS und RT-Cores für Raytracing

edenjung schrieb:
Häh ist das nicht nen Standard von DX12 ?
Nvidia hat da nix entwicklet bis auf die Hardware, den rest gibts doch schon länger, kann aber halt jetzt vernüftig gemacht werden.
DXR erweitert DX12 um APIs speziell für den Einsatz für Raytracing.
RTX setzt auf DXR auf, aber es kommen wahrscheinlich noch exklusive Nvidia APIs dazu.
Nvidia hat da schon eigene Middleware entwickelt und inwiefern das für andere GPUs von anderen Herstellern verfügbar sein wird, ist gerade nicht publik.
 
  • Gefällt mir
Reaktionen: Iscaran, Chismon, Galatian und 2 andere
@Locuza

Danke sehr. So genau wusste ich das nicht, war aber klar, dass da nochwas von Nvidia kommt (kommen muss).
Das Thema interessiert mich eigentlich auch eher weniger :D
 
Schade, dass DLAA kaum demonstriert wurde. Der Ansatz, mit geringerer Auflösung zu rechnen, um dann mit den Tensor-Cores zu extrapolieren, verspricht einen ordentlichen Leistungsschub.

Und mit der Auslagerung von Effekten wie Ambient Occlusion and die RT-Cores wird sich der Abstand weiter vergrößern.
 
Jedi3 schrieb:
Und mit der Auslagerung von Effekten wie Ambient Occlusion and die RT-Cores wird sich der Abstand weiter vergrößern.
Wie meinst du das? So wies da steht, geht es nicht. AC hat mit RT nix zu tun. AC ist eine Näherung an die Realität, die völlig anders erzeugt wird. RT errechnet hingegen physikalisch korrekt Schatten. RT Cores sind nicht dafür ausgelegt, AC zu berechnen.
 
Ich bin gespannt. Erwarten kann man schon das mindestens 40% mehr Leistung für die jeweiligen Modelle rauskommen sollte.
Nur wenn Ende 2019 ein Shrink auf 7nm kommen sollte, dann würde mich mein Kauf schon ärgern. Bin ja noch mit einer 1070 einigermaßen bedient auf 2k.
 
lowkres schrieb:
Nur wenn Ende 2019 ein Shrink auf 7nm kommen sollte, dann würde mich mein Kauf schon ärgern.
Meiner Meinung nach unwahrscheinlich, da sie sonst keine Zeit hätten ihr gesamtes Produktportfolio abzusetzen. Es dürfte ca 9-12 Monate vergehen, bis wir eine Ti sehen. Da released man nicht noch nen Monat später ne 3080, oder?
 
Poor Volta:D
Nicht nur, daß die 'arme' Architektur P/L mäßig von Vega geschlagen wurde (im Semi-Pro Bereich), sie wurde auch nur zu Testzwecken 'mißbraucht'...
Und am Ende stellte es sich auch so dar, dass Volta wohl nur eine Art Testlauf für Turing war[...]
 
  • Gefällt mir
Reaktionen: Benji21
Täusche ich mich gerade, das RTX Feature gehört doch zu DX12 bzw. ist teil von DX12 oder?

Wenn dem so ist was haben das hier alle mit "Only Nvidia" ?
 
  • Gefällt mir
Reaktionen: eselwald
Bin mal gespannt wieviel Giga Rays /sec die Consumer Karten ab bekommen werden.
 
Mustis schrieb:
Wie meinst du das? So wies da steht, geht es nicht. AC hat mit RT nix zu tun. AC ist eine Näherung an die Realität, die völlig anders erzeugt wird. RT errechnet hingegen physikalisch korrekt Schatten. RT Cores sind nicht dafür ausgelegt, AC zu berechnen.
Schon möglich, dass ich es mir zu einfach vorstelle, aber zumindest in diesem Video hat Nvidia RTAO vorgestellt.
 
frost21 schrieb:
Wenn, dann ist Nvidia nur im Punkt "dedizierte GPU für x64 Systeme" Marktführer. Aber auch da hat AMD mit ~15-20% auch einen nicht unerheblichen Anteil.

Raytraycing in Videospielen wir mit den NextGen Konsolen stehen oder fallen, denn auf diese werden zukünftige Engines ausgerichtet werden.
Ansonsten bleibt es - wie bereits einige male hier gelesen - ein angeflanschtes Gameworks-Featureset.

selbstverständlich schreibe ich von x64. dachte das ist klar. außerdem meine ich schon das 15-20% unter "ferner liefen" abgebucht wird.

wie dem auch sei: ich hoffe das wird diesmal was gescheits, ich hab noch in schlechter erinnerung wie nvidia mit übertriebener tesselation benchmarks manipuliert hat und mit gforce experience sogar effektiv spiele massiv ausgebremst hat nur um ihre tech zu pushen :-( da will ich sicher nicht zurück.
 
Thanok schrieb:
Ich gehe allerdings nicht davon aus dass wir Turings BigChip bekommen werden...

Vllt bleibt es bei 2 Chips. der Größere bleibt anfangs für Compute und kommt später als Ti und Titan. Der kleinere Chip löst die 1080GTX und 1070 GTX ab. Aber es gab auch Gerüchte, dass NV eventuell Pascal noch weiter verwenden könnte. So kann ich mir vorstellen dass der GP104 Chip dann die neue Mittelklasse wird (aber nur mit GDDR5). NV hatte ähnliches bereits bei der 700 GTX Serie gemacht.
Nächstes Jahr bekommen die zwei Chips dann einen 7nm Chip (aber dafür höhere Taktrate) und es kommt ein größerer Chip für HPC Markt dazu. Das wäre für NV vermutlich der witschaftlichste Weg.

Zwar kann man sich im Bereich Gaming "ausruhen", aber im HPC Markt gibt es mehr Konkurrenten als AMD (Vega20). Deshalb wurden auch diese Chips zuerst angekündigt.
 
Zuletzt bearbeitet:
Jedi3 schrieb:
Schade, dass DLAA kaum demonstriert wurde. Der Ansatz, mit geringerer Auflösung zu rechnen, um dann mit den Tensor-Cores zu extrapolieren, verspricht einen ordentlichen Leistungsschub.
Unter DLAA sind mehrere Technologien zusammengefasst.
Der Denoiser ist schon als NVIDIA® OptiX™ AI-Accelerated Denoiser bekannt.
Beim Thema Upscaling finden sich viele Demos, nicht direkt von Nvidia, geben jedoch gut den Stand der Entwicklung wieder.

B.T.W: Das ist theoretisch auch, unabhängig von Nvidia, in der Postproduction machbar.
 
  • Gefällt mir
Reaktionen: Dispo
Jedi3 schrieb:
Schon möglich, dass ich es mir zu einfach vorstelle, aber zumindest in diesem Video hat Nvidia RTAO vorgestellt.
Kann mir das Video derzeit nicht ansehen, nehme aber an, dass der Name nur verdeutlichen soll, dass das Ergebnis ähnlich ist. Die Berechnung erfolgt allerdings komplett anders.
 
Mustis schrieb:
Die Leute sind einfach unwissend und lassen sich von ihren Vorurteilen leiten statt in Zeiten des Inets 5 Minuten zu investieren und sich erst auf Stand zu bringen bevor sie Unsinn posten.

Raytracing ist völlig offen und sowohl Nvidia als auch AMD können es einsetzen, sie liefern lediglich das Hardwarefeature dazu. Auch Intel wird höchstwahrscheinlich genau solche RT-Cores in seinen Grafikkarten haben sollten sie jemals rauskommen. Es ist absolut nicht vergleichbar zu z.B. Physx

und? es wird nvidia nicht daran hindern ihre eigenen raytracing gameworkseffekte zu bringen

"Zudem kündigt der Hersteller an, GameWorks-Effekte auch für RTX anzubieten. „Ray Traced Area Shadows“, „Ray Traced Glossy Reflections“ und „Ray Traced Ambient Occlusion“ werden die ersten sein."
https://www.computerbase.de/2018-03/directx-12-raytracing-dxr/
 
...Ob die Verbindung auch bei den Spieler-Grafikkarten bleibt, ist noch ein Geheimnis. ...

Nach dem Abgesang und der offiziellen Totenklage auf SLI im Consumerbereich, welchen Sinn sollte eine NV-Link-Variante auf Spielekarten dann haben?
Wozu solcher Nonsense in dem sonst guten Artikel?
 
Hab mir die präsi live angeschaut und das ding war giga lame. Überall nur gigarays und teraflops, alles angeblich real time, aber jensen sagte selbst in einem Versprecher "Video". Ich glaube nicht, dass da irgendwas Realtime war. Soll nicht heißen, dass es nicht geht, soll nur heißen, das sah nach prerendered Video aus.

Raytracing ist die neue tessellation. Das ist genau das selbe wie damals mit Fermi. Wir werden haufenweise raytracing gameworks Effekte sehen. Ich weiß nicht, inwiefern AMD hier überhaupt noch Möglichkeiten hat mitzuhalten. Sieht alles nach einer noch dunkleren Blackbox als gameworks tessellation aus mit noch spezialisierterer Hardware.

Übrigens war von 6x Pascal raytracing Performance die Rede, nicht 25x.

Turing wird teuer, und turing wird stromhungriger, weil nvidia die Performance nur noch über chipgröße anheben kann. Ich glaube nicht, dass die Architektur an sich viel Performance bringt - und der Takt dürfte auch kaum noch steigen. Wir haben hier einen shrink von 16 auf 12nm, da werden sich die gainz ziemlich in Grenzen halten.

Wir werden aber feststellen dürfen, dass auf einmal Stromverbrauch bei gpus nicht mehr so wichtig ist.

Außerhalb von raytracing werden die neuen Karten ca 40 bis 50% schneller sein als die alten. Allerdings reißen die raytracing Effekte alle anderen Karten in unspielbare fps Regionen.

/kristallkugel

"the more you buy, the more you save!"
 
  • Gefällt mir
Reaktionen: Iscaran, Chismon und Hurricane271
Zurück
Oben