News Nvidia Quadro RTX: Turing mit bis zu 16 TFLOPS und RT-Cores für Raytracing

Hier auf CB wurden ja mal Vergleichsbilder (Spiele-Szene oder Demo-Szene weiß ich nicht mehr genau) mit und ohne Raytracing nebeneinandergelegt - also da musste man ja echt mit der Lupe hingucken, damit man da Unterschiede sehen konnte. Und das bei Standbildern. Bin mir nicht sicher ob das den x-fach gesteigerten Rechenaufwand rechtfertigt.
 
  • Gefällt mir
Reaktionen: Pulsar77, Herr Melone, dideldei und 6 andere
Artikel-Update: Nvidia hat mittlerweile weitere Details bekannt gegeben. So ist die größte Turing-GPU, die vermutlich auf die Bezeichnung GT102 hört, satte 754 mm² groß und verfügt über 18,6 Milliarden Transistoren. Der GP102 (Pascal) kommt im Vergleich dazu auf 471 mm² bei 11,8 Milliarden Transistoren, der ausschließlich professionelle GV100 (Volta) auf 815 mm² bei 21,1 Milliarden Transistoren – Turing ist also gar nicht so viel kleiner.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

Während die riesige Die-Größe im Profi-Markt kein Problem darstellt, da dort hohe Preise verlangt werden können, stellt sich aber automatisch die Frage, was im Consumer-Segment geschieht. Selbst die kleinere Turing-GPU wird entsprechend sicherlich immer noch um die 500 mm² groß sein und könnte damit trotz 12-nm-Fertigung größer als der GP102 sein. Es ist davon auszugehen, dass der große Turing zunächst beziehungsweise zu einem späteren Zeitpunkt ausschließlich als teure Titan-Semi-Profi-Grafikkarte erscheinen wird.

Der GDDR6-Speicher arbeitet mit 7.000 MHz
Als GDDR6-Speichertakt gibt Nvidia 7.000 MHz an, der schnellste GDDR5X arbeitet aktuell mit 5.500 MHz. Da die Quadro RTX 8000 über ein 384 Bit breites Speicherinterface verfügt, beträgt die Speicherbandbreite dann 672 GB/s. Die Quadro RTX 5000 erreicht mit einem 256 Bit Interface noch 448 GB/s. Die große Turing-GPU bietet zudem einen 6 MB großen L2-Cache. Das ist doppelt so viel wie auf Pascal und genauso viel wie auf Volta.

Nvidia deutet Turing für GeForce an
Nvidia hat darüber hinaus ein Video ins Netz gestellt, das andeutet, dass es – wenig verwunderlich – Turing bald auch für Spieler geben wird. In dem Video sind Hinweise gestreut, dass die Grafikkarten GeForce RTX 2000 heißen werden. Darüber hinaus finden sich Koordinaten in dem Video, die auf Köln zeigen. Dort findet vom 22. bis zum 25. August die Gamescom statt. Nvidia hat zudem bereits vorher angekündigt, dass es am 20. August um 18:00 Uhr einen Livestream von der Gamescom 2018 geben wird, der „spektakuläre Überraschungen“ zeigen wird. Turing für GeForce wird dann vermutlich vorgestellt werden.
[Embed: Zum Betrachten bitte den Artikel aufrufen.]

Exkurs: Was ist Raytracing?
ComputerBase hatte sich bereits vor Jahren in der Serie „Raytracing in Spielen“ mit dem Thema Raytracing befasst. Die darin präsentierten Informationen und Erkenntnisse zur alternativen Rendering-Methode sind auch heute noch gültig.


ComputerBase hat die Informationen zu diesem Inhalt vorab von Nvidia unter NDA erhalten. Einzige Vorgabe war der Veröffentlichungszeitpunkt. Eine Einflussnahme auf die Berichterstattung gab es nicht.
 
Na dann bin ich mal gespannt. Diesmal warte ich aber gleich auf den Big-Chip, auch wenns eine Titan werden sollte.
 
StefVR schrieb:
... nein, dass ist durchaus bahnbrechend. Real Time Raytracing ist und war der ultimative Traum. Das ist vermutlich erst der Anfang, in 5 bis 10 Jahren koennte das aber nen mega Durchbruch sein, fast schon wie das erscheinen von 3D Beschleunigern allgemein.
Naechste Woche auf der Gamescom werden wir etliche Spiele mit Raytracing support sehen. Da wird Nvidia schon fuer Sorgen. MeinTip: Battlefield 5 als Steckenpferd.
Dank der extremen Marktmacht ist es diesmal auch recht einfach das durchzusetzen. Die Konkurrenz ist derzeit tot im oberen Segment. Das mal der kleine Vorteil wenn man alleine dasteht immerhin, der Nachteil: Nvidia kann klassische Monopolpreisbildung durchsetzen, die zu minimaler Wohlfahrt fuehrt.

Tja, gut moeglich, nur ist dann die Frage, ob die Konsumenten so "bescheiden" sein werden wegen einigen popeligen Raytracing Effekten in einer Handvoll Gamesworks Spiele auf die neuen nVidia Turing (ist Ampere jetzt - wegen Turing fuer die Quadros - als Bezeichnung ganz vom Tisch, denn fuer die GTX Karten ginge der Name ja immer noch, so dass nur RTX die Bezeichnung Turing bekaemen - aehnlich wie bei Volta - es sei denn die Chips sind identisch, einfacher waere das wohl?) GPUs anzuspringen?

Naja, die Zahl der nVidianer ist leider recht beachtlich und diese fressen nVidia ja aus der Hand (auch wenn letztere gerade einen Griff ins Klo getaetigt hat :p), man hat das "eigene Fussvolk" eben ueber Jahre gut trainiert/konditioniert und fuer einige haben nVidia Produkte wohl Kultstatus (in Anlehnung an die Apple-Manie).

Genuegend Geld duerften die eingeschworenen nVidianer schon locker machen koennen (fuer Features die aktuell eigentlich kein Mensch braucht ... deutlich mehr Leistung waere schon deutlich besser/noetiger), so dass auch bei dieser GPU-Generation der Rubel rollt, die Frage ist, ob leistungfressendes Raytracing dann genauso nutzlos verpuffen wird wie der PhysX Hype oder kommen wird, um auf ewig zu bleiben (als ob die Leistung der GPUs nicht ohnehin schon der allgemeinen Entwicklung weit genug hinterher hinken wuerde in Bezug auf CPUs, Monitortechnik, ganz zu schweigen von VR/AR)?

Gut moeglich, dass nVidia das mit der Macht des Quasi-Monopolisten einfach am Markt durchdruecken kann, da AMD/RTG keine passende Alternative zeitnah bieten wird koennen.

Fragt sich, ob man so eine Ausnutzung der Marktstellung als muendiger Kunde unterstuetzen will (so dass Gamesworks weitere Blueten treiben wird koennen und kuenstlich noch mehr die Konkurrenz-GPUs von AMD/RTG ausgebremst/benachteiligt werden koennen)?

Bei mir werden Sie damit wohl auf Granit beissen, aber ich hab's wohl auch nicht so noetig wie einige andere (hier) :lol: ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thraker, Smartcom5, EchoeZ und eine weitere Person
Linmoum schrieb:
Da kann man dann gleich auf Ampere (oder wasauchimmer) in 7nm warten. Das werden wir garantiert 2019 bekommen.

Ja, so siehts aus :daumen: Erst bei 7nm hat man ordentlich Platz für die Shader, Tensor Cores und RT Cores und kann auch ggf. nochmals an der Taktschraube drehen.
 
Die 2080 muss die 1080ti ja nunmal irgendwie schlagen. 12nm taktet nicht viel besser also halt über die Größe.
 
Herdware schrieb:
Die Sache ist, dass es bei solchen "angeflanschten" Neuerungen die große Frage ist, ob und wann man das auch in Spielen sehen wird.

Raytracing könnte gut ein neues PhysX werden. Auf dem Papier und in Demos beeindruckend, aber in freier Wildbahn kaum vorhanden und wenn, dann meist ohne großen Mehrwert.

Mit einer neuen GPU-Generation, die einfach nur ordentlich bei der guten alten Rohleistung drauf sattelt, wäre man fast immer wesentlich besser und vor allem (zukunfts-)sicherer aufgestellt. Der Bedarf an mehr Frames in höherer Auflösung ist unbestreitbar da. In den vorhandenen und kommenden Spielen warten diverse Regler nur darauf, weiter nach rechts geschoben zu werden. Die entsprechenden Monitore mit UHD oder UWQHD bei >120Hz gibt es schon (und VR sowieso), aber weit und breit nichts, mit denen man sie angemessen befeuern könnte. (Die Notlösung Multi-GPU ist auch tot.)

Statt dessen bekommen wir mit Raytracing ein neues Zusatzfeature, das vielleicht in einigen Fällen für etwas bessere Effekte (z.B. besonders realistische Schatten und Reflexionen) sorgt. Aber die meisten Gamer wären wohl mit schlicht mehr Frames und mehr Pixeln glücklicher.

Zumal es wohl sowieso eher mit Blick auf Profis entwickelt wurde, nicht für Consumer/Gamer.

natürlich ist enorm mehr Rohleistung um mehr FPS geliefert zu bekommen wichtig. Bin auch keiner der extra features "sammelt" aber ich finde es auch gut, das jemand sich auch mal wieder was traut. Muss jetzt nicht nvidia sein aber ein bisschen die Sache weiter nach vorne pushen muss auch mal sein. Mann kann halt leider nicht so wie früher 80% Leistung draufhauen. Auch wenn ich natürlich hoffe das es so ist :-) Schade finde ich auch das die Karten nicht in 7nm kommen.
 
  • Gefällt mir
Reaktionen: cruse
Krautmaster schrieb:
also doch ne neue TITAN. 4.608 Shader auf 2Ghz. Haben will. Endlich ein gescheites Upgrade von der 980 TI.

Tippe auf 24GB GDDR6 für die TITAN, 12 für die 2080.

Die 2080 wird 16GB Speicher haben. Die Teiler bei 256bit Interfaces sind anders und 8GB wäre zu wenig.
 
Gibt es einen Grund weshalb nicht HBM2 verwendet wird? Habe in der News nichts gefunden und auch in keine Post bis jetzt. Ist der noch immer zu teuer? oder gibt es ihn nicht bis 48 GB?
 
Zocker338 schrieb:
Die 2080 wird 16GB Speicher haben. Die Teiler bei 256bit Interfaces sind anders und 8GB wäre zu wenig.
Was hier wieder für Wunderkugeln am Werk sind. :rolleyes: Nicht eine einzige Zahl ist bisher bestätigt außer vll die 2080 als Name...

@CCIBS

Weil es mit GDDR6 nicht mehr viele Vorteile für HBM gibt.
 
Esenel schrieb:
Die kommt doch immer etwas nach den xx80er oder täusche ich mich da gerade? Ist ja schon eine weile her :-D

Richtig. Die werden kaum 1 Woche vor der 2080 die Titan vorstellen, da dann bereits alle Fakten auf dem tisch waeren und es ginge nur noch darum wie sehr beschnitten die 2080 ist und den Preis.
 
Chismon schrieb:
Immer wieder putzig, wie sich vermeintlich Erleuchtete herablassen und andere Menschen aufgrund ihrer Kaufentscheidung als unwissend/dumm/desinformiert/Sektenanhänger oder sonst was titulieren.
 
  • Gefällt mir
Reaktionen: cruse, .Sentinel., -Spectre- und 9 andere
Da erst nächstes Jahr mit neuen Grafikkarten im Consumerbereich zu rechnen ist und dies sowohl bei NVIDIA als auch bei AMD, so bestätigen sich wohl die Gerüchte, welche besagen, dass beide Hersteller volle Lager besitzen und somit dem geneigten Käufer die Möglichkeit offeriert wird sie angemessen zu leeren.

Macht aber nichts. Ich bin mit meiner jetzigen Grafikkarte zufrieden und kann daher genüsslich abwarten. :)
 
Bin gespannt wie schlecht die AMD Karten dann aussehen.
Die Vegas hatten, auch wenn sie viel Energie benötigen, eine hohe Rechenleistung.

Hoffentlich kommt auch von AMD mal zeitig was neues, sonst gibts wieder die Marktsituation wie sie vor Ryzen bei den CPUs war.
 
DerKonfigurator schrieb:
Bin gespannt wie schlecht die AMD Karten dann aussehen.

Du wirst nichts sehen, weil AMD schon längst aufgegeben hat. Zumindest was Gamingkarten anbelangt.

Was wollt ihr denn noch sehen?!

Der Markt um die Grafikkarten sieht jetzt schon düster aus. Das wird in der kurzen Zeit nicht besser.
 
hahaqp schrieb:
Nvidia wird sich den Weihnachtsmarkt nicht durch die Finger gehen lassen.
Klingt für mich auch logisch.
Schon allein, wenn die Teile zur GC Ende nächster Woche vorgestellt werden sollen spricht doch für eine halbwegs zeitnahe Verfügbarkeit noch dieses Jahr. Ansonsten hält man die Karte lieber noch ein paar Monate geheim um der Konkurrenz keine Vorlage zu bieten.
Zudem:
Durch die lange Durststrecke des Minings und der generellen Situation, dass sich Preis/Leistungstechnisch seit 2 Jahren praktisch nichts getan hat im Grafikkartenmarkt dürfen viele (mich eingeschlossen) einen dringenderen Bedarf an Grafikkarten zu haben um 144hz / WQHD oder 4K in aktuellen Titeln anständig befeuern zu können.

Auch Nvidia dürfte bewusst sein, dass viele eben trotzdem nicht bereit sind dafür viel mehr als 500€ auszugeben.
Wenn sie in den Preisbereich (400-550€) etwas bringen, welches grob GTX 1080Ti Niveau bei niedrigerer Leistungsaufnahme erreicht sollten die Teile weg gehen wie geschnitten Brot.
 
Faust2011 schrieb:
Und damit sitzt Nvidia im gleichen Boot wie AMD, die mit den ganzen Vega-Features auch erstmal im Abseits rumstehen und auf die Software-/Spieleentwickler warten, denn diese müssen es einbauen/aktiveren.

damit hast du theoretisch recht, praktisch aber nicht. denn: wenn du marktführer bist kannst du eine ganz andere marktdurchsetzung deiner technologien erwarten als wenn du es nicht bist. oder einfach gesagt:

ein spiele entwickler wird sich immer zuerst die arbeit machen für das am meisten verbreitet system zu optimieren. das mag mir und dir nicht gefallen, aber die augen davor zu verschließen bringt ja auch nichts :-(
 
Bin auf nächste Woche gespannt, auch wenn ich im Moment keine neue Grafikkarte brauche. Ich schlage erst wieder bei einer Ti in 7nm zu.

Bin aber vor allem auf die Preise der 2070 und 2080 gespannt, denn die Chips scheinen recht groß zu werden, so dass der ganze Spaß sicherlich teuer wird. Außerdem hat nvidia in dem Bereich keine Konkurrenz mehr und das wirkt sich nicht positiv auf die Preise aus.

Ich gehe mal von 500€+ für die 2070 und 700€+ für die 2080 aus.

RayTracing finde ich auch interessant und irgendwann muss halt einer mit neuer Technik anfangen, auch wenn diese noch nicht so viel Unterstützung findet. Für Konsolen wird das sicher auch noch kommen und dann setzt sich das auch auf dem PC komplett durch.
 
Wie ich schon länger angenommen habe, und sich anhand der Daten zu bestätigen scheint, wird die 2080 (wohl Quadro RTX 5000 Äquivalent) nicht schneller als eine 1080 Ti werden. Weniger Shader, dafür ein bischen mehr Takt und Speicherbandbreite - wird ca aufs gleiche rauskommen.

Die Deppen, die ihre Tis grad um 500€ hergeben, tun mir leid.
 
Zurück
Oben