News Nvidia Quadro RTX: Turing mit bis zu 16 TFLOPS und RT-Cores für Raytracing

Xes schrieb:
der Konkurrenz keine Vorlage zu bieten.
Die Konkurrenz hat aber nichts in der Tasche auf absehbare Zeit.

Xes schrieb:
Wenn sie in den Preisbereich (400-550€) etwas bringen, welches grob GTX 1080Ti Niveau
Wovon träumen manche Nachts? die 2080 wird zu Release 650-700€ kosten, so wie ihre Vorgänger auch. Aber klar, TI Leistung zu Mittelklasse Preise würden weggehen wie nix. Welch Überraschung....
 
  • Gefällt mir
Reaktionen: cruse und dideldei
Aha... na ja mal sehen. Für mich ist wenn dann eh nur eine Ti von Interesse.

RT ist ja ganz nett und für den professionellen Einsatz sicher wichtig aber bei einer Spielerkarte wird der Nutzen wohl überschaubar bleiben.
Es fehlt halt einfach die Software um damit was anfangen zu können.
Ich erinnere mich da immer an die Asynchronous Shader von AMD. Ist super das die da sind und wenn sie richtig genutzt werden machen sie echt was her und Nvidia bekommt Schweißausbrüche… aber es gibt halt nicht viele Spiele die das tun.
Bis sich da was tut vergehen schnell mal 3 Jahre und die aktuellen Spiele dann haben solche Anforderungen das man mit die alten Karte doch zurückstellen muss.
 
Serphiel schrieb:
RT ist ja ganz nett und für den professionellen Einsatz sicher wichtig aber bei einer Spielerkarte wird der Nutzen wohl überschaubar bleiben.
Sicher nicht. RT hat hohen Einstiegsrechenaufwand, wird aber mit steigender Komplexität effizienter als Rasterization. Und dieser Punkt wird kommen und dann führt kein Weg an RT vorbei.

https://www.computerbase.de/2007-01/bericht-raytracing-in-spielen/
https://www.computerbase.de/2008-03/bericht-raytracing-in-spielen-2.0/
https://www.computerbase.de/2009-01/bericht-quake-wars-mit-raytracing/
https://www.computerbase.de/2011-02/bericht-ray-tracing-4.0/
https://www.computerbase.de/2012-03/bericht-ray-tracing-5.0/

CB hatte ab 2007 immer wieder tolle Berichte dazu.

Zitat Pohl, 2007:
Raytracing hat das Potenzial, die weitläufig eingesetzte Rendering-Technologie auf Desktop-PCs zu werden. Die Anzahl der CPU-Kerne steigt und Prototypen einer Spezialhardware für Raytracing zeigen beeindruckende Ergebnisse bezüglich der Geschwindigkeit: Mit einem mit 90 MHz getakteten Prototypen konnte in etwa die Geschwindigkeit eines virtuellen Pentium 4 mit 10 GHz erreicht werden. Eine für den Massenmarkt angefertigte Karte könnte höher getaktet werden, mehrere Raytracing-Cores in einer GPU enthalten, mehrere GPUs auf einer Karte besitzen und man könnte mehrere dieser Karten in einen Rechner einbauen. Schon ist man sehr schnell bei flotten Frameraten in hohen Auflösungen.

Genau an diesem Punkt sind wir jetzt. Man darf davon ausgehen, dass Intel es in Ihren Grafikkarten ebenfalls implementieren wird.
 
Zuletzt bearbeitet von einem Moderator:
Denke mal du wirst da ganz falsch liegen und Nvidia wird bereits seit Monaten mit den grossen zusammenarbeiten und Montag die Katze aus dem Sack lassen.
 
Für mich klingen diese ganzen zusätzlichen sehr spezialisierten Recheneinheiten erst einmal nach viel mehr Stromverbrauch. Das ist ja dann im Grunde das gleiche wie bei Vega mit den ganzen nicht genutzten Recheneinheiten die aber trotzdem mitgeschleppt werden müssen, selbst wenn die Spiele sie nicht unterstützen.

Aber gut, wir werden ja sehen was die Tests sagen.

Das dann das ganze Raytracing wieder in eine geschlossene NVIDIA exklusive Sache wird war auch abzusehen. Bevor NVIDIA etwas offenes entwickelt friert die Hölle zu.
Diese Entwicklung mit extra Shadereinheiten die nur für spezielle Aufgaben vorgesehen sind(Vega, Turing) erinnert mich an die Zeiten als es noch getrennte Pixel- und Vertex-Shader gab.
 
  • Gefällt mir
Reaktionen: SVΞN, cookie_dent und Hurricane271
Mustis schrieb:
Die Konkurrenz hat aber nichts in der Tasche auf absehbare Zeit.
Genau deshalb würde ich als Hersteller auch nicht viele Monate im vorraus klare Informationen herausgeben. Sollten die Karten echt erst 2019 erscheinen würde Nvidia AMD unnötigerweise schon 4 Monate vorher klare Informationen darüber liefern, woran sie sich messen müssen und wie sie ihre Karten zu sizen haben.
Zudem würde man sich das eigene Geschäft kaputt machen da die Leute nurnoch mit unbehagen die alten Karten kaufen würden wenn sie klar wüssten dass bald neue und (vermutlich) viel schnellere Karten kommen.
Mustis schrieb:
Wovon träumen manche Nachts? die 2080 wird zu Release 650-700€ kosten, so wie ihre Vorgänger auch. Aber klar, TI Leistung zu Mittelklasse Preise würden weggehen wie nix. Welch Überraschung....
Hast du die letzten Generationen nicht mitbekommen?
-GTX 780Ti - abgelost durch die GTX 970 / GTX 980. (GTX 970 6% langsamer als eine Stock GTX 780Ti, GTX 980 so schnell wie eine max GTX 780Ti.)
Preise zum Start: GTX 780Ti UVP 650€, GTX 980 540€, GTX 970 320€
-GTX 980Ti - abgelöst durch die ähnlich schnelle GTX 1070.
Preise zum Start GTX 980Ti UVP 740€,GTX 1070 UVP 500€.

Die Preise sind also jedesmal deutlich gesunken bei ähnlicher Leistung.
Aber gut das ist alles Mutmaßung. Ende nächster Woche wissen wir besser bescheit.
 
  • Gefällt mir
Reaktionen: B.L. Swagger
Im Teaser für die Gamescon hat https://videocardz.com/77289/nvidia-teases-geforce-rtx-2080 einige Hinweise gefunden:

RoyTeX = RTX
Not_11 = clearly not 11
Mac-20 = 20 Series
Eight-Tee = 80
AlanaT = Alan Turing
Zenith20 = 20 series
Ray = RTX
give me 20
GPS coordinates: “50.968495,7.014026” describe launch location
Rolling date numbers appear in the order of 2,0,8,0

Ich gehe allerdings nicht davon aus dass wir Turings BigChip bekommen werden... erstens wäre das untypisch, da NV die Serien ja in den letzten Jahren gerne etwas streckt und erst eine 1080 mit Mittelklassechip bringt, außerdem ist Turings GT100 754mm² groß. Die Packdichte liegt übrigens demnach bei nur 24,7Mio Transitoren/mm, Die GP102 liegt mit 25,1Mio/mm interessanterweise darüber - vielleicht lassen sich die neuen Kerne nicht so dicht packen, oder Turing wird in 16nm hergestellt, denn 12nm FFN soll ja laut NV eine bessere Packdichte ermöglichen.
Übrigens: Der Die Shot ist vom großen Chip, 6GPCs je mit 144 SMX a' 32 CUDA-Cores, also im ganzen 144SMX. Wir scheinen hier auch vom Vollausbau zu reden, wobei TSMC ja mit 12nm FFN schon einige Erfahrungen sammeln konnte. Es scheinen also pro SMX noch weniger Kerne zu sein als bei Volta. Es wurde ja schon beim GV100 vermutet, dass weniger Kerne pro SMX eine bessere Computing-Effizienz (& -Leistung) bringen, auch wenn Spielen das wohl nicht so gut zu schmecken scheint. Aber es ist natürlich auch möglich dass NV da einige Optimierungen reingesteckt hat und die Spieleleistung konstanter ist als bei Volta, die jetzt irgendwie eher wie ein Technikträger wirkt.

Mit ein wenig Brechstange beim Takt sollte es mit dem 104er auch möglich sein den GP102 um 10-15% zu schlagen, Pascal lies sich ja sehr gut takten, und das Board spricht ja auch für einen höheren Stromverbrauch.
 
tomasvittek schrieb:
[...]ein spiele entwickler wird sich immer zuerst die arbeit machen für das am meisten verbreitet system zu optimieren. das mag mir und dir nicht gefallen, aber die augen davor zu verschließen bringt ja auch nichts :-(

Was auch weiterhin die Konsolen sein dürften. Da kann eine Engine noch so toll optimiert sein und noch so viele Gameworks Effekte unterstützen, solange die Konsolen dem PC (von den Verkaufszahlen her) meilenweit enteilt sind, werden die Features eher nette Gimmicks sein, damit einige Leute ihr "PC Masterace" Geblubber weiter von sich geben können.

Selbst bei Spielen, welche 'demnächst' erscheinen und prominent mit Raytracing beworben werden, wird nur ein ganz kleiner Teil der potenziellen Kunden das Feature nutzen können.

Dann muss sich erst mal zeigen, ob Nvidia den Weg einfach weiter geht und Raytracing mit den nächsten Generationen 'nach unten durch gibt' und auch auf den erschwinglichen Karten sinnvoll nutzbar macht, oder sich in ne Sackgasse manövriert.

Ohne die Next-Gen Konsolen wird auch das mMn nicht großflächig etablierten können.
 
  • Gefällt mir
Reaktionen: stevefrogs, edenjung und mRcL
Serphiel schrieb:
Ich erinnere mich da immer an die Asynchronous Shader von AMD. Ist super das die da sind und wenn sie richtig genutzt werden machen sie echt was her und Nvidia bekommt Schweißausbrüche… aber es gibt halt nicht viele Spiele die das tun.
AC hat bei den bisherigen Spielen meist 5-15% für AMD gebracht, dass ist jetzt sicherlich nicht etwas, wo die Konkurrenz Schweißausbrüche bekommt.
Vor allem mit Volta und Turing nicht, die noch einmal feineres Scheduling haben.

Steini1990 schrieb:
Für mich klingen diese ganzen zusätzlichen sehr spezialisierten Recheneinheiten erst einmal nach viel mehr Stromverbrauch. Das ist ja dann im Grunde das gleiche wie bei Vega mit den ganzen nicht genutzten Recheneinheiten die aber trotzdem mitgeschleppt werden müssen, selbst wenn die Spiele sie nicht unterstützen.

Aber gut, wir werden ja sehen was die Tests sagen.

Das dann das ganze Raytracing wieder in eine geschlossene NVIDIA exklusive Sache wird war auch abzusehen. Bevor NVIDIA etwas offenes entwickelt friert die Hölle zu.
Diese Entwicklung mit extra Shadereinheiten die nur für spezielle Aufgaben vorgesehen sind(Vega, Turing) erinnert mich an die Zeiten als es noch getrennte Pixel- und Vertex-Shader gab.
Es ist vor allem weniger Stromverbrauch, weil es spezialisierte Einheiten sind und für die Aufgaben viel weniger Energie und Aufwand bezahlen müssen, als wenn man das generisch über die ALUs löst.
Ansonsten verwendet man Power-Gating und schaltet die dedizierte Logik still.
Etwas leakage wird es geben, aber das macht den Braten nicht fett.

Das ist ganz anders als bei Vega, wo es keine extra Shadereinheiten für spezielle Aufgaben gibt, sondern generische 4096 Cores, die sich um alles kümmern, mit reichlich wenig Fixed-Function-Hardware.
Die haben primär ein Auslastungsproblem wegen unterschiedlichen HW-Entscheidungen und Limits.
 
  • Gefällt mir
Reaktionen: SVΞN, Hardware_Hoshi, .Sentinel. und 2 andere
Steini1990 schrieb:
Das dann das ganze Raytracing wieder in eine geschlossene NVIDIA exklusive Sache wird war auch abzusehen. Bevor NVIDIA etwas offenes entwickelt friert die Hölle zu.

Die Spezifikation von Raytracing liegt in DX12. Das kann AMD genauso implementieren. Dass die Realisierung in Hard- und Software bei nVidia und AMD unterschiedlich ausfällt ist wohl klar. Genau dafür gibt's eine übergeordnete Schnittstelle wie DirectX.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen, Lübke82, kisser und 2 andere
tomasvittek schrieb:
damit hast du theoretisch recht, praktisch aber nicht. denn: wenn du marktführer bist kannst du eine ganz andere marktdurchsetzung deiner technologien erwarten als wenn du es nicht bist. oder einfach gesagt:

ein spiele entwickler wird sich immer zuerst die arbeit machen für das am meisten verbreitet system zu optimieren. das mag mir und dir nicht gefallen, aber die augen davor zu verschließen bringt ja auch nichts :-(

Der erste Satz von dir stimmt aber nicht. Der Gaming-Gesamtmarkt ist nicht von Nvidia dominiert.
Es gibt >70 Millionen PS4 und >35 Millionen XB1 Konsolen. Dazu kommen jede Menge ARM Konsolen/Smartphones mit Adreno und Mali GPUs (auch wenn es für mich nicht wirklich "Gaming" ist, der Gesamtmarkt zählt)

Wenn, dann ist Nvidia nur im Punkt "dedizierte GPU für x64 Systeme" Marktführer. Aber auch da hat AMD mit ~15-20% auch einen nicht unerheblichen Anteil.

Raytraycing in Videospielen wir mit den NextGen Konsolen stehen oder fallen, denn auf diese werden zukünftige Engines ausgerichtet werden.
Ansonsten bleibt es - wie bereits einige male hier gelesen - ein angeflanschtes Gameworks-Featureset.
 
  • Gefällt mir
Reaktionen: Smartcom5 und v_ossi
Die RTX2080 wird natürlich schneller als die 1080Ti, so dumm ist NV nicht und ändert das plötzlich. Die sollen ja das Teil an uns Freaks verkaufen die sich ne Ti damals gekauft haben und nicht auf unser Geld verzichten.

Das neue Remedy game und Metro game wird ja auch schön RT Features nutzen :)
 
v_ossi schrieb:
Was auch weiterhin die Konsolen sein dürften. ...

Ohne die Next-Gen Konsolen wird auch das mMn nicht großflächig etablierten können.

Geh ich absolut mit! Wir hier in einem Computerforum sind, wie schon oft gesagt, einfach nicht die Masse der Käufer bzw. der Benchmark. Die Verkaufszahlen der Konsolen und demzufolge die erreichbaren Spieler in der Masse sind einfach nicht auf dem PC beheimatet (PC Only Titel logischerweise ausgenommen).

Ohne eine Implementierung in die Next-Gen-Konsolen wird das nicht machbar, bzw. breit unterstützt werden, von den Herstellern in den entsprechenden Multi-Plattform-Titeln

Meine Meinung.

Gruß,
mRcL
 
  • Gefällt mir
Reaktionen: edenjung
Alles keine Consumerkarten...
 
  • Gefällt mir
Reaktionen: Hill Ridge
Natürlich ist die rtx 2080 schneller als eine ti muss ja auch sonst kauft die keiner 😅

Aber das sie nur so marginal schneller ist kann man getrost seine ti behalten etwas oc betrieben und liegt auf dem selben Niveau wenn nicht sogar etwas drüber
 
Ein Grafik Entwickler der Frostbyte Engine meinte doch zur E3 das RT erst übernächste gen ein Thema auf Konsolen wird. Klar, wir werden hier und da mal paar raytraced Reflections oder so sehen, aber nächste gen wird erst mal real time GI ganz groß, da binn ich mir fast sicher.
 
  • Gefällt mir
Reaktionen: edenjung
Raytracing? sieht schön aus, aber ich glaube kaum das ich das brauche.
Ich denke auch , dass das nicht bei den consumer karten durchschlagen wird, bzw das erstmal für die Titan exclusiv bleibt, wenn es überhaupt benutzt wird in Spielen. Dx12 wird ja sowieso so wenig genutzt von entwicklern, da denke ich mal, dass da nvidia mit Geld nachhelfen wird und irgendwas einbauen lassen wird, damit das besonder gut bei ihnen läuft. Schurkenverein.
Meine 980ti lang noch lange und ich spiele heute schon viele spiele auf low, weil die Graka nicht warm werden soll und ich es leise mag.
 
Benni1990 schrieb:
Natürlich ist die rtx 2080 schneller als eine ti muss ja auch sonst kauft die keiner 😅

Aber das sie nur so marginal schneller ist kann man getrost seine ti behalten etwas oc betrieben und liegt auf dem selben Niveau wenn nicht sogar etwas drüber

Und wird dann in den Games wie Metro und dem neuen Remedy game das MS Ray Tracing mit NV Karten unterstützen wird dann abkacken ;)
Und man rennt dann doch zum nächsten Händler, weil man nicht up to Date ist und keine 30fps packt :heul:
Ich wette auf der Gamescom wird eines dieser beiden Games auf einer RTX gaming Karte präsentiert und auch gesagt das es in den Einstellungen auf Pascal Karten nicht möglich ist.
 
Zuletzt bearbeitet:
Steini1990 schrieb:
Das dann das ganze Raytracing wieder in eine geschlossene NVIDIA exklusive Sache wird war auch abzusehen. Bevor NVIDIA etwas offenes entwickelt friert die Hölle zu.
Diese Entwicklung mit extra Shadereinheiten die nur für spezielle Aufgaben vorgesehen sind(Vega, Turing) erinnert mich an die Zeiten als es noch getrennte Pixel- und Vertex-Shader gab.

Häh ist das nicht nen Standard von DX12 ?
Nvidia hat da nix entwicklet bis auf die Hardware, den rest gibts doch schon länger, kann aber halt jetzt vernüftig gemacht werden.

AMD wird da sicherlich auch was zu bringen in der Workstation-Reihe.

Aber man merkt schon wie die Leute da aufspringen und sich von NVidia an der Nase rumführen lassen, das ist kein Nvidia only feature und Nvidia hats auch nicht erfunden. Das waren die SCHWEIZER :D
 
  • Gefällt mir
Reaktionen: B.L. Swagger
Die Leute sind einfach unwissend und lassen sich von ihren Vorurteilen leiten statt in Zeiten des Inets 5 Minuten zu investieren und sich erst auf Stand zu bringen bevor sie Unsinn posten.

Raytracing ist völlig offen und sowohl Nvidia als auch AMD können es einsetzen, sie liefern lediglich das Hardwarefeature dazu. Auch Intel wird höchstwahrscheinlich genau solche RT-Cores in seinen Grafikkarten haben sollten sie jemals rauskommen. Es ist absolut nicht vergleichbar zu z.B. Physx
 
  • Gefällt mir
Reaktionen: cruse, Galatian und edenjung
Zurück
Oben