News TU102, TU104, TU106: Nvidias Turing-Chips im (Größen-) Vergleich

Schaby schrieb:
Für Leute die auf UHD setzen ist das ein Schlag ins Gesicht.
UHD ist und bleibt halt eine Nische beim Gaming. Es macht aktuell halt wenig Sinn, dass man den Fokus nur darauf legt.

Neue Features / Bildqualität bringen hingegen allen Leuten mehr. Zumal die Ansprüche bei den Spielen bis auf wenige Ausnahmen in den letzten Jahren ja auch nicht so extrem gestiegen sind, so das man mit ner 1080Ti / 2080 / 2080Ti durchaus ziemlich gut in UHD zocken kann. Wenn man von dem "alles muss auf Ultra stehen" Pferd runterkommt, klappt das in vielen Spielen sogar mit einer 1070 oder gar 1060 und man büßt kaum was an Optik ein.

Raytracing wird stark in der Filmindustrie verwendet. Es ist also keine ausgedachte Sache um die Leute zu melken. Ich denke es ist ein guter Zeitpunkt diese technik langsam auf dem Massenmarkt einzuführen. Irgendwann muss man starten, alleine damit Entwickler lernen damit umzugehen. Klar sind die ersten 1 - 2 Generationen nicht der durchbruch.
 
  • Gefällt mir
Reaktionen: Lübke82 und .Sentinel.
fox40phil schrieb:
Nicht schon wieder das Beispiel...Tesselation war/ist aber Unabhängig vom Kartenhersteller (NV,AMD) und das ist das NV-Raytracing eben nicht!
hä? RTX ist doch nur die Umsetzung von Raytracing in DirectX 12. AMD kann doch genauso auf Raytracing in DirectX zugreifen oder Vulkan...
Freesync ist ja genauso die proprietäre Umsetzung von adaptive sync, welches jeder andere Hersteller, so er denn will, verwenden kann.
 
  • Gefällt mir
Reaktionen: Lübke82, .Sentinel. und milliardo
pmkrefeld schrieb:
Ist doch wie damals mit Tesselation, die ersten 2. Generationen kaum zu gebrauchen weil damit alle GPUs in die Knie gingen. Wird bei RT nicht anders sein.
Wäre Tesselation so geutzt worden wie es angedacht war (sinnvoll....) dann hätte es auch weniger Performance Probleme gegeben. Es gibt nicht umsonst mehrere nutzbare Stufen.
 
  • Gefällt mir
Reaktionen: valnar77, Lübke82 und .Sentinel.
Roche schrieb:
Dieser RT Quark ist doch eh nur ne Marketing Luftnummer. Unter ner 2080Ti geht da eh nicht viel.
Also entweder man muss die ganze Sache massiv abspecken bei den kleineren Karten, oder aber eben nen Haufen Geld für das High End Monster ausgeben.

Wirklich praxisnah ist das mit RT alles noch längst nicht. Aber nVidia brauchte wohl einfach irgendeinen Aufhänger mit dem sie die schweineteuren Karten rechtfertigen und bewerben können.

Welche Version der Karte hast Du denn bei Dir zum Test in Deinem Privatrechner um das alles faktisch zu wissen?
 
  • Gefällt mir
Reaktionen: Oneplusfan und Lübke82
RYZ3N schrieb:
Irgendwas sagt mir, die konventionelle Renderingleistung könnte (gemessen am Preis) eine ganz herbe Enttäuschung werden.
Naja davon geht man ja schon jetzt aus. Etwas mildernd könnte hier Nvidias neue Kantenglättung werden, die auf den extra Cores berechnet wird.
Wenn die Bildqualität vergleichbar bleibt könnte man sich hier 4x MSAA sparen was ja durchaus viel Rechenleistung frisst.
 
supermanlovers schrieb:
Dann könnte Mercedes nur noch einen 500er Motor mit 400PS entwickeln und den einfach überall einbauen, PS beschränken und die Kosten verteilen.

Wird doch schon teilweise so gemacht.

Insbesondere bei den Klassen der 2 und 3 Liter Maschinen.
VAG, BMW, Mercedes alle Großen.
 
  • Gefällt mir
Reaktionen: Lübke82 und Palatas
Che-Tah schrieb:
Ob die größere Chipgröße nur den RT und Tensor Cores geschuldet ist?
...oder ist mehr Leistung atm nur mit einem größeren DIE möglich?

...und gleich kommt das Nvidia gebashe: "Ein größerer Chip muss doch weniger kosten als der Vorgänger" :D
Nein, sie ist auch vielen anderen Dingen geschuldet.
Pro SM bietet Turing 33% mehr Speicher an.
Pascal bot für 128 ALUs 96KB Shared Memory + 48KB L1$ (2x24KB) an, während Turing bei 128 ALUs ingesamt 192KB anbietet (2x96KB Unified Memory).
Verhältnismäßig besitzt Turing auch über doppelt soviele Load/Store Einheiten.
Ebenso hat Turing getrennte Ausführungsports für Integer und Floating-Point-Operations, kann beides simultan ausführen, dass kostet auch etwas zusätzliche Fläche.
Daneben kommt ein deutlich größerer L2$, ein GP102 bot nur 3MB L2$ an, GT102 6MB L2$.
GP104 hat 2MB L2$, GT104 und GT106 verfügen über 4MB L2$.

Und falls Nvidia das Register-File nicht halbiert hat pro Sub-Core, dann hat Turing auch noch effektiv doppelt soviel Register-Space.

Zusätzlich gibt es auch noch Features für das Rendering, was sicherlich nicht kostenlos zu implementieren war.
Der GT104 und GT102 bezahlen noch ein wenig Fläche für 1-2 NVLINKs.
Die besseren Video-Decoder kosten natürlich auch etwas und ebenso sollte der GDDR6-Speicher verhältnismäßig mehr Platz benötigen.

Was relativ an Fläche für Tensor-Cores und Ray Tracing-Cores aufgewendet muss wird ohne einen die shot verborgen bleiben, aber unsinnige Vorstellungen wie 50% vom ganzen Chip sind es definitiv nicht.

pmkrefeld schrieb:
@Topic
Wäre es nicht sinnvoller bei der Größe mehrere Chips zu bauen (Shader + Tensor + Raytracing) und diese dann auf einen Interposer zu packen wie bei HBM-Speicher? So muss doch die Ausfallrate bei der Produktion ziemlich hoch sein.
Sinnvoll wäre es schon, aber technisch muss man auch soweit sein, denn die Arbeitslast von mehreren Chips untereinander aufzuteilen ist nicht einfach, noch viel weniger als bei CPUs.
Aber früher oder später wird das Konzept wahrscheinlich auch bei GPUs umgesetzt werden.
 
  • Gefällt mir
Reaktionen: Hatch, yummycandy, Lübke82 und 2 andere
FeelsGoodManJPG schrieb:
Was ist denn der Nachteil von großen Chips? Hier beschweren sich ja alle darüber, aber einen Grund konnte ich nicht rauslesen.
Benötigen diese mehr Energie? Sind die Materialkosten stark erhöht?

Letztendlich geht es wohl um die Ausbeute.

Je komplexer ein Gebilde, desto größer die Wahrscheinlichkeit, dass ein Teil kaputt ist. Dann landet das ganze auf den Müll.

Daher Threadripper mit 4 DIEs.

Oder Häuser bestehen aus vielen Ziegelsteinen und nicht aus einem Stück. :)
 
  • Gefällt mir
Reaktionen: Obvision und FeelsGoodManJPG
Puscha schrieb:
Wenn AMD es schafft mit einem neuen, sehr kleinen und günstigen Chip zurückzuschlagen dann will keiner mehr Raytracing haben für über 1000€ :lol:

Oh, ein neuer Masterplan wie AMD es schaffen kann mit billigeren Chips und schwächerer Leistung massiv Marktanteil zu gewinnen. :daumen:

Puscha schrieb:
so gut machen wie bei Ryzen

Objektiv schafft es der Top 8-Kern Ryzen in sehr vielen Spielen immer noch nicht den Top 6-Kern Intel zu schlagen.
Ja, Ryzen ist gut. Aber eben vor allem gegenüber den Prozessoren die AMD vorher gebaut und verkauft hat.
Das wird sich meiner Meinung nach nächstes Jahr mit den neuen 7nm Ryzen CPUs ändern, aber noch ist es nicht so weit.
 
  • Gefällt mir
Reaktionen: Lübke82
Nein, GP104 war nie Mittelklasse, sondern immer Oberklasse.
GP104 war immer Mittelklasse. Genauso wie vorher alle Karten mit Gx104 immer Mittelklassen waren.
Die GTX 1080 basiert auf dem GP104 und was lange Zeit die schnellste GPU überhaupt
...das eine hat mit dem anderen überhaupt nichts zu tun. Wenn bei einer neuen Generation mit einem großen Leistungssprung die kleinere Generation die größere Übertrumpft ist das lediglich die neuere Technik zu dieser Zeit.
Die Einstufung der Leistungsfähigkeit ergibt sich aus der DIE-Fläche sowie der darauf verbauten Transistoren.
Wenn Du es einfacher willst, nVidia hat zur Unterscheidung Nummern eingesetzt wobei die kleineren Nummern die leistungsstärkeren sind GP100-102-104-106-107-108.
Gibt es dann keinen schnelleren fehlt der eben zu der Zeit, er ersetzt diesen aber nicht.
Würde man Deiner Argumentation folgen, wäre der Einstiegs-Chip dieser Generation ja auch die Oberklasse, weil er die High-End Chips von vor einigen Jahren überflügelt.
 
  • Gefällt mir
Reaktionen: usb2_2
DocWindows schrieb:
Oh, ein neuer Masterplan wie AMD es schaffen kann mit billigeren Chips und schwächerer Leistung massiv Marktanteil zu gewinnen. :daumen:
Mit Ryzen klappt es gut ;)
 
supermanlovers schrieb:
Dann könnte Mercedes nur noch einen 500er Motor mit 400PS entwickeln und den einfach überall einbauen, PS beschränken und die Kosten verteilen.

Ich denke das wird zum Teil schon gemacht. Sonst gäbe es keine Chiptuning?
 
  • Gefällt mir
Reaktionen: valnar77 und Lübke82
Aldaric87 schrieb:
Und da haben wir wieder wen, der die Kritik der Spieler immer noch nicht verstanden hat. Die Leute interessieren sich einen feuchten Dreck für den größeren Chip. Der Chip ist durch Funktionen aufgeblasen, die als Verkaufsargument Nr. 1 zählen. Wenn allerdings dann die tollen beworbenen RT Spiele grad mal auf 1080p mit 60 FPS laufen mit RT, ist das für viele kein Mehrwert, daher wird der Preis kritisiert. Die wenigsten spielen mit einer 2080 Ti auf FHD Auflösung. Niemand hat nVidia gezwungen eine "nicht ausgereifte" Technik in den Consumer-Markt zu zwängen, anstatt sie im Profi-Segment reifen zu lassen. So sind sie selbst Schuld das der Chip so riesig ist. (aber für viele Spieler kaum Mehrwert bietet)

Vielleicht sind die Gamer nicht auf Platz 1 von nvidia, sondern eher die Anleger welche man mit "neuen Features" bereichern muss.
 
Locuza schrieb:
Sinnvoll wäre es schon, aber technisch muss man auch soweit sein, denn die Arbeitslast von mehreren Chips untereinander aufzuteilen ist nicht einfach, noch viel weniger als bei CPUs.

Eben nicht, wir sprechen hier von keiner CPU sondern einer GPU, es geht darum wie z.B. bei Threadripper mehrere kleine Chips zu belichten statt eines großen. An der Funktionsweise würde sich nichts ändern.
 
r4yn3 schrieb:
dass bei der 2070 ein 106er Chip zum Einsatz kommt.
Eigentlich logisch oder?
Die guten Chips kommen in den professionellen Markt und die schlechteren in den Gaming Markt. Mich würde es jetzt nicht wundern, wenn die Grafikkarten Modelle der 2000 Serie, z. B. Nachfolger der 1060 GTX auch 2060 GTX (nicht RTX) heißen wird, sprich umgelabelte Pascal sein werden. Für NV würde sich das auszahlen, speziell nach dem früheren Ende des Mining Booms und die Karten ja nicht plötzlich schlecht sind. Wobei ja, die Varianten mit GDDR5X werden eben wegfallen.
 
Zuletzt bearbeitet:
TU104, wieso denke ich da an ein russisches Flugzeug?
 
  • Gefällt mir
Reaktionen: CBL, Lübke82, N43 und eine weitere Person
fox40phil schrieb:
Nicht schon wieder das Beispiel...Tesselation war/ist aber Unabhängig vom Kartenhersteller (NV,AMD) und das ist das NV-Raytracing eben nicht!

Ich verstehe zum nicht einen welche Rolle das spielen soll, damals waren sowohl AMD als auch nVIDIA betroffen und jetzt ist es halt nur nVIDIA da AMD kein Raytracing bietet.

Aber vor allem ist Raytracing KEINE exklusivtechnologie von Nvidia, sondern die HW-Implementation einer DirectX-Funktionalität:

https://devblogs.nvidia.com/introduction-nvidia-rtx-directx-ray-tracing/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FeelsGoodManJPG, Lübke82, .Sentinel. und eine weitere Person
Puscha schrieb:
Mit Ryzen klappt es gut

Sagst du. Andere User hier (duskstalker z.B.) fragen sich waurm Intel immer noch massiv mehr CPUs verkauft als AMD. Auch hier: Die Verkaufszahlen steigen dramatisch gegenüber den Verkaufszahlen von Bulldozer und Piledriver. Insgesamt gesehen ist es aber immer noch überschaubar.
Die Entwicklung ist meiner Meinung nach aber trotzdem ein gutes Zeichen. Auch wenn andere das anders sehen.
 
RYZ3N schrieb:
Irgendwie habe ich ein ganz mieses Gefühl hinsichtlich der bevorstehenden Tests.

Irgendwas sagt mir, die konventionelle Renderingleistung könnte (gemessen am Preis) eine ganz herbe Enttäuschung werden.

Ich bin gespannt was die unabhängigen Tests sagen.

Liebe Grüße
Sven

Es ist diesmal wirklich irgendwie schräg. Denn theoretisch sollte das Ding, nach allen Einzelfetzen, die man von nVidia mitbekommt eigentlich alles revolutionieren.

Die Informationshappen:
50% höhere per Core Leistung, 50% mehr effektive Bandbreite durch verbesserte Datenkompression on Top zum GDDR6 Speicher.
10-20% bessere Async Computer Leistung. 20% mehr Kerne. Revolutionäres AA, welches nicht auf die Hauptkerne geht etc. etc.
Übertaktung bis 2,5GHz möglich.

Da läuft entweder irgendein ganz großer Marketingnepp ab oder aber die ganzen Superlative stimmen und es kommen 60%+x Leistungssteigerung raus.

Ansonsten wäre da das ineffektivste Design seit langem...
Ist schon ein wenig Kaspertheater, was da so stattfindet.

Dann die Nummer mit den unterschiedlichen Testterminen, den Samples, die noch nicht an die Tester verschickt wurden. Die Geschichte mit den noch nicht vorhandenen Treibern...

Es bleibt spannend.

Grüße
Zero
 
  • Gefällt mir
Reaktionen: CBL und Lübke82
3 karten, 3 chips. sportlich nvidia.

wenn die rtx2070 "nur" auf den tu106 setzten wird, werden wir auch nur den mobile sehen, aber abwarten.

und zusätzlich werden evtl. ja auch die ersten rtx2070 mit zum teil auch teildefekten 104er verbaut, bis man die fertigung perfekt am laufen hat. sonst hätte man einfach zu viel ausschuß.

mfg
 
Zurück
Oben