Beyazid schrieb:
Naja schön und gut, man hätte es aber trotzdem besser lösen können:
*Titan T mit Turing-Arch +RTX-/Tensor-Cores für den professionellen Einsatz (u.a. für Spieleentwickler?)
*GTX2XXX mit Turing-Arch ohne RTX/Tensor für Gaming und einer RTX 2080Ti mit den Extras vom Titan
Was genau ist denn daran jetzt wirklich besser?
Wenn man sich die jüngsten DIE Shots von Turing von OC_Burner ansieht, ist der Flächenbedarf nicht so sonderlich hoch, den man da "verschenkt". Klar zahlt der Kunde das stand jetzt - aber er würde die selbe Fläche auch zahlen, wenn NV das hätte nicht drauf gebaut, aber stattdessen mehr Shadereinheiten bei in Summe weniger Takt raus gekommen wären.
Am Ende würde wahrscheinlich keine RT/Tensor Cores einfach nur bedeuten, dass die Karten dann recht gleich schnell wie mit wären - vllt paar mm² weniger Fläche hätten, vllt paar Euro weniger hätten gekostet - aber wirklich besser wäre das nicht.
Wenn man sich zudem mal Umfragen und Statistiken so quer Beet über die letzten Jahre so ansieht, so scheinen Refresh-Generationen eh nur bedingt zu den Verkaufsschlagern zu zählen. Wo wenn nicht in so einer Generation bietet es sich also an so ein Feature zu bringen?? Wer nicht will, wartet einfach bis 7nm - ist am Ende eh das sinnvollste. Zumindest wenn NV nicht ihr 7nm Potential wie AMD einfach vollends im Takt versenkt, damit die Karte nicht den Anschluss verliert.
franzerich schrieb:
Irritiert bin ich noch ein bisschen mit der "Implementierung der verschiedenen Raytracingarten". So wie es aussieht gibt es mindestens 4 verschiedener Raytracingmöglichkeiten (Global Illumination, Ambient Occlusion, Shadows, Reflections), aber die derzeitigen Spiele haben allenfalls 1-2 davon implementiert. Wie sieht das dann aus, wenn alle Arten implementiert werden? Kackt dann die Performance ins Bodenlose? Die Folien zeigen leider maximal 2 gleichzeitig...
Das sind nicht vier Arten - sondern das sind einfach verschiedene Ansätze, wofür man Raytracing nutzen kann. Für sich genommen ist das nach wie vor "nur" ein Kompromiss. Das macht bspw. auch der Denoiser ganz klar deutlich. Die Hardware halt lange nicht genug Power um da mit Fingerschnipp einfach hunderte Frames die Sekunde rauszulassen. Man trickst hier wo es nur geht.
Das heist aber unterm Strich auch, dass es nur logisch ist, die Schäfchen bisschen zusammen zu halten. 1-2 Sachen ganz gut zu machen ist alle mal besser als alles nur irgendwie ein bisschen.
Der Spaß braucht eh Zeit bis es einerseits auf jeder Hardware tut - wenigstens mal irgendwo spielbar. Und andererseits auch seitens der Entwickler angenommen wird.
lynx007 schrieb:
Auf der anderen Seite gibt es noch keine singel GPU der 4k nativ Konstant über 100FPS produziert. Mann hätte also auch noch bisl warten können und den Fokus auch auf bezahlbare 4k-Gpus legen können. Nicht jeder will knape 1000€ ausgeben nur damit er sich endlich mal nen 4k Monitor anschaffen kann.
Das eine hat mit dem anderen aber nix zu tun...
NV dürfte wahrscheinlich (genau so wie AMD es schon länger hat) festgestellt haben, dass man nicht ewig und drei Tage die Shaderleistung skalieren kann - und das auch 1:1 so auf die Straße gebracht werden kann.
Möglicherweise werden wir auch auf absehbare Zeit keine GPU sehen, welche 100FPS in jeder Situation@UHD packt?? Wer weis... Es skaliert ja nicht nur die Leistung der Hardware - sondern auch die Anforderungen der Software. Was das zu einer Art Endlosspirale macht.
Was auch sehr interessant bei dem Thema ist - wenn man sich mal den GV100 gegen den TU102 ansieht -> GV100 hast schon die INT/FP Trennung der Einheiten, bringt deutlich mehr ALUs auf die Wage, schafft es overall aber nicht so wirklich, effizienter die Leistung umzusetzen. Sprich TU102 ist overall nicht langsamer, trotz Hardwarenachteil. Kompensiert hier also Nachteile bei der Einheitenanzahl durch Takt aber ohne einen wirklichen Verbrauchsnachteil durch den Takt.
Spinnen wir das weiter - den ALU Aufbau der GV100 in TU102 - dafür Tensor/RT Cores raus -> wäre größer als TU102 gekommen, wohl ähnlich, bisschen weniger als GV100, Fertigung ist ja gleich. ABER, es wäre nicht schneller, weil man nicht mehr den Takt hätte fahren können ohne das der Verbrauch oben raus stark ansteigt.
Noch mehr ALUs dran packen, noch niedrigere Taktraten fahren -> noch weniger hätte es gebracht. Unterm Strich? MMn ist die von dir beschriebene 100 FPS@UHD GPU in der Familie 16/14/12nm nicht drin.
7nm? -> abwarten... Vllt, vllt auch nicht. In Jedemfall wird der Schwenk zu 7nm aber teurer pro Fläche. AMD spricht von ca. Faktor 2 pro mm². Faktor 2 bei Effizienz und gleichsam beim Flächenersparnis gibts aber nicht. Was heißt, dass ziemlich sicher noch mehr Leistung noch teurer werden wird...