News TU102, TU104, TU106: Nvidias Turing-Chips im (Größen-) Vergleich

usb2_2 schrieb:
TU106 ist trotzdem die Mittelklasse, solange man auf die 107 und 108 wartet und es keinen TU100 gibt. Dann wird der Chip auch noch degradiert.
Tja, die RTX2070 ist nur noch eine Mittelklasse-Karte für die Raytracing dann erstmal ein unnützes Papierfeature wird.
 
  • Gefällt mir
Reaktionen: Stuntmp02, Steini1990 und usb2_2
Wenn die ersten RT Benchmarks zutreffen sieht das danach aus dass schon die 2070 so wenig RT-Leistung hat dass man sich das Feature auch hätte sparen können.
 
anexX schrieb:
Die 2070 hat also nur noch genau die Hälfte der RT Cores der 2080ti - scheint dann wohl eher ne 1080p 30 FPS anstatt 60 FPS Nummer zu werden bei der 2070 mit aktiviertem RT ^^

Dieser RT Quark ist doch eh nur ne Marketing Luftnummer. Unter ner 2080Ti geht da eh nicht viel.
Also entweder man muss die ganze Sache massiv abspecken bei den kleineren Karten, oder aber eben nen Haufen Geld für das High End Monster ausgeben.

Wirklich praxisnah ist das mit RT alles noch längst nicht. Aber nVidia brauchte wohl einfach irgendeinen Aufhänger mit dem sie die schweineteuren Karten rechtfertigen und bewerben können.
 
Puscha schrieb:
Man muss es auch so gut machen wie bei Ryzen...
War es. Zumindest die 5870. 6 Monate früher DX 11, effizienter und billiger für genug Leistung.
 
  • Gefällt mir
Reaktionen: jonderson
Hätte mir ja gerne eine RTX gekauft. DLSS interessiert mich schon sehr. Leider würde sich nur eine 2080ti bei mir lohnen. Bei einer 2080 würde ich ja weniger VRAM haben, als die 1080ti.

Naja, da eh noch 2 Reisen dieses Jahr anstehen, brauch ich eh nicht an eine neue Graka zu denken. Dann nächstes Jahr.
 
Ko3nich schrieb:
Wenn die ersten RT Benchmarks zutreffen sieht das danach aus dass schon die 2070 so wenig RT-Leistung hat dass man sich das Feature auch hätte sparen können.

Ist doch wie damals mit Tesselation, die ersten 2. Generationen kaum zu gebrauchen weil damit alle GPUs in die Knie gingen. Wird bei RT nicht anders sein.
 
  • Gefällt mir
Reaktionen: wei3nicht_T, Zockmock und Lübke82
MichaG schrieb:
Die zusätzlichen Rechenwerke für Deep Learning (Tensor Cores) und Raytracing (RT Cores) benötigen nun einmal mehr Platz.

Hätte man die Fläche genutzt um mehr Grafikpower "auf die Straße" zu bringen, hätten wir die ersten Karten die UHD mit 100+FPS stemmen würden. So wird es darauf hinauslaufen, dass ich entweder UHD ohne RT oder FHD mit RT nutze. Für Leute die auf UHD setzen ist das ein Schlag ins Gesicht.

Ich finde es schon krass, wie schnell bei Nvidia alles über den Haufen geworfen wird. PhysX, 3d Vision, Tessa usw. Ich weis noch wie hier viel Luftsprünge gemacht haben, wegen diesen Dingen. Nun fällt UHD bzw. wird auf lange Sicht nach hinten verschoben und viele freuen sich nun auf Raytracing.
 
  • Gefällt mir
Reaktionen: CBL
Wie muss ich mir das mit den beschränkten Chips vorstellen? Statt 100% Leistung werden aber nur 60% freigeschaltet? Welche Herstellungskosten werden dann umgelegt? Nur 60% bei der kleinen Karte oder trotzdem 100% (was bedeuten würde ich bezahle bei der großen Karte mehr)

Dann könnte Mercedes nur noch einen 500er Motor mit 400PS entwickeln und den einfach überall einbauen, PS beschränken und die Kosten verteilen.
 
Irgendwie habe ich ein ganz mieses Gefühl hinsichtlich der bevorstehenden Tests.

Irgendwas sagt mir, die konventionelle Renderingleistung könnte (gemessen am Preis) eine ganz herbe Enttäuschung werden.

Ich bin gespannt was die unabhängigen Tests sagen.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: EadZ1, CBL, PickNick und 3 andere
neofelis schrieb:
die RTX2070 ist nur noch eine Mittelklasse-Karte
Das war die 1070 an sich auch. Ein teildeaktivierter GP104 halt. Ein G_104 war ja vorher auch nur Mittelklasse und ein teilaktivierter dann erst Recht. GTX 460/560(ti) das war ja auch die Mittelklasse. Da gab es 2/3 Karten drüber in der Serie (die 560 ti 448 Mal außen vor). Bei der 1070 auch 2/3 Karten.
Ergänzung ()

supermanlovers schrieb:
Wie muss ich mir das mit den beschränkten Chips vorstellen
Ein Teil (oft eh nicht funktionstüchtig) wird deaktiviert (teilweise die Verbindungen selbst, nicht nur Software) und so kann man mehr Chips verkaufen, als wenn man alle wegwerfen muss, da sie defekt sind.

Teilweise sind die aber auch nur per Software deaktiviert (HD 6950) dann kann man sie wieder aktivieren und nutzen.
 
  • Gefällt mir
Reaktionen: Rikimaru und Lübke82
Was ist denn der Nachteil von großen Chips? Hier beschweren sich ja alle darüber, aber einen Grund konnte ich nicht rauslesen.
Benötigen diese mehr Energie? Sind die Materialkosten stark erhöht?
 
pmkrefeld schrieb:
Ist doch wie damals mit Tesselation, die ersten 2. Generationen kaum zu gebrauchen weil damit alle GPUs in die Knie gingen. Wird bei RT nicht anders sein.
Nicht schon wieder das Beispiel...Tesselation war/ist aber Unabhängig vom Kartenhersteller (NV,AMD) und das ist das NV-Raytracing eben nicht!


Edit: Nachdem mich nun 3 Leute darauf hingewiesen haben, nehme ich meine Aussage zurück^^. Scheinbar wird auf ein Feature von DX12 zurück gegriffen..
 
Zuletzt bearbeitet:
usb2_2 schrieb:
4870
5870
Was wurde gekauft?
Dir ist klar das nvidia durch die HD4850/70 durchaus unter Druck geriet, sich genötigt sah die GTX260/80 deutlich im Preis zu senken und gegen billiger herzustellende Varianten auszutauschen? Gab es damals wegen der zeitnahen Preissenkung nicht auch noch für die Käufer der ersten Stunde eine Geld zurück Aktion?
Die Fermi Modelle kamen erst Monate nach der HD5870.
 
FeelsGoodManJPG schrieb:
Benötigen diese mehr Energie? Sind die Materialkosten stark erhöht?
Sagen wir Mal ein Wafer kostet 10000€ und du bekommst 100 Chips drauf. Dann sitzt der einiges teurer, als wenn du 150 drauf bekommst.

Wenn du jetzt von den 100 nur 80% nutzen kannst und von den 150 aber 85%, weil du nichts kritisches mit einem Defekt triffst, lohnt der kleine Chip.
 
  • Gefällt mir
Reaktionen: FeelsGoodManJPG
usb2_2 schrieb:
Das war die 1070 an sich auch. Ein teildeaktivierter GP104 halt. Ein G_104 war ja vorher auch nur Mittelklasse und ein teilaktivierter dann erst Recht. GTX 460/560(ti) das war ja auch die Mittelklasse. Da gab es 2/3 Karten drüber in der Serie (die 560 ti 448 Mal außen vor). Bei der 1070 auch 2/3 Karten.

Nein, GP104 war nie Mittelklasse, sondern immer Oberklasse. Da muss man gar nicht Diskutieren, das ist ein Fakt. Die GTX 1080 basiert auf dem GP104 und was lange Zeit die schnellste GPU überhaupt, und du redest hier von Mittelklasse :D

Der xx106er Chip war schon immer Mittelklasse, im Vollausbau aber obere Mittelklasse. Dass die RTX 2070 nur noch auf der 106er basiert und die RTX 2080 jetzt einen beschnittenen 104er hat ist einfach nur noch peinlich. Wenn man dazu noch die Preise sieht, merkt man, dass Nvidia die Kunden nur noch verarscht.
 
Das erklärt zumindest teilw die enormen Preise. Größerer Chip = weniger Die pro Wafer = höhere Produktionskosten. Dazu kommen die Entwicklungskosten... Technologieführerschaft kostet halt viel Kohle. Und dann leider das Ausnutzen der Marktmacht aus der Quasi-Monopolstellung. In Summe gibt das astronomische Preise, die sehr viele Leute vom Kauf abhalten werden, mich eingeschlossen.

Technologisch betrachtet ist das z. Z dennoch konkurrenzlos.
 
w0mbat schrieb:
Da muss man gar nicht Diskutieren, das ist ein Fakt
Wo du deine Fakten ausgräbst...
GP 100
GP 102
GP 104
GP 106
GP 107
GP108

GF 100 GTX 470/480 highend
GF 104 GTX 460 mittelklasse
usw.
Ergänzung ()

w0mbat schrieb:
und du redest hier von Mittelklasse :D
Zurecht btw.
 
  • Gefällt mir
Reaktionen: valnar77
Wadenbeisser schrieb:
Dir ist klar das nvidia durch die HD4850/70 durchaus unter Druck geriet, sich genötigt sah die GTX260/80 deutlich im Preis zu senken und gegen billiger herzustellende Varianten auszutauschen?
Ja, seine Frage war aber was gekauft wurde.
Mit erfreuen haben einige das festgestellt und Nvidia gekauft.

AMD ist für einen Großteil der Leute leider nur dafür zuständig die Preise von Nvidia zu senken.
Das AMD von der Rolle nicht überleben kann und man trotzdem fatale Signale an den Markt sendet, daran hat und denkt kaum niemand dran.

Wie oft hat man gelesen:
Hoffentlich bringt AMD bald ihre Karten raus, damit ich ne günstige Nvidia Karte kaufen kann...

Darauf wollte er wahrscheinlich hinaus...
 
Zuletzt bearbeitet: (überlegen...)
  • Gefällt mir
Reaktionen: derSafran, Seeadler79, Obvision und 10 andere
Wadenbeisser schrieb:
Dir ist klar das nvidia durch die HD4850/70 durchaus unter Druck geriet, sich genötigt sah die GTX260/80 deutlich im Preis zu senken und gegen billiger herzustellende Varianten auszutauschen?
@jonderson hat das ja schon freundlicherweise für mich beantwortet. Es ging um die Verkäufe. Wenn du jetzt die alten Statistiken ausgräbst wirst du erstaunt sein, wie viele Leute die Nvidia Karten gekauft haben, obwohl sie für einen viel höheren Preis kaum mehr geleistet haben. Die 260 kam übrigens erst als 75% der 280 auf den Markt und später noch einmal in schnellerer Version. Was das unter Druck setzen angeht hast du natürlich vollkommen recht.
 
anexX schrieb:
Die 2070 hat also nur noch genau die Hälfte der RT Cores der 2080ti - scheint dann wohl eher ne 1080p 30 FPS anstatt 60 FPS Nummer zu werden bei der 2070 mit aktiviertem RT ^^

Auch eine 2070 wird 60fps mit RT liefern können, man muss halt dann auf 720p runterstellen :evillol:.

RYZ3N schrieb:
Irgendwie habe ich ein ganz mieses Gefühl hinsichtlich der bevorstehenden Tests.
Irgendwas sagt mir, die konventionelle Renderingleistung könnte (gemessen am Preis) eine ganz herbe Enttäuschung werden.
Ich bin gespannt was die unabhängigen Tests sagen.

Liebe Grüße
Sven

Die RTX 2080 sehe ich als einzige etwas zwiegespalten, da man hier mit der 1080ti mehr VRAM bekommt zusammen mit ca 20% mehr Shader und guten OC Möglichkeiten auf 1,9-2GHZ.
Bandbreite hat hier die 1080Ti ebenfalls mehr zu bieten.

2070 vs 1080 ist es etwas kompliziert.
Bandbreite klar die 2070 vorne .
Shaderanzahl die 1080 ca 11% , aber das könnte noch durch Takt auszugleichen sein für die 2070.
Gleiche Vram grösse
Vermutlich wird die 2070 in normalen Benchmarks mit der 1080 gleichziehen können und in DLSS vs. altes AA Benches vorbeiziehen und P/L absolut ok dastehen können.

2080Ti dürfte der Preis fast schon egal sein, da es einfach die schnellste Karte ist und von den Enthusiasten gekauft wird und wenns nur 30% mehr Leistung wären, 4k endlich mit 60fps dauerhaft ohen einen drop wird hier gerne mitgenommen. Hier wird entscheidend sein , wieviele Enthusiasten bereit sind über 1000€ zu bezahlen, aber das sollte NV mit der Titan die letzten Generationen schon ganz gut ausgelotst haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82
Zurück
Oben