SaschaHa schrieb:
Nur dann, wenn der Yield sich verbessert. Bekanntlich sinkt dieser aber bei zunehmender Fläche, und das sogar exponentiell. Zudem werden die Chip-Preise immer noch von TSMC bestimmt und nicht zwangsläufig an den Kunden (Nvidia) weitergegeben.
Da verweise ich einfach mal auf den Yiel Calculator und nehme für die Defektraten die Präsentationsfolie aus dem letzten AdoredTV Youtube Video:
Pascal (gerechnet mit 480mm² für die 1080T bei eig. 471mm²):
Turing (gerechnet mit 744mm² für die 2080Ti bei eig. 754mm²):
Da kämen bei den von mir gewählten Einstellungen 34 Turing Chips im Vergleich zu 30 Pascal Chips heraus. Klar, das ist auch nur eine ganz grobe Rechnung und viele der Variablen sind sicher an der Realität vorbei, aber selbst wenn man die Parameter zu Ungunsten von Turing verändert, sind wahrscheinlich akutell nicht so viel weniger Chips pro Wafer nutzbar, als das bei Pascal anfangs er Fall war.
Und selbst wenn, der 12nm Prozess ist ein verbesserter 16/14nm Prozess und nichts grundlegend Neues. Ich gehe stark davon aus, dass die Preise pro Wafer im Vergleich zu vor 2 Jahren nicht exorbitant gestiegen, eher gefallen sind.
SaschaHa schrieb:
Zum einen ist in der News von RTX die Rede, was also einschließt, dass auch alle Architektur-Erweiterungen von Turing verwendet werden würden.
RTX Effekte sind auf der 2070 schon kaum 'sinnvoll' nutzbar, was genau soll dann mit der 2060 passieren, wenn da noch mal weniger RT und Tensor Einheiten drauf sind?
Das kannst du doch niemandem mehr als Raytracing Karte verkaufen.
In der Nachricht steht auch explizit, dass es sich um Gerüchte handelt, da ist es zum momentanen Zeitpunkt und in Anbetracht der RT-Performance der 2070 mMn nur logisch, bei der 2060 keine RTX Spielereien zu erwarten.
SaschaHa schrieb:
Zum anderen müssen sie die Preise auch auf die anderen (teureren) Produkte aus eigenem Haus abstimmen, da sie sich sonst selbst Konkurrenz machen würden und weniger Leute die (für Nvidia) profitableren High-End-GPUs kaufen würden.
Das meine ich doch mit "weil wir es schlucken". Nvidia würfelt die Preise nicht nach den Kosten und einer gewissen Marge, sondern danach, was man so gerade noch verkaufen kann, weil man keine Konkurrenz hat.
SaschaHa schrieb:
Mache ich nicht. Ich setze mich nur sachlich mit dem Thema auseinander und erwäge auch die Hintergründe, anstatt wie du lediglich das Ergebnis für den Endverbraucher zu berücksichtigen.
Im Übrigen gehöre ich selbst nicht zur Käuferschicht, weshalb mir die Preise persönlich auch ziemlich egal sind
.
Wie du hoffentlich siehst, setze ich mich auch mit den Hintergründen auseinander, aber gehe anscheinend genau anders herum an die Sache ran.
Ich frage mich nicht 'Warum sind die Preise gerechtfertigt?', sondern 'Warum sind die Dinger so viel teurer, als die letzte Generation?'
Und auch obwohl ich ebenfalls nicht zur Käuferschaft der 2070 aufwärts gehöre; wenn sich die Preise im High End Segment so etablieren, tröpfelt das langsam auch in die Mittelklasse runter. Der Kunde ist ja dran gewöhnt
SaschaHa schrieb:
Scheinbar weiß deine Glaskugel ja mehr als wir, wenn du die Preise der 3080 Ti bereits kennst und auch über die Produktions-Kosten bescheid weißt
Im Übrigen wird GDDR6-Speicher auch nicht unbedingt hinterher geworfen, auch hier dürften die Kosten kaum geringer ausfallen als bei Pascal.
Das war wohl eher aus der Frustration heraus, dass einige User bei solchen reinen Luxusartikel -denn nichts anderes sind Pixelschubser im vierstelligen Eurobereich- eher den Herstellern, die wohlgemerkt gerade Rekordgewinne einfahren und daher per Definition ihre Produkte gar nicht zu billig anbieten können, zur Seite springen, als aus Konsumenten Sicht kritisch zu bleiben und NVidia (oder Intel mit seinen zuletzt lächerlichen Preisen) auf die Finger klopfen.
SaschaHa schrieb:
Bedenke zudem, dass die hohen Kosten aktuell aber auch mit der hohen Leistung einhergehen. Relativ zur Performance sind sie kaum (oder je nach Modell sogar gar nicht) teurer geworden als der Vorgänger. Aber auch das hört man ja nicht gerne, schließlich erwartet man ja, dass man mit jeder Generation "mehr" für sein Geld bekommt, ganz egal, ob es in dieser Zeit technische Fortschritte gab oder nicht
Ja... mehr fürs gleiche Geld zu bekommen nennt sich technischer Fortschritt. Das lief bisher immer so. Mit jeder Generation. Etwas anders zu verlangen ist doch vollkommen absurd.
Dabei ist mir durchaus bewusst, dass die Entwicklung nicht immer gleich schnell weiter gehen kann, tendenziell eher teurer wird und sichtbare Fortschritte immer schwerer zu erreichen* sind, aber was du als Rechtfertigung für NVidias Preispolitik anführst, führt doch den ganzen Markt ad absurdum.
Es muss ja nicht jährlich eine neue Generation mit +30% Leistung zum (inflationsbereinigten) Preis des Vorgängers sein, aber alle 2 oder inzwischen gar 3 Jahre wäre das schon ganz nett.
So wie uns aktuell die Mehrleistung zum Mehrpreis verkauft wird, ist das ja streng genommen gar kein Fortschritt und wenn die Entwicklung so weiter geht, bekommt man nie mehr Leistung für sein Geld.
Da bleibt rational gesehen irgendwann nur noch der Schritt zur Konsole.
*man vergleiche hier nur mal den Polygon Count. Kaum grafische Unterschiede, trotzdem doppelt so aufwändig zu berechnen. Also sieht die Mehrleistung nicht direkt proportional 'besser' aus. Also ja, technischer Fortschritt wird teurer, das ist mir bewusst und das ist nur das einfachste Beispiel um das zu illustrieren.