cunhell schrieb:
Der Chip kostet in der Herstellung das Gleiche!! Er ist nur entweder teildefekt oder kastriert und daher mit weniger Ausführungseinheiten ausgestattet.
Um solch einen Chip zu versorgen brauch ich eine passende Platine die nicht viel billiger als ein der 2080 sein kann.
1. Fehler.... Der Chip kostet das gleiche. Das ist falsch, da die Produktionskosten mit der Ausbeute, der Anzahl nutzbarer Chips sinkt. Nicht alle Chips die für eien 2070s in frage kommen, kommen wiederum für eine 2080 in frage. Würde ich sie alle in den Müll werfen würde das nicht nur die 2070s teurer machen, sondern auch die 2080. Dadurch sinkt der Ausschuss und damit die Produktionskosten pro Chip.
2. Fehler
Auch können mehr Chips produziert werden da ja jetzt auch die Nachfrage steigt. Um so mehr Hergestellt wird um so günstiger wird es. Da jetzt diese Chips nicht nur für die 2080 produziert werden können, sondern auch für die 2070s genutzt und verkauft werden können, können auch mehr in Produktions gegeben werden. Damit fählt auch der Produktionspreis pro Stück.
3. Fehler Das gleiche gillt auch für die Plattine. Um so öfter ich bestimmte Bauelement nutze, um so höhere Stückzahlen ich abnehme, um so günstiger wird es. Selbst wein keine Platine mehr über den Ladentisch gehen sollte, macht man quasi kein verlust weil auf schon vorhandene Bauelemente zurückgegrifen werden kann.
cunhell schrieb:
Komisch, bei der Fury war der RAM,von 4GB, der zum Release für fast wirklich alles gereicht hat, ein Thema.
Ein paar Jahre später in denen der Verbrauch an RAM deutlich zugenommen hat, ist es plötzlich kein Thema mehr weil Nvdia knausert.
4GB reichen nicht mal für FHD. Finde den fehler! 8 GB reichen für QHD. Und für 4k ist sowohl die Radoen wie auch die 2080 zu langsam. Finde den Fehler.
cunhell schrieb:
Ist nicht anderes als Resteverwertung. Eine Meisterleistung kann ich da nicht erkennen. Insbes da der Verbrauch ja zum Teil deutlich zugenommen hat, da größere Chips mit aufwendigerer Stromversorgung verwendet wurden. Kann man natürlich machen, aber meisterlich ist was anderes. Abgesehen davon ist es natürlich meisterlich, dass man jetzt die 2060 bringt, die man von Anfang an hätte bringen sollen. Ach halt, mehr als die 6GB Ram braucht man ja nicht, oder so ähnlich. Ich frage mich allerdings, warum man die dann jetzt bringt wenn man sie denn nicht braucht.
Die Resteverwertung senkt die Herstellkosten und damit den Verkaufspreis. Um so höher die Herstellkosten, um so mehr muss der Kunde bezahlen. Für die Leute die unbedingt QHD nutzen möchten und nicht das Geld für eine 2070 haben ist die 2060s eine gute Option. Wer das nicht braucht und weniger bezahlen möchte kann noch immer zur 2060 ohne super greifen. Die ist Sparsamer und nochmal günstiger.
cunhell schrieb:
Wenn DXR mal flächig verwendet wird, wird man mit den Karten unterhalb der 2080Ti nichts mehr reissen, da die Anforderungen an die Grafikkarte höher werden und der VRAM-Verbrauch bei hohen Details sicher auch weiter zunehmen wird.
Mal abgesehen davon scheint Nvidia der Meinung gewesen zu sein, etwas tun zu müssen. Hätten sie sich mit ihrem Mittelklasseportfolio sicher gefühlt, hätten sie nicht reagiert.
Cunhell
Und wen interssiert das? Ich werde genau dann eine DXR Karte kaufen wen das Spiel auf dem Markt ist welches ich mit Raytracing nutzen möchte. Die 95% der anderen Spiele ist mir dann egal. Sprich ob Flachendeckend oder nicht, das interessiert doch niemanden.Die Karten von nVida haben ja ggenüber AMD keine nachteile. Nur mehr features. Und was Raytracing mit allen Spielen anstellt, welches selbst alte Spiele den weiderspielwert steigert, macht DXR für mich auf jedenfall für ein Kaufkriterum. Und wie gesagt, dadurch braucht man nur ein einziges Spiel welches man selber mit DXR spielen möchte.
Und die behauptung das mann mehr als eine 2080ti bvräcuthe ist auch total aus der Luftgegriffener unsinn... Wen man sich die Entwicklung der letzten 10 Jahre betrachtet. Äußert unrealitsich.