v_ossi schrieb:
Wenn es vor über drei Jahren möglich war einen 232 mm² großen, 5,7 Mrd. Transistor schweren Polaris Die mit 8GB GDDR5 für 250€ anzubieten, ist und bleibt es einfach ein Unding, wenn mir jetzt ein "popeliger" 158 mm² Die mit 6,4 Mrd. Transistoren und immer noch 8GB Speicher für 210€ angeboten wird, der nur wenig Mehrleistung bietet.
Alleine die Tatsache, dass Du Entwicklungskosten für das 7nm Verfahren vollkommen ignorierst und dann Preise für eine geringere DIE Size, die ja vor allem durch den kleineren Fertigungsprozess zustande kommen, ignorierst, disqualifiziert sämtliche deiner Ausführungen.
Und nein, die Diskussion ist nicht überflüssig, weil sie mich stört, sondern weil sie so falsch geführt wird, wie du es gerade versucht hast. Und weil sie schlichtweg überflüssig ist, weil die Preise nicht mehr zurück kommen werden, ganz egal ob du und andere sich auf den Kopf stellen oder nicht.
Taxxor schrieb:
Selbst in 4K ist bisher nicht wirklich ein Spiel draußen, welches von 12GB VRAM gegenüber 8GB profitiert und die Leistungsklasse der 5700XT(Mittelklasse) geht eigentlich nur bis 1440p und da kommt man mit 8GB noch lange aus.
Aussagen wie "bisher" sind bei einer solchen Karte doch halt schon irgendwie etwas lächerlich... Ich kaufe doch die Karte nicht nur für jetzt, sondern auch für zukünftige Titel. Und mit Mods und entsprechenden Filtern oder Textur-Pakete ist es ohne weiteres möglich den VRAM auch jetzt schon zu sprengen. Wenn es etwas ist, woran man nicht sparen sollte, dann ist das (V)RAM.
HISN würde dir da sicherlich ebenso widersprechen...
ryzen- schrieb:
Am Ende ist selbst mit Minus verkauft noch besser als gar nicht verkauft,
AMD verkauft die Chips doch. An die Boardpartner. Nur bringt es halt nix, wenn man viele Karten absetzt, aber keinen Gewinn damit einfährt. Denn dann fehlt eben, wie schon geschrieben, das Geld für die Entwicklung. Und das Lob der Kunden ist spätestens dann dahin, wenn die Nachfolgegenerationen nicht mehr überzeugen können, weil das Geld in der Entwicklung fehlte.
Wie gesagt: Diesen Fehler hat AMD schon einmal gemacht.
Natürlich würde ich auch lieber möglichst wenig für die Karten zahlen. Aber solange die Preise fair bleiben - und das tun sie bei bei AMD (Und nein, auch nVidia ist im Segment bis zur 2070S nicht zu teuer) - ist doch alles in Ordnung.
v_ossi schrieb:
Auf Grunde dubioser 'Erfahrungen' die eintreten können, oder eben auch nicht, kann man Stand heute groß kein anderes Fazit ziehen. Tut meiner Kenntnis nach auch kein anderes namhaftes Magazin in Dtl. oder dem Ausland.
Ein lapidarer Satz wie "Wenn die Preise noch etwas fallen, dann..." sind gängige Praxis und würden das Fazit ganz anders dastehen lassen.
Aber zum Glück listet CB ja neben der UVP auch immer die aktuelle Preislage in der Übersichtstabelle. So kann sich der geneigte Leser hoffentlich selbst ein adäquates Bild machen.
v_ossi schrieb:
Woher nimmst du z.B. die Sicherheit, dass die Nvidia Karten nicht im gleichen Maß im Preis fallen und sich somit nichts am Verhältnis zwischen den beiden Lagern tut?
Das werden sie sicherlich... irgendwann. Es geht aber erst einmal vor allem nur um UVP vs. Straßenpreis bei breiter Verfügbarkeit.
Revan1710 schrieb:
Dass eine mittelmäßige Partnerkarte wie die Sapphire Pulse nochmal 50€ mehr als das Referenzdesign kostet, ist in meinen Augen jetzt nicht gerade wenig
Zum Release-Zeitpunkt waren es, wenn ich mich recht erinnere, keine 50€ Aufpreis zum Referenzdesign sondern eher 20-30€.
Die 50-60€ waren eher für die Top-Modelle von PowerColor und Sapphire. Und genau die habe ich auch bezahlt.
Und das war immer noch 100€ günstiger als vergleichbare 2070 Super Modelle.
Revan1710 schrieb:
v.a. wenn der UVP von Amd für die Referenz schon fast Turing-Niveau war
100€ Preis-Unterschied ist "schon fast Turing-Niveau"?
Ich hoffe, Du bist kein Buchhalter...
Simon schrieb:
Selbst wenn AMD es schafft, einen "Big Navi" zu bauen. Der Effizienznachteil, der schon in der Mittelklasse existiert, wird kaum durch das Hinzufügen von weiteren Ausführungseinheiten so einfach verschwinden. Ne RTX 2080 Ti ist 37% schneller als ne RX5700 XT, verbraucht unter Last aber nur 29% mehr.
Und wo ist nun eigentlich das große Problem, wenn eine der Karten ein paar Watt mehr frisst? Solange es keine massiven Ausreißer gibt, spielt es doch wirklich keine Rolle ob da - egal ob AMD oder nVidia - eine der Karten 10-15W mehr verbraucht. Das merkt kein Mensch.