.Sentinel. schrieb:
Wir befinden uns bereits im Umbruch, den aber einige hier nicht wahrnehmen wollen.
Und daran muss sich ein Big Navi messen lassen, also ob ich in einem Jahr noch auf das Produkt zählen kann, oder ob es immer mehr federn lassen muss, weil es zwar toll auf traditionelle Art und Weise rastern konnte, aber dann in Sachen künftiger Bildgenerierung, AI, ML etc. ordentlich federn lassen muss.
Da mache ich mir durch Series S|X und PS 5 eigentlich keine all zu großen Sorgen. Hier wurden ja schon Links gepostet, dass zumindest auf der XBOX viele der von dir angesprochenen Technologien unterstützt werden.
Wenn also eine 52CU Series X oder eine 36CU PS5 alle RDNA 2 Features unterstützen, dürfte eine 60, 72 oder gar 80 CU Grafikkarte das auch schaffen.
Laphonso schrieb:
[...]
- Plan B wäre immer noch eine Preisanpassung der 3080 oder 3090, die aber dann nach außen hin ein Desaster werden kann "Ha! Nvidia knickt ein wegen AMD RDNA2 und muss billiger werden". Das muss Nvidia vermeiden. Dem Grunde nach sind 699 Euro für die 3080 Performance auch nicht absurd, aber wirken auch nur günstiger aufgrund der Turing Preise, die teurer wurde durch die Tensor Cores. Ampere ist Turing V2, nix anderes.
[...]
Sorry, aber das ist doch 'kleingeistiges' Enthusiasten Forenkrieg Getue; so denkt außerhalb 'unserer' Blase Keiner. Was kann Produkt A zu Preis A und was kann Produkt B zu Preis B. Das zählt zum Kaufzeitpunkt.
- Nvidia kann jetzt, muss jetzt re-agieren. Nun ist das AMD lineup bekannt und bepreist
Oder erst mal 3 Wochen weiter jeden produzierte Chip verkaufen, weil ihnen das Zeug aus den Händen gerissen wird. Für jeden potentiellen 3080/3090 Käufer, der nach der AMD Präsentation warten will, stehen etliche Andere in der Warteschlange. ¯\
(ツ)/¯
Hier wird viel zu viel 'Panik' in die Aktionen oder Reaktionen der großen Hersteller geschrieben. Das ist zwar nett und macht die Rivalität greifbarer, aber selbst bei Intel, die durch Zen 3 deutlich mehr in Bedrängnis geraten sind, rennt nicht jeden Morgen irgendwer mit nem brennenden Baum durchs Büro.
Laphonso schrieb:
Die 16 GB VRAM stechen hier die Karte, im Wortsinne.
Du lässt die Preisdifferenz mMn außer acht. Wer 500€/$ mühsam zusammensparen muss, gibt nicht mal eben 580€/$ aus.
Wer mehr zahlt, bekommt bei AMD mehr. Das macht die günstigere Karte nicht obsolet.