pipip schrieb:
... werden sich aktuelle Grafikkarten Lösungen von AMD und NV weiter verkaufen. Noch sind wir überall über UVP Preise und auch wenn Preise deutlich gesunken sind, gibt es da noch Spielraum.
Im Endeffekt kam bei AMD zu Ende einer Generation immer schon LE-Varianten auf den Markt. Ich finde die 6700 daher gar nicht uninteressant, weil ich mit LE-Versionen oft gute Erfahrungen gemacht habe... kann gut sein, dass die nämlich gar nicht wirklich langsamer ist, als die 6700XT (vllt kann sogar mit OC mehr rausgeholt werden).
Was abzuwarten ist, wie die Effizienz sein wird, schlechter oder besser.
Was RAM ist. Mal abwarten. Bald kommt auch direct Storage. es wird immer mehr Techniken wie FSR genutzt ect. ... gespannt, ob "nativ" dann immer mehr wie "Rohleistung" betrachtet wird. Redundanzen zu vermeiden ist in der Technik nichts neues. So wird oft die Effizienz / Effektivität gesteigert.
Also ob 10 GB zu knapp sind. Nativ ja, aber wie sich das jetzt alles mit FSR und sonstige DX Features wie eben Direct Storage weiterentwickelt ? Abwarten.
Das habe ich ja auch nicht angezweifelt, es wird mehr und mehr Spätumsteiger geben, die Grafikkarten i.d.R. eine Generation später kaufen (kurz vor bis kurz nach Erscheinen einer neuen GPU-Generation), weil für viele die Produkte sonst nicht mehr ausreichend erschwinglich oder lohnend sein werden.
Ja gut, LE-Varianten sind ja schon eine Weile her, aber klar, es gab bspw. die RX 590 am Ende des Produktzyklus, nur eben leicht schneller als die RX 580 (gut, in der aktuellen Situation vielleicht eher mit den Refresh Karten AMDs/RTGs vergleichbar) und damals ging es nicht darum künstlich den Preis hoch zu halten (und Kunden weniger für ähnlich viel Geld zu bieten).
Letzteres fällt mir nicht zum ersten Mal bei AMD der letzten Jahre auf, man ist deutlich gieriger geworden und hat sich kundenpolitisch einiges von nVidia abgeschaut, nur ist man weiter den je von der Marktführerschaft bei dGPUs entfernt und sollte eher kleine Brötchen backen, denn mit so einem Verhalten gewinnt man (zumindest bei mir) keinen Blumenstrauß/keine Sympathie mehr, dann kann ich auch zum Original greifen bzw. die Marktführerprodukte kaufen.
Bei den Prozessoren hat AMD Aufwind und gut an Mindshare gewonnen, aber bei Grafikkarten ist das (immer noch) eine Fehlanzeige (trotz der Technik quasi auf Augenhöhe mit RDNA2) und passt so eine Kundenpolitik leider gar nicht.
Wenn die RX 6700XT (für mich aktuell die einzig halbwegs attraktive AMD/RTG Karte, der Rest ist noch maßloser überteuert) EOL gehen sollte und RDNA3 nicht beinahe zeitgleich mit Ada Lovelace kommen sollte und nur mit den Navi 31 Bonzen-/Halomodellen (also keine Navi32 Modelle/Pendants zur RTX 4070/4060Ti), dann werde ich vermutlich wieder beim 'bösen" Marktführer landen, der wenigstens nicht so tut als ob er engelsgleich oder arm und sexy wäre und die gleiche profitgeile Tour wie die Konkurrenz fährt.
Ja klar, wissen kann man das jetzt nicht, aber mehr RAM haben ist nie verkehrt, wenn man die Karte 4(+) Jahre nutzen will.
Das habe ich damals mit der RTX 670OC 2GB (die 4GB Version war eine total überteuerte Witznummer von nVidia, auf Preisniveau deutlich oberhalb der RTX 680 und komplett nicht lohnend) bitter erfahren müssen und muss das nicht mehr haben (insbesondere, wenn es offensichtlich ist, siehe RTX 3070/3070Ti (mit nur 8GB), die alle mit viel zu wenig Speicher ausgerüstet sind für die Leistung der Karten (auf RTX 2080Ti 11GB Niveau oder darüber).
Gut, da hast Du natürlich einen Punkt, aber soweit ich weiss soll DirectStorage primär die Ladegeschwindigkeit aber zweiter Generation von PCIe4.0 NVME SSDs und nicht fps (nativer Rohleistung) kompensieren wie FSR2.0, DLSS (vermutlich bald 3.0), XeSS, usw.
Wie weit das in Zukunft noch gehen wird bzw. was man dann ab Auflösungen von 5K und darüber herausholen können wird, muss man abwarten und evt. wird man da mit 10GB doch ganz gut in WQHD dabei sein.
Mit 12 GB und wenig Mehrkosten ist man aber eher auf der sicheren Seite, wobei eine RTX 4070 (mit kolportierten 12GB) angeblich als Vorzeige-WQHD-Lösung vermarktet werden soll (mit Leistung ganz knapp oberhalb einer RTX 3090, die als Möchtegern-8K-GPU zum Ampere Markstart beworben wurde), wenn man den Gerüchten glaubt und irgendwie fände ich das schon verkehrte Welt.