Toprallog schrieb:
Joar dieser Blick ist ja schon recht kurzsichtig. Technischen Fortschritt nur an der VRAM Menge ausmachen ist Quatsch. Weißte sicher.
Weil dann könntest du auch ne alte Polaris RX570 mit 8 GB einbeziehen.
Die GPU ist schon stark. Der Preis auch okay. Aber die 8 GB sind durchaus ein Kritikpunkt, muss man sagen. Aber sicher kein Show Stopper.
Es kommt, wie immer darauf an, was man zockt und was man jetzt schon hat.
Ist der Kunde König? Imho sollte ein Unternehmen immer an einem Interessenausgleich zwischen Gewinnoptimierung und Kunden-Bedürfnissen interessiert sein. Das sehe ich bei NVIDIA nun leider nicht.
Wir haben eine 2080, die auf dem Niveau einer 1080 Ti lag. Aber NVIDIA spart am Speicher.
Wir haben eine 3070, die auf dem Niveau einer 2080 Ti liegt. NVIDIA spart wieder am Speicher.
Wie lange man mit 8GB glücklich wird, vermag ich nicht zu beurteilen. Ich würde aber mal schätzen, dass mehr Speicher vermutlich auch etwas mehr Zukunftssicherheit bedeutet. Und nicht jeder kauft sich jedes Jahr eine 500 Euro Grafikkarte (die Partnerkarten werden vermutlich deutlich teurer).
Anderer Punkt? Viele haben die 2080 Ti als erste "echte" 4K-60FPS-Karte bewertet. Jetzt haben wir eine 3070, die in sehr vielen Punkten schneller als Turing ist. Und die soll jetzt nur noch eine gute WHQD-Karte sein? War damals die Einschätzung von Turing zu optimistisch? Oder was hat sich in den letzten 2 Jahren verändert? Brauchen die Spiele mehr Speicher?
Toprallog schrieb:
Weil dann könntest du auch ne alte Polaris RX570 mit 8 GB einbeziehen.
Da war AMD der Zeit vielleicht voraus. Vielleicht waren 8GB damals zu viel oder der erwartete zeitliche Nutzungshorizont zu lang?
Aber hat Polaris 500 Euro gekostet? Irgendwie erinnere ich mich an leeeeeicht geringere Preise.
Und btw, die 3070 ist mit Sicherheit mit Ausnahme der 8GB keine schlechte Karte.
Stand heute.