SKu schrieb:
Und die Frage ist: Was bringt es dem Kunden?
Abgesehen von irgendwelchen Spezialfällen ist die VRAM Ausstattung der aktuellen Karten mehr als ausreichend für gängige Auflösungen.
"
Für gängige Auflösungen" kaufe ich mir doch aber
keine High-End-Karte für über 1000 Eur. Bei einem High-End-Produkt kann man doch wohl erwarten, dass das in allen Belangen High-End ist und
lange verwendet werden kann.
SKu schrieb:
Was bringen dir 16GB auf einer Karte, wenn diese trotzdem am Ende langsamer ist als die Konkurrenz mit weniger VRAM?
Die Karte hat doch genug Performance. Ich finde auf die Schnelle gerade die Tests nicht, aber es gab doch schon VRAM-Tests, die zeigen, dass 11GB in 4K bei manchen Games nahezu vollständig belegt werden. Von einer High-end-Karte für über 1000 Eur würde ich erwarten, dass auch noch genügend VRAM für neue Games in 2020 vorhanden ist.
Die Frage sollte doch sein: was spricht dagegen? Die Gewinnmarge von NVIDIA ist gigantisch und VRAM ist bei weitem nicht die teuerste Komponente bei einer Grafikkarte.
SKu schrieb:
Wer viel VRAM benötigt, der kauft mit Sicherheit nicht eine Gaming-Karte.
Doch, sogar sehr häufig. Für zu Hause hole ich mir keine Titan, teste aber häufig neue Dinge in TensorFlow oder PyTorch...und habe mich schon bei diversen CUDA-Applikationen über den beschnittenen VRAM geärgert.
Selbst in meiner Alma Mater hatten wir
deutlich mehr GeForce-Karten als Titan, Quadro, oder Tesla. Eine 2080 Ti liegt in Deep Learning Benchmarks typischerweise 10-20% unter einer RTX Titan. Kaufst du 2x 2080 Ti hast du ähnlich viel VRAM, aber - je nach Anwendung - 50-80% mehr Performance zum Gleichen Preis oder teilweise noch etwas günstiger.
Quadro- und Tesla-Karten stinken vollkommen gegen eine 2080 Ti ab.
Da überlegt man nicht lange und ordert haufenweise 2080 Ti.
RTX Titan werkelte nur (dann 2x) in den Workstations mit massig VRAM-Bedarf, Quadro war aufgrund des Preises kaum vorhanden und Tesla nur in unseren großen Clustern respektive dem Supercomputer der Uni.
CR4NK schrieb:
Wenn du VRAM brauchst, kauf ne Radeon VII.
Ich habe auch schon häufiger mit dem Gedanken gespielt. In FP32 GPGPU-Anwendungen hat eine Radeon VII fast die gleiche Performance wie ein RTX 2080 Ti. Für den halben Preis und mit mehr VRAM.
Die Problematik ist nur, dass CUDA softwareseitig von allem möglichen Kram sehr gut unterstützt wird und ROCm von AMD leider eher noch Beta-Charakter hat.
matti30 schrieb:
super wäre, wenn die 2080 11GB VRam bekommen hätte, aber so..
Dem kann ich nur zustimmen.
Nureinnickname! schrieb:
Dann würden die Karten aber zu lange durchhalten, und das möchte Nvidia nicht, die Wollen ja mit dir geld verdienen in dem du immer wieder neue Grafikkarten kaufst, und nicht eine ewig behältst weil der VRAM nicht limitiert, also bitte.
Ich denke auch, dass das eine der primären Gründe dafür ist.
KurzGedacht schrieb:
Das ist einer der Gründe warum man mit AMD meist besser dasteht,.wenn man seltener als alle zwei Jahre aufrüstet.
Mit der Zeit halten die AMD Karten einfach besser mit, weil plötzlich Dinge wie ein wenig mehr Speicher relevant werden.
Vor allem da bereits kostengünstige AMD-Karten häufig mehr Rohleistung als NVIDIA haben. Wenn also ausreichend VRAM vorhanden ist und mit den Jahren mehr und mehr Software-Optimierungen kommen, sodass die Rohleistung besser genutzt werden kann, dann sind AMD-Karten in der Tat häufig länger "sinnvoll" einsetzbar.
82EE schrieb:
Wo keine ernstzunehmende Konkurrenz, da kein Fortschritt. Gewisse Analogien zur Marktlage der CPUs der letzten 8-10 Jahre sind sicherlich ebenfalls nur Zufall. ;-)
True.
Ich habe ja auch gar kein Problem damit, dass sie ordentlich Gewinne erzielen wollen...aber ganz ehrlich, ordentlicher VRAM würde NVIDIA sicherlich nicht die Marge vermiesen. Das man den Kunden derart schröpft finde ich persönlich echt nicht gut.
Gamefaq schrieb:
Du hast schon gelesen daß sie jetzt auch 8GB haben soll?
Ja, ich meinte ja auch "außer der 2060", also in dem Sinne: nur diese Karten bekommt mehr VRAM, die anderen werden einfach so belassen.