Chismon schrieb:
...
Du musst meine Argumente auch nicht mögen, aber diese lesen und darauf antworten tust Du scheinbar doch, so schlimm kann es dann ja nicht sein
.
Eine 3 GB Version der GTX 1060 wäre an Dreistigkeit kaum zu überbieten und nur darauf angelegt Kunden mit einem klar unterdimensionierten Produkt über den Tisch zu ziehen ... aber vielleicht zieht nVidia ja zurück und begeht nicht diese Dummheit auch wenn die Gier dort groß ist ... warten wir's ab ...
Danke. Ja, ich lese alle Beiträge und ich muss sagen, ich bin etwas überrascht und hätte eine andere Antwort erwartet. So hingegen diskutiere ich gerne. Du hast Recht, ich konnte die 980Ti schon lange nutzen und ist bereits im zweiten Jahr. Wird meine zukünftige Karte mehr GB haben? Definitiv, keine Ahnung ob die 1080Ti dann 8 oder 12 hat. Nur denke ich persönlich, dass es in Auflösungen von WQHD, UWQHD und UHD durchaus gerechtfertigt ist, 8 oder mehr GB im Jahr 2017 zu verbauen.
Nun zu des Pudels Kern: sind 8GB besser? Klar. Sind sie nötig in FHD? Kommt drauf an. Wie schon angemerkt lässt sich der Speicher auch in 800x600 vollklatschen, ist jedoch ne Machbarkeitsstudie. Geht man von den bisherigen Spielverläufen aus, wurde vor 4 Monaten bei CB empfohlen, von 2 GB Karten Abstand zu nehmen und eben zu 4 GB zu greifen. Jetzt werden in der "Holzklasse" 6 GB geboten und ich finds vollkommen ausreichend. Die verschiedenen Screenshots mit der Belegung greift zu kurz, da es eben einen großen Unterschied gibt zwischen Benötigen und Belegen. Ersteres ist problematisch und führt zu Rucklern, zweites ist Luxus.
Passt die Speicherbestückung zur Rohleistung der RX480? Nein. Ist es schädlich? Nein, natürlich nicht. Doch bietet sich demnächst ein Pendant an mit ggf. etwas mehr Leistung und 6 GB (was ja durchaus eine Verdreifachung sein könnte, wenn man von 960 käme). Meiner Meinung nach eine grundsolide Ausstattung für FHD. Mehr möcht ich ja gar net sagen. Geschmackssache mit den eigenen Vorlieben, immerhin hängen ja verschiedene Ökosysteme mittlerweile bei einem Grafikkarten-Kauf hinten dran.
Und mal ganz allgemein gesagt hoffe ich, die Spieleentwickler nehmen ihren Job mal wieder ernst, kümmern sich um ordentliche Streaming-Techniken (wie z.B. Witcher 3) und beenden diesen VRAM-Wahn mit 08/15 Texturen-Grütze ala Batman Arkham Knight. Man sollte solch zukünftigen Veröffentlichungen den Verantwortlichen um die Ohren haun anstatt sich genötigt zu fühlen, eine Mittelklasse-Karte in wenigen Jahren mit 16 GB VRAM kaufen zu müssen!
@Warlock666
Gut zusammengefasst. Es kommt eben immer auf den Einzelfall an. Dass AMD immer günstiger sein muss, liegt zumeist daran, dass irgendwas net ganz passt oder auf Augenhöhe ist. Aktuell schlägt halt die Geizhals-Warnung und
http://www.pcgameshardware.de/AMD-P...-trotz-treiber-update-kein-pcie-logo-1201176/ zu Buche. Das drückt auf den Preis, wenn auch die Entscheidung von AMD, die Karte so viel verbrauchen zu lassen, nicht nachvollziehbar ist.