Wanderwisser schrieb:
Der Karte fehlen dann halt eigentlich genau die 2 großen Stärken der 7900xt gegenüber der 4070 ti: Die Stärke in hohen Auflösungen und der mehr als üppige Vram.
Wieso sie hat doch immer noch 16 statt 20gb, sie zieht damit mit ner 4080 gleich du zahlst 1150 Euro für 16gb bei Nvidia, wenn wir mal die 4060 16gb ignorieren da sie mit 128bit und lahmem chip weder VR noch hohe Auflösungen bedienen kann.
16GB ist immer noch grosszuegig, wie willst denn sonst noch den Preis senken? einfach ne 7900XT verkaufen mit nem anderen Namen und 100 Euro billiger?
Wie gesagt die 7900XT gibts ja auch weiterhin ab 805 Euro. Man unterbietet damit ziemlich sicher Preislich die 4700XT und hat aber trotzdem 4gb mehr VRAM, was willst mehr?
Es muss ja auch immer ne gewisse Abstimmung sein, ja mehr Vram ist oft gut, aber wie man an der 4060ti sieht bringts auch nicht immer viel wenn in dem Beispiel die Karte für RT und >1440p definitiv teils auch >1080p zu lahm ist. Wobei da auch nur hier und da nen mini Vorteil da ist weil die alternative nicht 10 oder 12gb ist sondern gleich 8gb. Eine 12gb vram mit 192bit Speicherinface heck ne 10gb vram mit 168bit Speicherinterface wäre der 16gb Variante überlegen.
Ich mein die hat fast 15% weniger RT Kerne und das gekoppelt mit geringerem Speichertakt, und was die K.I. Kerne wo auch weniger sind wird man noch sehen und sonst hats auch weniger Textureinheiten.
Sie wird wohl so 15% langsamer sein, hätte sie 20gb würde sie heute kein Spiel besser spielen (gleiche Bandbreite), und in nem Jahr würde sie wohl eher oder gleichzeitig an zu wenig GPU Power bei hohen Settings sterben als an den 16gb.
Alleine das die Konsolen 16gb Insgesamt Ram haben, werden die Spieleentwickler nur in absoluten Ausmaßen das schnell reißen und immer ein hoch optimiertes Setup haben das nicht mehr als 16gb schluckt.
Mir fällt es ja schon schwer teilweise 12gb zu kritisieren, es geht, sehr vereinzelt mit RT kanns da auch schon zu Matchtexturen kommen kenne nur ein Beispiel Hogwards und vermutlich wurde das auch schon leicht gepatcht, aber beim Release war das ein Problem. Aber es zeichnet sich halt ab das es ne Art geplante Obsoleszenz ist bei 16gb kann ich das nicht bestätigen. Die Karte wuerde mit 20gb nicht wesentlich besser altern. Die einzige Ausnahme neben irgendwelchen komischen Demos von echtem Raytracing oder sowas, wie hies das eine Spiel das da mal kam, Portal mit irgendwas echtem blabla. Und Texturpacks, aber bis der Nachfolger von Skyrim raus kommt dauerts vermutlich noch 5 Jahre, also ist man da auch save
Aber nochmal um mehr als 16gb VRAM zu bekommen zahlst bei Intel (akt. Generation) 1600 Euro wenn du das unbedingt willst kannst ja die 800 Euro bei AMD locker machen, das ist im Vergleich doch ein Schnäppchen. Oder du kaufst jetzt irgendwas mit 16gb un in 1-2 Jahren ne gebrauchte 7900XT wenns jetzt nicht leisten kannst, vorher brauchst die 20GB Vram eh nicht (solange wir von Gaming reden).
Btw ich würde so weit gehen das dieses Setup sehr klug ist, der Vorteil des Extra ram ist ab 16gb sehr sehr fraglich / minimal, man kann aber A den Preis senken und B verbraucht ram auch immer recht viel Strom. Gut sollten sich die 300W bestaetigen waere das bisschen mager, aber vermute das es real dann noch weniger Schluckt oder die Chips sind so defekt das sie mehr Strom brauchen, oder es ist bei Undervolting mehr Stormersparnis drin. Vielleicht ubeerschaetze ich grad den Stromverbrauch von Ram aber nach meiner Erinnerung war das immer recht deutlich.