HAse_ONE schrieb:
Ich versteh auch dieses Argument mit "Bevor der VRAM ausgeht, fehlt eh meist schon die Rohleistung". Das macht keinen Sinn. Bessere Texturen kosten so gut wie keine Leistung, sondern einfach nur mehr VRAM. Und zumindest für mich sind gute Texturen mit das wichtigste bei der Grafik. Zu wenig VRAM hat nur zur Folge, dass ich früher die Texturen runterstellen muss, nur damit Nvidia oder AMD paar $ Pro Karte sparen können, die eh schon schweineteuer sind.
Der V-RAM Bedarf wird von jedem Qualitätsetting erhöht, nicht nur durch die Textursettings.
Beim Beispiel RTX 4070 vs. 7800XT bringt dir der V-RAM bisher kaum nennenswerte Vorteile, schon gar nicht in 1080p oder 1440p, also sollte man die V-RAM Panik definitiv eher auf 8GB und 10GB Karten beschränken, wobei es hierbei auch enorme Unterschiede zwischen den Herstellern geben dürfte.
Dort wo Intel 10GB schon Probleme bereiten, laufen oft 8GB auf einer Nvidia RTX 4060 noch sauber durch.
HAse_ONE schrieb:
Selbst wenn die Rohleistung für ultra Schatten, RT etc. nicht reicht, kann ich mit genug VRAM trotzdem die knackig scharfen Texturen auswählen.
RT, Schatten und solche Optionen kosten auch Speicher, insofern ist das zwar nicht ganz richtig, aber grundsätzlich würde ich dir zustimmen. Das Problem ist halt, dass sobald irgendeiner Karte in maximalen Settings 4K Auflösung usw. mal der V-RAM ausgeht, es sofort heißt, die Karte darf man nicht mehr empfehlen und das obwohl dem Konkurrenzprodukt in den meisten Fällen die Leistung für RT/PT völlig fehlt, aber eine V-ram Knappheit durch kleine Stellschrauben behoben werden kann.
Ich habe das selbst auf meiner RTX 4070 und verkauften RTX 4080 in Indiana Jones beobachtet.
Mehr als 12GB sind in QHD gar nicht nötig, nicht einmal mit PT, da einige Optionen des Spiels Speicher geradezu verschleudern, aber nichts bewirken.
HAse_ONE schrieb:
Warum man nicht einfach mal Kritik an seinem "Lieblingshersteller" hinnehmen kann, ohne gleich immer irgendwelche Situationen und Argumente zu suchen, die Kritik runterzuspielen.
Grestorn hat von Anfang an mit einem Kompromiss argumentiert. Der Kompromiss ist mit einer Radeon Karte viel größer. Kein DLSS, schwächeres RT, kaum nutzbares PT, auch aufgrund fehlendem RR.
Du wirst die Radeon Karte nie so eingestellt bekommen, dass sie das stemmen kann.
HAse_ONE schrieb:
Nochmal, es würde KEINEM EINZIGEM Kunden schaden, wenn die Karten mehr VRAM hätten.
Es würde auch keinem einzigen Kunden schaden, wenn die Radeon ein besseres Featureset, mehr RT Power und überhaupt mit PT in Indiana liefe. Die Diskussion hattest du
schon öfter.
Da heißt es dann wieder etwas von "Fanboys" usw. Man kann sich gerne anschauen wo die RTX 3080 heute im Vergleich zur 6800XT bei maximalen Details trotz nur 10GB steht. Wenn Nvidia bei anderen Dingen überlegen ist, wird AMD einen Vorteil für sich beanspruchen müssen. (Speicher)
Der Speicher spielt bei dieser Generation wiederum keine Rolle mehr, da AMD nur bis 16GB geht.
Die meisten User haben bis heute mit der 3080 einfach besser gespielt, trotz 10GB Videospeicher.
Sie liegt 10% über der 6800XT auf dem Niveau einer 6900XT. Bei RT unter Max Settings geht ihr häufiger der Speicher aus, definitiv. Aber man kann dort auch Regler benutzen. Genauso ist RT bei der GeForce nicht sooo wichtig. Kann man abschalten, oder auf niedrig belassen.
HAse_ONE schrieb:
Wieso also muss man als Kunde, der für die Karten viel Geld zahlt, dieses Sparen der Hersteller verteidigen? Ich versteh es einfach nicht sorry...
AMD spart genug um schritthalten zu können. Intel auch. Ich habe keine Lust immer den Herstellern vorzuwerfen sie würden ihre Karten zu teuer anbieten.