Valix
Lieutenant
- Registriert
- Feb. 2008
- Beiträge
- 605
Ich hab in WQHD schon Auslasstungen von 8-12GB Einstellungen sind meistens immer auf UltraFuchs36 schrieb:Und wenn ich zur einen 2k Monitor greife? Reicht da die 4070 TI aus?
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Ich hab in WQHD schon Auslasstungen von 8-12GB Einstellungen sind meistens immer auf UltraFuchs36 schrieb:Und wenn ich zur einen 2k Monitor greife? Reicht da die 4070 TI aus?
Der Preis und bei der AMD Karte würde ich nicht nochmal greifen, da greife ich zu einer Rtx bzw NvidiaRolf_RR schrieb:Was spricht denn gegen eine 4080 oder 7900XTX?
Dann stimmt aber mit deinem System etwas nicht, wenn CB im Test mit einer 6800 hier 62,2FPS schafft.DaHell63 schrieb:Mit meiner RX 6800 reicht es, trotz 16GB VRam, nicht mal für 1080p (ultra/Raytracing hoch 44,9/36,9)...aber hauptsache 16GB VRam...
Sorry, das Argument ist hier vollkommen irrelevant. Nur weil Nvidia die 730GT zur Kundenverarsche mit 4GB ausgeliefert hat und die Karte deutlich langsamer war als eine 580 mit 1,5GB, ist das hier vollkommen belanglos.Chesterfield schrieb:dieses Vram Bashing immer !!
es gab 730GT karten mit 4 GB die 8 mal langsamer waren damals eine GTX580 mit 1,5 Vram. und das in jeder Lebenslage !!!!
RAM schön und gut, aber wie du sagst @HansDetflefAndi bevor man da rein kommt ist der chip eh schon zu schwach. und nein Hogward lagacy ist kein Indiz, es ist einfach nur grottig für pc umgesetzt wenn man sieht wie die Konsolenversionen sind !!!
Da steht doch Ultra/Raytracing hoch in meinem Post.DannyA4 schrieb:ich bezog mich auf deine Aussage, wie ich sie auch vorher schon zitierte...
Das ändert aber nichts daran, dass der Sprung von Full HD/WQHD -> 4K wesentlich größer ist als 720p -> 1080p und somit auch mehr Speicher benötigt wird.Chesterfield schrieb:hier sieht man dass AMD anders mit VRAM umgeht als Nvidia. daher ist ein "quantitativer" Vergleich zw AMD/NVidia einfach nicht richtig
damals war es eben Full HD/ WQHD !!
Milchmädchenrechnung, weil damals war der Sprung vllt net so groß, aber der Zuwachs vom RAM eben auch nicht. heute reden wir von 4/8/16 GBytes Zuwachs an VRam bei Vergleichen.Dango. schrieb:Das ändert aber nichts daran, dass der Sprung von Full HD/WQHD -> 4K wesentlich größer ist als 720p -> 1080p und somit auch mehr Speicher benötigt wird.
Naja ich stimme zu, dass er es brauchen könnte. Hab aber zumindest im Ausgangspost keine Info zur verwendeten Software für Streaming und Videoschnitt gefunden. Also ja mag sein, dass er davon großen Nutzen zieht, geklärt ist das aber noch nicht.HansDetflefAndi schrieb:Du brauchst NVENC, RX Karten haben so was nicht. Das gesamte coole produktive Featureset ist grün. War eigentlich nie anders.
DLSS wirkt den Speicherhunger doch viel mehr entgegen? RT benötigt viel VRAM.Cerebral_Amoebe schrieb:DLSS frisst beides VRAM.
tja ist dann trotzdem doof, wenn man es am PC spielen möchte. Die 3070 kränkelt btw. so langsam an ihren 8GB und die Rohleistung passt eigentlich noch. Ist sicherlich kein Weltuntergang und die Karte auch nicht mehr taufrisch, aber der 4070ti wird genau das gleiche Schicksal ereilen. Ich würde mich daher ganz einfach der Frage stellen, ob ich zum einen auch mal einen Regler etwas eher nach links schieben möchte und wie lange die Karte im Rechner werkeln soll. Der Abstand zur 4080 und den 7900er wird sich in Zukunft aber noch ändern, so viel ist sicher.Chesterfield schrieb:RAM schön und gut, aber wie du sagst @HansDetflefAndi bevor man da rein kommt ist der chip eh schon zu schwach. und nein Hogward lagacy ist kein Indiz, es ist einfach nur grottig für pc umgesetzt wenn man sieht wie die Konsolenversionen sind !!!
Deswegen bin ich dann bei der 6800 gelandet. In RT performt die 3070 etwas besser und ohne dann die 6800. Stand heute würde ich aber schlicht keine 3070 mehr kaufen. Die 3060ti tut es dann auch. Selbes "Problem" beim Speicher, aber immerhin ne gute Ecke günstiger.Chesterfield schrieb:Der Aufpreis zu Karten mit mehr RAM ist bei Nvidia zumindest immer echt saftig