von RX 6700 XT AUF RTX 4070 ODER 4070 TI

Fuchs36 schrieb:
Und wenn ich zur einen 2k Monitor greife? Reicht da die 4070 TI aus?
Ich hab in WQHD schon Auslasstungen von 8-12GB Einstellungen sind meistens immer auf Ultra
 
Zumindest reicht ne 4070ti für WQHD eher, als für 4k. Das ist mal klar.

In die Grabenkriegsdisskussion um den VRam mische ich mich jetzt nicht ein, weil das meistens sinnlose Zeitverschwendung ist und Argumente da beiderseits in der Regel stumpf ignoriert werden.
Für mich persönlich hab ich aber beschlossen für 4k keine Karte mehr zu kaufen, die unter 16gb Vram hat.
 
  • Gefällt mir
Reaktionen: SuperTuesday, Tobi...:D, ferris19 und 3 andere
Das ist das Problem mit der 4070Ti. Nur 12GB VRAM!
Deswegen sollte man wenn es eh nich eilt in einem halben Jahr nochmal den Markt checken.
 
Zum Thema Hogwarts..selbst mit der absolut schnellsten Karte am Markt kann man nicht sicher sein, dass es rund läuft.

Trotz der ordentlichen Frametimes hat Hogwarts Legacy jedoch ein ziemlich großes Problem beim Frame Pacing. Unabhängig von der Hardware, also auch auf einem Core i9-12900K und einer GeForce RTX 4090, hakt das Spiel immer mal wieder. Besonders extrem ist dies in Hogwarts bei aktiviertem Raytracing, wo es dann schon zu heftigen Stocken kommen kann. Dabei handelt es sich vermutlich nicht um Shader-Compile-Ruckler, vielmehr scheint das Spiel an diesen Stellen Daten nachzuladen. Das Phänomen tritt beispielsweise reproduzierbar auf, wenn der Teil des Schlosses oder die Etage gewechselt wird. je langsamer die Hardware, desto länger werden die Haker und desto häufiger treten diese auf.

Sorgenfrei ist man, wie CB schreibt, mit 16GB VRam also sicher nicht. Mal ganz davon abgesehen, dass den ganzen Karten darunter dafür sowieso die Leistung fehlt.

Mit meiner RX 6800 reicht es, trotz 16GB VRam, nicht mal für 1080p (ultra/Raytracing hoch 44,9/36,9)...aber hauptsache 16GB VRam...
 
  • Gefällt mir
Reaktionen: Pater_Erminold
DaHell63 schrieb:
Mit meiner RX 6800 reicht es, trotz 16GB VRam, nicht mal für 1080p (ultra/Raytracing hoch 44,9/36,9)...aber hauptsache 16GB VRam...
Dann stimmt aber mit deinem System etwas nicht, wenn CB im Test mit einer 6800 hier 62,2FPS schafft.
 
Chesterfield schrieb:
dieses Vram Bashing immer !!
es gab 730GT karten mit 4 GB die 8 mal langsamer waren damals eine GTX580 mit 1,5 Vram. und das in jeder Lebenslage !!!!
RAM schön und gut, aber wie du sagst @HansDetflefAndi bevor man da rein kommt ist der chip eh schon zu schwach. und nein Hogward lagacy ist kein Indiz, es ist einfach nur grottig für pc umgesetzt wenn man sieht wie die Konsolenversionen sind !!!
Sorry, das Argument ist hier vollkommen irrelevant. Nur weil Nvidia die 730GT zur Kundenverarsche mit 4GB ausgeliefert hat und die Karte deutlich langsamer war als eine 580 mit 1,5GB, ist das hier vollkommen belanglos.
Wir reden hier von ungefähr gleich leistungsfähigen Karten und da kann der VRAM schon den Ausschlag geben.
Wenn schon, dann bitte nicht Äpfel mit Birnen vergleichen.

Cunhell
 
  • Gefällt mir
Reaktionen: ferris19
@cunhell
gleich schnell ?? ok dann nehmen wir doch 6700XT vs 3060ti/3070. wo in welchem Szenario war die 6700XT speicherbedingt schneller ? ich meine realen Bedingungen. dass keiner mit solchen karten 4K AAA Titel in ultra spielt mal vorausgesetzt.
 
DannyA4 schrieb:
Dann stimmt aber mit deinem System etwas nicht, wenn CB im Test mit einer 6800 hier 62,2FPS schafft.
nö...und das ist nur Raytracing hoch
RX 6800.png

....darum geht es ja. Ohne Raytracing hat die RTX 4070TI, oder andere 12GB Karten, ja auch in 4K keine VRam Probleme.
 
Sofern Du von der Karte nicht erwartest, dass Du immer und jedes Spiel maxen kannst....ja.
Alleine der Effizienz wegen ist für Nvidia ganz einfach vorne.
Falls Du wirklich erst in 4-5 Monaten kaufen willst, kann es natürlich sein, dass die Preislage sich verändert hat und Du für das Geld eine RTX 4080 bekommst.
Festlegen würde ich mich aber da nicht...Nvidia/AMD und Intel sind immer für eine Überraschung gut....fragt sich halt nur negativ oder positiv.
 
Für WQHD mit Raytracing würde ich eine 4080 anvisieren, ohne RT reicht die 4070Ti.
RT und DLSS frisst beides VRAM.
 
Zuletzt bearbeitet:
Habe eine änliche Überlegung Hätte noch eine kaum genutzte 6900XT liegen. Überlege sie abzugeben, nutze selber eine RTX3080 und für 10-15% mehr Leistungs ist mir ein Umbau nicht Wert.
 
Chesterfield schrieb:
hier sieht man dass AMD anders mit VRAM umgeht als Nvidia. daher ist ein "quantitativer" Vergleich zw AMD/NVidia einfach nicht richtig


damals war es eben Full HD/ WQHD !!
Das ändert aber nichts daran, dass der Sprung von Full HD/WQHD -> 4K wesentlich größer ist als 720p -> 1080p und somit auch mehr Speicher benötigt wird.

Spar dir mal die ganzen Ausrufezeichen an jedem Satz.
 
  • Gefällt mir
Reaktionen: _roman_ und ferris19
Dango. schrieb:
Das ändert aber nichts daran, dass der Sprung von Full HD/WQHD -> 4K wesentlich größer ist als 720p -> 1080p und somit auch mehr Speicher benötigt wird.
Milchmädchenrechnung, weil damals war der Sprung vllt net so groß, aber der Zuwachs vom RAM eben auch nicht. heute reden wir von 4/8/16 GBytes Zuwachs an VRam bei Vergleichen.
Damals waren eben die Zuwächse in 512MB Schritten , welches sich aufs Wachstum der Auflösung proportional verhalten hat!!
"Verhältnismäßigkeit" heißt das Wort welches dir wohl gefehlt hat !! @Dango. ;)
 
Zuletzt bearbeitet:
HansDetflefAndi schrieb:
Du brauchst NVENC, RX Karten haben so was nicht. Das gesamte coole produktive Featureset ist grün. War eigentlich nie anders.
Naja ich stimme zu, dass er es brauchen könnte. Hab aber zumindest im Ausgangspost keine Info zur verwendeten Software für Streaming und Videoschnitt gefunden. Also ja mag sein, dass er davon großen Nutzen zieht, geklärt ist das aber noch nicht.

Cerebral_Amoebe schrieb:
DLSS frisst beides VRAM.
DLSS wirkt den Speicherhunger doch viel mehr entgegen? RT benötigt viel VRAM.
Chesterfield schrieb:
RAM schön und gut, aber wie du sagst @HansDetflefAndi bevor man da rein kommt ist der chip eh schon zu schwach. und nein Hogward lagacy ist kein Indiz, es ist einfach nur grottig für pc umgesetzt wenn man sieht wie die Konsolenversionen sind !!!
tja ist dann trotzdem doof, wenn man es am PC spielen möchte. Die 3070 kränkelt btw. so langsam an ihren 8GB und die Rohleistung passt eigentlich noch. Ist sicherlich kein Weltuntergang und die Karte auch nicht mehr taufrisch, aber der 4070ti wird genau das gleiche Schicksal ereilen. Ich würde mich daher ganz einfach der Frage stellen, ob ich zum einen auch mal einen Regler etwas eher nach links schieben möchte und wie lange die Karte im Rechner werkeln soll. Der Abstand zur 4080 und den 7900er wird sich in Zukunft aber noch ändern, so viel ist sicher.
 
  • Gefällt mir
Reaktionen: Cerebral_Amoebe
@Poati stimme dir da zu, das Problem wird jedoch mittelfristig dann auch bei den 16GB kommen. Ich verstehe was du meinst aber die dramatik ist Nichtwissen groß wie der shitstorm es wert ist. Ich kaufe beim selben Preis lieber mehr rohleistung und weniger RAM (3070 8GB) als 3060 12 gb mit weniger rohleistung und mehr RAM. Der Aufpreis zu Karten mit mehr RAM ist bei Nvidia zumindest immer echt saftig …
 
Chesterfield schrieb:
Der Aufpreis zu Karten mit mehr RAM ist bei Nvidia zumindest immer echt saftig
Deswegen bin ich dann bei der 6800 gelandet. In RT performt die 3070 etwas besser und ohne dann die 6800. Stand heute würde ich aber schlicht keine 3070 mehr kaufen. Die 3060ti tut es dann auch. Selbes "Problem" beim Speicher, aber immerhin ne gute Ecke günstiger.

Im Grunde bin ich aber total bei dir. Die Speicherproblematik ist nicht so dramatisch, wie sie oftmals dargestellt wird. Trotzdem ist es ein Punkt, den man bei der Kaufentscheidung beachten sollte. Viele nutzen ihre Karten immer länger und mit mehr VRAM kann man später zumindest die Texturen weiterhin aufdrehen, da dies quasi keine (zusätzliche) Rechenleistung benötigt. Naja und 16GB halten halt länger als 12 oder gar 8.
 
  • Gefällt mir
Reaktionen: Chesterfield und ferris19
Zurück
Oben