GTX 1070 ersetzen: 4070S oder 4070TiS?

G-Sync war lange meine Option, nicht AMD zu kaufen, weil mein WQHD halt dieses Feature hat. Doch ich wollte jetzt nur bisserl was für nen paar Jahre und da war die im Spiel:

https://www.alternate.de/XFX/Radeon-RX-7900-XT-SPEEDSTER-MERC-310-Grafikkarte/html/product/1906388

G-Sync vermisse ich nicht, kein Tearing und sie rennt wie Sau und hat Reserve mit gutem OC Potential. Und zum Beispiel habe ich in WoT zwei Karten, wo die GPU gerne 10,8GB zieht im HD Client auf Ultra. Und vielleicht wohnt ja bald auch ein WQHD bei Dir innerhalb der nächsten fünf Jahre.

Grüße
 
Zuletzt bearbeitet:
Juleru schrieb:
Das Problem ist halt, dass ich nicht weiß, ob mein Netzteil eine 4070TiS schafft
Dein Straight Power 11 650w ist kein Billo-Kracher und schafft eine 4070TiS locker, mach dir keine Sorgen.
 
  • Gefällt mir
Reaktionen: DJMadMax, Dandelion und ShowOff
Bei FullHD ist das egal. Da reicht auch ne RTX 4060.
 
  • Gefällt mir
Reaktionen: Superius
frames p. joule schrieb:
Falls du warten kannst, willst oder musst: Ich hab am Ende der 1070 noch was mit Lossless Scaling rausgeholt. 4070 aufwärts würde ich mit einem 1440p Monitor betreiben. 12 GB VRAM dürften bei deinen Spielen noch reichen.

Hm LS wurde dieses Jahr bei pcgh mal getestet und so berauschend fiel es nicht aus.
Außerdem kostet es auch Geld, auch wenn es "nur" 5€ sind.

https://www.pcgameshardware.de/Star...me-Generation-FSR-3-DLSS-Latenz-LSFG-1446068/

Die Latenzen bei LS schießen so dermaßen in die Höhe, das einen das flüssigere Bild auch nichts mehr bringt.
Außerdem sind die Artefakte je nach Game echt extrem.

Keine Ahnung ob man sich das freiwillig antun möchte.....
Ergänzung ()

Juleru schrieb:
Was ist die Alternative, wenn ich die neue Grafikkarte wieder 5 Jahre behalten möchte? Eine 4060Ti mit 8gb VRAM? 12GB reichen aktuell vollkommen, auch für 1440p, aber für wie lange?

Ist auch mein Gedanke. Gerade wenn HW länger genutzt werden soll, dann sollte man nicht am Vram sparen.

Ich zieh da gerne immer die RTX3070 8GB als Vergleich, die damals bei mir auch als Kauf im Raum stand.
Es ist dann aber die RX6800 geworden und die 16GB sind heute Gold wert und dadurch rennt sie der RTX3070 heute gnadenlos davon (wenn der VRAM zu eng wird).

Ich an deiner Stelle würde jetzt auch noch warten, die neuen GPU´s stehen vor der Tür.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck, danyundsahne und Superius
zivilist schrieb:
Bei FullHD ist das egal. Da reicht auch ne RTX 4060.
Sehe ich anders. Viele Spieletests bescheinigen der 4060 Riege zu wenig VRAM. Unter 12GB würd ich mir heut keine Karte mehr zulegen.
 
  • Gefällt mir
Reaktionen: Juleru, Baal Netbeck und DJMadMax
Juleru schrieb:
i9-9900k, Motherboard steht im ersten Post. Dazu 3xSSD/HDD, 2 Laufwerke, 2 Gehäuselüfter und ein CPU-Lüfter.
Wie hoch sind die Spannungsspitzen?
"Einfach mal probieren" ist halt auch nicht ganz ungefährlich, denn ich möchte mir nicht gleich die neue, teure GPU zerschießen und wenn's doch nicht läuft, kann ich sie auch nicht einfach zurückgeben.
Dazu gibts Netzteilrechner im Internet, das auszurechnen überlasse ich dir, mein Schätzwert hab ich dir gesagt.
Wenn das Netzteil zu schwach ist schaltet es ab, da wird nichts kaputt bei einem namhaften Hersteller.

Juleru schrieb:
In deiner Signatur steht, dass du eine um 1 Jahr jüngere Generation des i9, plus eine 4070S hast. Wie läuft's denn damit? Welche Spiele spielst du und wie viel fps bekommst du damit bei welchen Einstellungen/welcher Auflösung?
Eigentlich ganz gut, ich limitiere die meisten Spiele auf 60 oder 90FPS weil ich nicht mehr benötige bei Singleplayer Games (TLoU, HZD, BG3,..). Im Multiplayer Bereich limitiere ich auf 120FPS und da ist bei mir in HLL die CPU das Problem, das hängt aber einfach an der miesen Spieloptimierung, BF2042 läuft hingegen ganz geschmeidig.
 
Tendenziell würde ich auch auf die Vorstellungen auf der CES im Januar warten.
Die RX8000er könnten interessant werden wenn man keine 800€ ausgeben möchte.
Von der 4070S mit nur 12GB würde ich die Finger von lassen.

Eine 8700XT oder 8800XT soll 16GB haben und vermutlich grob 7900XT Leistung haben bei deutlich weniger Verbrauch und deutlich stärkerer RT Leistung.
Eventuell gibt es die für um die 600€.
Könnte eine sehr gute neue Midrange Empfehlung werden.

Wenn die 5070 wirklich auch wieder nur 12GB haben soll, dann ist das für mich eh ne Totgeburt. Und die 5070ti 16GB wird wieder deutlich teurer.

Also noch 6 Wochen Füße still halten und mal RTX50 und RX8000 Vorstellung abwarten.
 
  • Gefällt mir
Reaktionen: Superius und entengruetze
zivilist schrieb:
Bei FullHD ist das egal. Da reicht auch ne RTX 4060.
Einfach Nein.
Auch weil die GPU ja ne Weile was taugen soll und der TE ja auch sehr fordende Spiele genannt hat.
Da kann man keine 8GB GPUs mehr empfehlen.

Da soll ja kein LoL oder sonstige schwachbrüstige Games drauf gezockt werden...

Jede halbwegs seriöse Techseite empfiehlt keine 8GB Karte mehr für Spiele von heute und morgen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
entengruetze schrieb:
Hm LS wurde dieses Jahr bei pcgh mal getestet und so berauschend fiel es nicht aus.
Außerdem kostet es auch Geld, auch wenn es "nur" 5€ sind.

https://www.pcgameshardware.de/Star...me-Generation-FSR-3-DLSS-Latenz-LSFG-1446068/

Die Latenzen bei LS schießen so dermaßen in die Höhe, das einen das flüssigere Bild auch nichts mehr bringt.
Außerdem sind die Artefakte je nach Game echt extrem.

Keine Ahnung ob man sich das freiwillig antun möchte.....
Danke für den Link, ich habe es zuletzt auf der 4060 ti genutzt um das bodenlose Solar Crown von 30 auf 60 fps zu bringen und mir sind zumindest keine Latenzen aufgefallen (LSFG mit Reflex Ultra), wie ich sehe liegen laut PCGH nur 11-13ms zwischen an und aus, das deckt sich wohl mit meiner Wahrnehmung. Die Artefakte entstehen bei Rennspielen dann eher am Bildschirmrand also für mich auch nicht negativ.

Muss man schauen, welches Spiel wie reagiert. Eigentlich soll es ja 60fps auf 120 bringen. Dass das den GPU-Kauf nicht vollständig ersetzen kann sollte klar sein, halte das dennoch für ein Tool was man im Gürtel haben sollte. Gestern habe ich es ohne FG für SSAA in GRID (2019) genutzt (natives 1440p mit CSR auf 2160p gestellt, Spiel von 1920p auf 2160p skaliert).

Alles leicht offtopic, sorry.

danyundsahne schrieb:
Jede halbwegs seriöse Techseite empfiehlt keine 8GB Karte mehr für Spiele von heute und morgen.
Und trotzdem kann man ohne FOMO ganz wunderbar darauf zocken.
 
zivilist schrieb:
Bei FullHD ist das egal. Da reicht auch ne RTX 4060.

Nicht unbedingt, besonders bei der 8 GB Varinate muss man anscheinend die Details teils schon deutlich reduzieren bei grafisch aufwendigen Spielen, auch in FHD.
Auch wenn zB Stalker 2 noch nicht ganz rund läuft, sieht man hier sehr gut was bei zu wenig Vram passiert.
Gerade wenn man HW länger als ein zwei Jahre nutzen möchte, sollte das bei der Kaufentscheidung mit einfließen.

Screenshot 2024-11-28 091731.png
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Juleru schrieb:
Weißt du, ob es die "Heatspot"-Probleme der normalen 4070 von MSI auch noch immer bei der 4070S/4070TiS gibt?
Was meinst du damit? Gibt es die Probleme bei ALLEN 4070 von MSI?
Das ist mir neu. Hast du vielleicht eine Quelle für mich?
 
Juleru schrieb:
Vielleicht bei der 4060, aber ich bezweifle stark, dass ein 4070 Modell (egal, ob "Super" oder "Ti Super") in 2 Jahren praktisch obsolet sein wird und die fps so stark einbrechen werden, dass ich über einen Neukauf nachdenken muss. Ansonsten kann man ja gleich argumentieren, dass eine 4080 oder 4090 so viel besser für die Zukunft wäre.
Ich meinte wenn der VRAM nicht ausreicht.
 
danyundsahne schrieb:
Von der 4070S mit nur 12GB würde ich die Finger von lassen.
Er spielt in Full HD, macht euch doch nicht alle ins Höschen ;-)
Bis die 12 GB zu wenig sind ist die Grundperformance der Karte das größere Problem als der VRAM Ausbau.
 
  • Gefällt mir
Reaktionen: DaHell63 und frames p. joule
grand_sniper schrieb:
Naja, dann kauf die kleine 4070 und denk an uns in ca. 2 Jahren, wenn das neue Spiel in den FPS Keller geht.
Finde solche Aussagen wirklich richtig schlimm. FOMO ist sowieso schon dämlich und du trägst hier aktiv dazu bei, indem (nicht nur) du Upselling für Nvidia betreibst. "Dann denk an deine Armen Kinder, wenn du stirbst und diese Lebensversicherung jetzt nicht abschließt!" Wie wärs mit "Dann kauf die große Karte und denk an uns in 2 Jahren, wenn du 1000€ verplempert hast ohne dass du die je sinnvoll für ein Spiel hast einsetzen können"

Die richtige Einstellung ist, vernünftig auf Sicht zu fliegen, sich an Rahmenbedingungen anzupassen, und wenn man es irgendwann nicht mehr ertragen kann, die Texturen auf High (oder, GOTT BEWAHRE, auf Medium) zu stellen, dann verkauft man die alte Karte und kauft sich eine neue. Wir reden hier von wenigen Hundert Euro, die bei niemandem existentiell bedrohlich werden sollten.
 
  • Gefällt mir
Reaktionen: chrismoto und coxon
PeacemakerAT schrieb:
Dazu gibts Netzteilrechner im Internet
...die bitte zu meiden sind :)

Maximale CPU-Last + maximale GPU-Last + 100 Watt Overhead.

Beliebige AMD X3D-CPU = ~150 Watt
4070 Ti Super = ~ 285 Watt
Overhead = ~100 Watt

Macht insgesamt 535 Watt. Wird man sich ein solches Netzteil für einen derartigen PC kaufen? Nein! Man kauft sich gewiss mindestens ein 650 bis 750 Watt-Netzteil und ist mehr als auf der sicheren Seite. Dafür braucht man keinen ominösen Netzteilrechner.

Wenn ich natürlich be quiet! frage, dann ist es klar, dass die mir lieber ihre ganz dicken und deutlich teureren Boliden verkaufen wollen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck, frames p. joule und coxon
DJMadMax schrieb:
Wenn ich natürlich be quiet! frage, dann ist es klar, dass die mir lieber ihre ganz dicken und deutlich teureren Boliden verkaufen wollen.
Die möchten doch nur, dass du safe bist. :heilig:

Spaß bei Seite. Das ist das einzige was mir am bq Marketing nicht gefällt.
 
  • Gefällt mir
Reaktionen: DJMadMax
entengruetze schrieb:
Nicht unbedingt, besonders bei der 8 GB Varinate muss man anscheinend die Details teils schon deutlich reduzieren bei grafisch aufwendigen Spielen, auch in FHD.
Auch wenn zB Stalker 2 noch nicht ganz rund läuft, sieht man hier sehr gut was bei zu wenig Vram passiert.
Gerade wenn man HW länger als ein zwei Jahre nutzen möchte, sollte das bei der Kaufentscheidung mit einfließen.
Andere Tester andere Ergebnisse.
Gamegpu...
GGPU VRam.jpg
...oder Techpowerup
TPU VRam.jpgTPU.jpg

Es kan ja jeder spielen wie er will, aber persönlich sehe ich keinen Vorteil nativ zu spielen
1080p nativ
1080p.png

Und so spielt meine Frau mit einer RTX 4070Ti...~halbe FPS vom 165Hz Moni.
1440p.png

12GB in 1080p und es wird über VRam diskutiert
 
  • Gefällt mir
Reaktionen: Cyberpunk61
DJMadMax schrieb:
Dafür braucht man keinen ominösen Netzteilrechner.
Sowas gibts auch von neutralen Seiten und wenn man nicht jeden Tag mit Hardware zu tun hat ist das kein schlechter Weg. Sich vom Hersteller beraten lassen macht natürlich viel Sinn, da endet man wie bei nVidia sofort bei einer RTX 4090, weil darunter kann man nicht vernünftig zocken :daumen:
 
  • Gefällt mir
Reaktionen: DaHell63 und DJMadMax
frames p. joule schrieb:
Die richtige Einstellung ist, vernünftig auf Sicht zu fliegen, sich an Rahmenbedingungen anzupassen, und wenn man es irgendwann nicht mehr ertragen kann, die Texturen auf High (oder, GOTT BEWAHRE, auf Medium) zu stellen, dann verkauft man die alte Karte und kauft sich eine neue
Sag doch nicht sowas...ohne max geht es doch heute nichts mehr.
 
PeacemakerAT schrieb:
Er spielt in Full HD, macht euch doch nicht alle ins Höschen ;-)
Bis die 12 GB zu wenig sind ist die Grundperformance der Karte das größere Problem als der VRAM Ausbau.
Klar, wenn du die Karte ein paar Jahre nutzen magst wirds natürlich sparsamer mit dem VRAM Verbrauch in Zukunft :freak:
Genauso wie die Aussagen 8gb reicht, selbst in FHD. Nein tut es nicht. Und das schon bei vielen Games.
Aber jedem das Seine...

Neu würde ich halt keine 600€ für Nvidias Speicherkrüppel ausgeben. Das wird auch die kommende 5070 treffen.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Zurück
Oben