Upgrade RTX2080

AwesomSTUFF schrieb:
Tbh. Ist das Argument vielleicht auf RT bezogen nachvollziehbar, im allgemeinen jedoch ziemlich blöd: natürlich vermisst man nicht, was man nicht kennt. Gerade bei so Technologien wie adaptive Sync, OLED Displays und damit einhergehendes HDR, DLSS oder FSR hat man da eigentlich ziemlich die Lampe aus, wenn man sich keinen eigenen Eindruck verschafft. Für mich waren die genannten Sachen mitunter ziemliche Augenöffner tbh obwohl ich sie vorher nicht hatte (und nicht vermisst hab) aber wenn Mama dann mal gesehen hat…
Ich jedenfalls würde inzwischen nie wieder einen Monitor ohne adaptive Sync oder mit LCD Panel kaufen - dazu ist der Unterschied halt zu eklatant.
Aber gut, muss jeder für sich entscheiden.
Es ist auch nur auf RT bezogen, bei anderen Sachen bin auch anders.
 
Celticon schrieb:
Das beste wäre wohl zusätzlich zu den 700 Euro noch weiteres Geld anzusparen und im Laufe des Jahres auf i5 13500 / 4070 (non ti) upgraden. Sorry, echt nicht böse gemeint aber deine jetzige CPU ist doch hoffnungslos veraltet.

Das ist eine große Übertreibung dass sein 8700K hoffnungslos veraltet ist. Da muss man sich nur die Gaming Benchmarks anschauen, auch gerne in der CPU-lastigen 1080p Auflösung, um zu sehen dass ein i7 8700K der analog zu einem i5 10600K ist, zwar ohne Frage keineswegs mehr ganz vorne dabei ist, aber durchaus noch in der Lage ist sehr gut spielbare average und, vor allem, 0.1% low FPS zu liefern.

Als Beispiel Gamersnexus, die auch CPUs der vorigen Generationen auch mit schnellem RAM mit XMP testen und die CPUs nicht wie andere Tester auf Stock Vorgaben bei RAM begrenzen und die CPUs mit einem langsamen DDR4 JEDEC Takt laufen lassen, wo dann die CPU Performance in Spielen leidet. Schneller RAM macht bei den 8700K und dem 10600K auch was her.

Hier z.B. Far Cry 6 welches ziemlich CPU bound ist.
10600Kgn.png

Getestet wurde mit einer 3090 Ti welche von der Leistung ca. der 4070 Ti entspricht. Hier sieht man, dass mit einem 8700K/10600K die GPU zwar natürlich nicht die avergae FPS der neuen Prozessoren liefern kann, aber in der Testsequenz durchaus auf 118 average und, vor allem, 73 bei den 0.1% low FPS kommt. Ein 5600X liefert hier 74 0.1% low FPS, ein 5800X 76.8, ein 12700K kommt mit den 0.1% low FPS auf dieselbe Werte wie der 10600K, in diesem Spiel in 1080p, auf 1440p sind die Unterschiede noch kleiner. Der 5800X ist aber doch nicht hoffnungslos veraltet, oder?

Es gibt durchaus auch Spiele wo es anders aussieht ist und die neueren CPUs spürbar bei den 0.1% low FPS gegenüber den alten zulegen, wie z.B. Total War: Warhammer 3:
10600KgnWH.png

Aber auch hier gibt ein 8700K mehr als genung average FPS um einen 165 Hz Monitor auch noch zu befeuern (be average FPS von 171.4, wie auch der 3700X) und 69.5 bei 0.1% low FPS ist nichts schlechtes, das muss einfach jeder für sich selbst entscheiden ob ihm da die 0.1% low FPS reichen oder nicht.

Ganz klar sind die neueren CPUs besser, aber hoffnungslos veraltet ist sein 8700K auch noch lange nicht. Nichts spricht dagegen, die GPU erst zu erwerben und mit der vorhandenen CPU zu nutzen, und irgendwann später, falls der Bedarf da ist, auch die CPU mitsamt Unterbau zu wechseln, um nicht alles auf einmal ausgeben zu müssen.
 
  • Gefällt mir
Reaktionen: Bobsel
Welche Karte wäre denn zu empfehlen?
XFX Merc319 oder andere?
 
Klever schrieb:
Das ist eine große Übertreibung dass sein 8700K hoffnungslos veraltet ist.

Haben VOR JAHREN(!!) extra wegen Anno einen 3700x geholt, insbesondere bei Kameraschwenks war es (zu) ruckelig mit dem in Einsatz befindlichen 8700k. Machte tatsächlich ein großer Unterschied aus, mehr als vorher angenommen. Selbst der ein oder andere Partikeleffekt wurde mit dem 8700k nicht mehr oder nur teilweise dargestellt, waren echt überrascht deswegen. Der 8700k war also schon vor gut 3,5 Jahren veraltet.

Jetzt haben wir 2023... sorry, nicht böse gemeint aber 2023 braucht man einen hoffnungslos veralteten 8700k nicht als gute Gaming CPU anzupreisen. Ich akzeptiere und lasse dir deine Meinung, teile sie aber ganz sicher nicht. Und dann schreibst du auch noch " große Übertreibung"...
Da nutzen auch gefühlt 50 Benchmarktabellen auf denen man in typischer Theoretikermanier besteht nichts.

Theorie ist eine Sache, praktisch verhält es sich leider, leider oft anders.
 
Celticon schrieb:
Haben VOR JAHREN(!!) extra wegen Anno einen 3700x geholt, insbesondere bei Kameraschwenks war es (zu) ruckelig mit dem in Einsatz befindlichen 8700k. Machte tatsächlich ein großer Unterschied aus, mehr als vorher angenommen. Selbst der ein oder andere Partikeleffekt wurde mit dem 8700k nicht mehr oder nur teilweise dargestellt, waren echt überrascht deswegen.
Ob ein Partikeleffekt dargestellt wird oder nicht während des Spiels, hat rein gar nichts mit der CPU zu tun.
Ein schlecht optimiertes Spiel als Messlatte heranzuziehen ist auch nicht gerade richtig.

Celticon schrieb:
Der 8700k war also schon vor gut 3,5 Jahren veraltet.
Indem man noch mehr Übertreibungen verwendet, wird es deswegen nicht wahrer.

Celticon schrieb:
hoffnungslos veralteten 8700k nicht als gute Gaming CPU anzupreisen. Ich akzeptiere und lasse dir deine Meinung, teile sie aber ganz sicher nicht. Und dann schreibst du auch noch " große Übertreibung"...
Da nutzen auch gefühlt 50 Benchmarktabellen auf denen man in typischer Theoretikermanier besteht nichts.
Das sind empirische Benchmarkdaten, wo ein 8700K/10600K dieselbe low FPS liefert je nach Spiel wie ein 5600X/5700X, ob es jemand da passt oder nicht (in anderen Spielen sind die auch dann vorne, aber der 8700K liefert immer noch mehr als spielbare FPS). Und gerade deswegen ist es auch eine große Übertreibung, den 8700K als komplett veraltet zu bezeichnen, oder keine korrekte Behauptung, such es dir aus. Denn da wird von dir dem Threadersteller eingeredet, seine CPU müsste dringend für eine neue Karte ausgetauscht werden, was gar nicht der Fall ist.
 
Celticon schrieb:
VOR JAHREN(!!) extra wegen Anno einen 3700x geholt, insbesondere bei Kameraschwenks war es (zu) ruckelig mit dem in Einsatz befindlichen 8700k.
Bei Anno vllt., ansonsten bist du mit dem 8700k in Games ein bisschen schneller
unterwegs oder gleichauf mit dem 3700x je nachdem auch mal ein bisschen langsamer.
Der i7 8700K ist immer noch eine gute Gaming CPU, welche gut eine RTX 3060Ti
oder RX 6700 XT versorgen kann.
 
Wozu würdet ihr eher raten, ne RTX4070ti oder ne 6950xt?
 
Was ist billiger?
 
RX 6950 XT.
Ich sehe die RTX 4070 Ti auf Grund des Geringen VRam (12GB) sehr kritisch.
Mindestens 900€ für eine GraKa die so schlecht ausgestattet ist geht gar nicht.
Aktuell gehen 12 GB natürlich voll in Ordnung aber in 1 - 2 Jahren schaut man dann genau
wie bei der RTX 3060ti, 3070/3070 Ti in die Röhre.
 
Letzte Frage,
RX6900 XT oder RX6950 XT.
Lohnt sich der Mehrpreis der 6950 oder frisst die nur mehr Strom?
Danke nochmals und Grüße
 
Nur mehr strom
 
Ich nutze aktuell (wg. der Preise) immer noch eine EVGA RTX 2080TI Kingpin.

Der Leistungszuwachs der Karte war bei jedem CPU Upgrade enorm (also wirklich spürbar),
zocke allerdings „nur“ in Full-HD 24,5" mit 360Hz.

Jedes CPU-Upgrade war der Karte mehr als zuträglich:
9900KS > 10900K > 11900K > 12900KS

Also wirklich unglaublich, was für ein Potenzial in der Karte steckt :daumen:

Denke schon das Dein 8700K ziemlich limitiert.
Klar in Full-HD macht das noch mehr aus als in Deiner Auflösung.
 
Also doch eher die 6950?
 
Wenn der Aufpreis dir egal ist, ja.
Die Meinungen hier diesbezüglich werden unterschiedlich bleiben,
von daher - up to you.
 
Klever schrieb:
Hier z.B. Far Cry 6 welches ziemlich CPU bound ist.
Also wenn man mal auf die, für die CPU wichtigen, Min FPS/lows schaut, ist der 5800X3D mit 98FPS zu einem 10600K mit 73FPS mal eben ein gutes Drittel schneller. Das ist schon ein deutlich spürbarer Sprung.
Bei Warhammer steht es 138FPS zu 69FPS. Ich finde das schon ziemlich gewaltig, dabei wird der 5800X3D demnächst wohl von den 7000X3D wieder deklassiert.

Vor allem ist bei den schwachen CPUs der Sprung von den "hohen" AVG FPS zu den Lows deutlich höher und damit ein Ruckeln/Stottern eher wahrnehmbar, als bei den neueren/schnelleren CPUs.

Also die Tabelle hier zu posten und sagen es gäbe keinen Unterschied, obwohl der gelb auf grau ziemlich eklatant ist, ist schon ein Ding.
 
Wenn ich mich so bei GH umsehe, finde ich erstmal mehr breit verfügbare 6950XT. Runterstellen kann man das Powertarget immer noch. Sind halt selektiertere Chips, die wohl durch die Zeit an Produktion weiter verfeinert werden konnten und damit mehr Spannung aushalten.
Sind letztendlich die gleichen Chips, nur hochgetaktet.
 
Hallo, ich nochmals, möchte aber nicht unbedingt einen neuen Thread aufmachen.
Momentan gibt es ja die Sapphire Radeon RX 7900 XT Nitro+ Vapor-X im Angebot.
Würde sich diese Karte lohnen oder zieht die doch zuviel Strom?
Habe das Netzteil RM850x

 
kann man machen wenn 800€ passen mir wäre es zu teuer und zuviel basis TBP von 300w
Bin eher der 200w maxed typ
 
Bobsel schrieb:
Momentan gibt es ja die Sapphire Radeon RX 7900 XT Nitro+ Vapor-X im Angebot.
Du meinst aber nicht etwas das „Angebot“ für 880€ bei MF oder? Finde ich viel zu teuer. Die auch sehr gute Pulse gibt es für 780€. 100€ Aufpreis wäre es mir nicht wert, zudem biste da schon ganz nah an der 7900xtx.
 
Zurück
Oben