Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Tbh. Ist das Argument vielleicht auf RT bezogen nachvollziehbar, im allgemeinen jedoch ziemlich blöd: natürlich vermisst man nicht, was man nicht kennt. Gerade bei so Technologien wie adaptive Sync, OLED Displays und damit einhergehendes HDR, DLSS oder FSR hat man da eigentlich ziemlich die Lampe aus, wenn man sich keinen eigenen Eindruck verschafft. Für mich waren die genannten Sachen mitunter ziemliche Augenöffner tbh obwohl ich sie vorher nicht hatte (und nicht vermisst hab) aber wenn Mama dann mal gesehen hat…
Ich jedenfalls würde inzwischen nie wieder einen Monitor ohne adaptive Sync oder mit LCD Panel kaufen - dazu ist der Unterschied halt zu eklatant.
Aber gut, muss jeder für sich entscheiden.
Das beste wäre wohl zusätzlich zu den 700 Euro noch weiteres Geld anzusparen und im Laufe des Jahres auf i5 13500 / 4070 (non ti) upgraden. Sorry, echt nicht böse gemeint aber deine jetzige CPU ist doch hoffnungslos veraltet.
Das ist eine große Übertreibung dass sein 8700K hoffnungslos veraltet ist. Da muss man sich nur die Gaming Benchmarks anschauen, auch gerne in der CPU-lastigen 1080p Auflösung, um zu sehen dass ein i7 8700K der analog zu einem i5 10600K ist, zwar ohne Frage keineswegs mehr ganz vorne dabei ist, aber durchaus noch in der Lage ist sehr gut spielbare average und, vor allem, 0.1% low FPS zu liefern.
Als Beispiel Gamersnexus, die auch CPUs der vorigen Generationen auch mit schnellem RAM mit XMP testen und die CPUs nicht wie andere Tester auf Stock Vorgaben bei RAM begrenzen und die CPUs mit einem langsamen DDR4 JEDEC Takt laufen lassen, wo dann die CPU Performance in Spielen leidet. Schneller RAM macht bei den 8700K und dem 10600K auch was her.
Hier z.B. Far Cry 6 welches ziemlich CPU bound ist.
Getestet wurde mit einer 3090 Ti welche von der Leistung ca. der 4070 Ti entspricht. Hier sieht man, dass mit einem 8700K/10600K die GPU zwar natürlich nicht die avergae FPS der neuen Prozessoren liefern kann, aber in der Testsequenz durchaus auf 118 average und, vor allem, 73 bei den 0.1% low FPS kommt. Ein 5600X liefert hier 74 0.1% low FPS, ein 5800X 76.8, ein 12700K kommt mit den 0.1% low FPS auf dieselbe Werte wie der 10600K, in diesem Spiel in 1080p, auf 1440p sind die Unterschiede noch kleiner. Der 5800X ist aber doch nicht hoffnungslos veraltet, oder?
Es gibt durchaus auch Spiele wo es anders aussieht ist und die neueren CPUs spürbar bei den 0.1% low FPS gegenüber den alten zulegen, wie z.B. Total War: Warhammer 3:
Aber auch hier gibt ein 8700K mehr als genung average FPS um einen 165 Hz Monitor auch noch zu befeuern (be average FPS von 171.4, wie auch der 3700X) und 69.5 bei 0.1% low FPS ist nichts schlechtes, das muss einfach jeder für sich selbst entscheiden ob ihm da die 0.1% low FPS reichen oder nicht.
Ganz klar sind die neueren CPUs besser, aber hoffnungslos veraltet ist sein 8700K auch noch lange nicht. Nichts spricht dagegen, die GPU erst zu erwerben und mit der vorhandenen CPU zu nutzen, und irgendwann später, falls der Bedarf da ist, auch die CPU mitsamt Unterbau zu wechseln, um nicht alles auf einmal ausgeben zu müssen.
Haben VOR JAHREN(!!) extra wegen Anno einen 3700x geholt, insbesondere bei Kameraschwenks war es (zu) ruckelig mit dem in Einsatz befindlichen 8700k. Machte tatsächlich ein großer Unterschied aus, mehr als vorher angenommen. Selbst der ein oder andere Partikeleffekt wurde mit dem 8700k nicht mehr oder nur teilweise dargestellt, waren echt überrascht deswegen. Der 8700k war also schon vor gut 3,5 Jahren veraltet.
Jetzt haben wir 2023... sorry, nicht böse gemeint aber 2023 braucht man einen hoffnungslos veralteten 8700k nicht als gute Gaming CPU anzupreisen. Ich akzeptiere und lasse dir deine Meinung, teile sie aber ganz sicher nicht. Und dann schreibst du auch noch " große Übertreibung"...
Da nutzen auch gefühlt 50 Benchmarktabellen auf denen man in typischer Theoretikermanier besteht nichts.
Theorie ist eine Sache, praktisch verhält es sich leider, leider oft anders.
Haben VOR JAHREN(!!) extra wegen Anno einen 3700x geholt, insbesondere bei Kameraschwenks war es (zu) ruckelig mit dem in Einsatz befindlichen 8700k. Machte tatsächlich ein großer Unterschied aus, mehr als vorher angenommen. Selbst der ein oder andere Partikeleffekt wurde mit dem 8700k nicht mehr oder nur teilweise dargestellt, waren echt überrascht deswegen.
Ob ein Partikeleffekt dargestellt wird oder nicht während des Spiels, hat rein gar nichts mit der CPU zu tun.
Ein schlecht optimiertes Spiel als Messlatte heranzuziehen ist auch nicht gerade richtig.
Celticon schrieb:
Der 8700k war also schon vor gut 3,5 Jahren veraltet.
Indem man noch mehr Übertreibungen verwendet, wird es deswegen nicht wahrer.
Celticon schrieb:
hoffnungslos veralteten 8700k nicht als gute Gaming CPU anzupreisen. Ich akzeptiere und lasse dir deine Meinung, teile sie aber ganz sicher nicht. Und dann schreibst du auch noch " große Übertreibung"...
Da nutzen auch gefühlt 50 Benchmarktabellen auf denen man in typischer Theoretikermanier besteht nichts.
Das sind empirische Benchmarkdaten, wo ein 8700K/10600K dieselbe low FPS liefert je nach Spiel wie ein 5600X/5700X, ob es jemand da passt oder nicht (in anderen Spielen sind die auch dann vorne, aber der 8700K liefert immer noch mehr als spielbare FPS). Und gerade deswegen ist es auch eine große Übertreibung, den 8700K als komplett veraltet zu bezeichnen, oder keine korrekte Behauptung, such es dir aus. Denn da wird von dir dem Threadersteller eingeredet, seine CPU müsste dringend für eine neue Karte ausgetauscht werden, was gar nicht der Fall ist.
Bei Anno vllt., ansonsten bist du mit dem 8700k in Games ein bisschen schneller
unterwegs oder gleichauf mit dem 3700x je nachdem auch mal ein bisschen langsamer.
Der i7 8700K ist immer noch eine gute Gaming CPU, welche gut eine RTX 3060Ti
oder RX 6700 XT versorgen kann.
RX 6950 XT.
Ich sehe die RTX 4070 Ti auf Grund des Geringen VRam (12GB) sehr kritisch.
Mindestens 900€ für eine GraKa die so schlecht ausgestattet ist geht gar nicht.
Aktuell gehen 12 GB natürlich voll in Ordnung aber in 1 - 2 Jahren schaut man dann genau
wie bei der RTX 3060ti, 3070/3070 Ti in die Röhre.
Also wenn man mal auf die, für die CPU wichtigen, Min FPS/lows schaut, ist der 5800X3D mit 98FPS zu einem 10600K mit 73FPS mal eben ein gutes Drittel schneller. Das ist schon ein deutlich spürbarer Sprung.
Bei Warhammer steht es 138FPS zu 69FPS. Ich finde das schon ziemlich gewaltig, dabei wird der 5800X3D demnächst wohl von den 7000X3D wieder deklassiert.
Vor allem ist bei den schwachen CPUs der Sprung von den "hohen" AVG FPS zu den Lows deutlich höher und damit ein Ruckeln/Stottern eher wahrnehmbar, als bei den neueren/schnelleren CPUs.
Also die Tabelle hier zu posten und sagen es gäbe keinen Unterschied, obwohl der gelb auf grau ziemlich eklatant ist, ist schon ein Ding.
Wenn ich mich so bei GH umsehe, finde ich erstmal mehr breit verfügbare 6950XT. Runterstellen kann man das Powertarget immer noch. Sind halt selektiertere Chips, die wohl durch die Zeit an Produktion weiter verfeinert werden konnten und damit mehr Spannung aushalten.
Sind letztendlich die gleichen Chips, nur hochgetaktet.
Hallo, ich nochmals, möchte aber nicht unbedingt einen neuen Thread aufmachen.
Momentan gibt es ja die Sapphire Radeon RX 7900 XT Nitro+ Vapor-X im Angebot.
Würde sich diese Karte lohnen oder zieht die doch zuviel Strom?
Habe das Netzteil RM850x
Du meinst aber nicht etwas das „Angebot“ für 880€ bei MF oder? Finde ich viel zu teuer. Die auch sehr gute Pulse gibt es für 780€. 100€ Aufpreis wäre es mir nicht wert, zudem biste da schon ganz nah an der 7900xtx.