Ryzen 5800 3DX oder 5700X oder Intel 13600 KF

Zwirbelkatz schrieb:
Du kannst probieren, eine RX6800xt in der Spannung zu optimieren. Womöglich klappt es mit deinem alten Netzteil. Eine RTX3080 12GB wäre ebenfalls zielführend, braucht jedoch noch mehr Strom.

BEIDE Karte packen WQHD mit Raytracing nur, falls FSR oder DLSS aktiv sind.
Zumindest sagt das dieser Benchmark:
https://www.computerbase.de/2022-02...mit_patch_15_wird_alles_noch_einmal_langsamer


Im Zweifelsfall wäre das bei einem 13400(f) wieder so. Wir werden es in einigen Monaten erleben.
Danke für die Tips. FSR und DLSS sind unbedingt notwendig - ja.

Die RT Leistung der RX6800xt überzeugt mich nicht. Die RTX 3000er habe krasse Leistungsspitzen und sind Gift für NTs. Darum bei der Grafikkarte die neueste Generation. Vermutlich eine RTX 4070 oder eine RX 7800.

Meinst Du noch andere Lastwechsel?

(Die RTX 4000er laufen doch gleichmäßig. Und die Prozzies von AMD laufen auch smooth beim Stromverbrauch. Intel ist mir da nicht transparent genug. Und man muss immer aufpassen, dass die Intel Prozzi nicht mal richtig Strom frisst (wenn man kein PPT setzt). (13400 behalte ich aber im Auge. Vielleicht begrenzt sich der selber :-) )).
 
Da du das ähnlich zu halten scheinst wie ich: Es wird erst aufgerüstet, wenn das alte System merklich schwächelt, dazu folgendes: Vergiss Sachen wie zukunftssicher oder Aufrüstfalle.

Bis du wirklich was neues brauchst, wird alles jetzige, auch AM5, kalter Kaffee von vorgestern sein.

Nimm was zum Kaufzeitpunkt das beste P/L bietet, wobei ich mindestens zum 8-Kerner rate, und es ist die nächsten 8-10 Jahre wieder Ruhe im Karton.

Das einzig wichtige sind: Ausreichend RAM (32 oder gleich 64GB) und genug Schnittstellen um weitere Laufwerke anschließen zu können, um nicht austauschen zu müssen, wenn die Kapazität knapp wird.

Wenn natürlich jedes Spiel unspielbar wird, und Surfen/Office/Multimedia unerträglich hakelt, sobald eine neue CPU/GPU erscheint, das aktuell beste und teuerste noch zu Lahm ist, du zu den Leuten gehörst, die sofort merken, wenn statt 144 nur noch 141 FPS gerendert werden, dann vergiss dieses Geschreibsel. ;-)
 
  • Gefällt mir
Reaktionen: Meduris, mannefix und [AUT]Rubberduck
mannefix schrieb:
Und man muss immer aufpassen, dass die Intel Prozzi nicht mal richtig Strom frisst
In Spielen hält sich das in Grenzen, insofern man nicht gerade zusätzlich übertaktet oder einen 12900KS oder 13900k einbaut. Selbst denen könnte man ein Verbrauchslimit von 80/100/120w verpassen.

mannefix schrieb:
Vermutlich eine RTX 4070 oder eine RX 7800.
Zukunftsmusik!
 
  • Gefällt mir
Reaktionen: mannefix
Corpus Delicti schrieb:
Da du das ähnlich zu halten scheinst wie ich: Es wird erst aufgerüstet, wenn das alte System merklich schwächelt, dazu folgendes: Vergiss Sachen wie zukunftssicher oder Aufrüstfalle.
Dito, sehe ich auch so. Nur bei dem 8 Kerner bin ich mir nicht 100 prozentig sicher. Der 5600X ist flott in Cyberpunk und geringer Stromverbrauch. Allerdings laufen die Konsolen alle auf 8 K (ernen).
Ergänzung ()

Baal Netbeck schrieb:
Der 5700X ist jetzt irgendwie übrig, aber für mich durchaus interessant als Vergleich zum X3D und ein anderer Freund hat auch angedeutet, dass er bald ein upgrade für seinen PC möchte. Da er nicht so viel spielt und auch kein Anno nimmt er die CPU eventuell.
macht es in anno einen bemerkbaren unterschied? ruckelt es mit dem 5700x?
 
Anno ruckelt von Zeit zu Zeit mit jeder Hardware.

In meinem Skript Benchmark, der das lategame testet, ist der Unterschied 42,5 zu 60,5 FPS.

Und bei dem Durchschnitt der langsamsten 1% der Frametimes sind es 16 zu 19,4(umgerechnet in FPS).
... Gleiche 64GB Ram auf 3400 CL14 und mit einer Radeon VII.

Spielt man einfach und versucht die Unterschiede zu fühlen ist es nicht so dramatisch. Auch der 5700X ist die meiste Zeit "flüssig". Im direkten Vergleich(andere Grafikkarte aber man ist eh CPU limitiert), ist der X3D etwas zackiger.

Ich glaube dass wichtigste ist es nicht unter 30FPS zu fallen. Mit einem Ryzen 1400X@3,9GHz spielt es sich grausig. Kamerasprünge stocken viel stärker, Texturen laden viel später (teilweise dauert es 20 s und mit dem X3D 0,3 s)
Und was am meisten stört ist das Bauen.
Plaziert man Gebäude, ist das mit dem 1400X super zäh und man verbaut sich ständig weil das Vorschaugebäude so verzögert dem Mauszeiger folgt.

Und dann ist da noch die maximal mögliche Spielgeschwindigkeit....um so mehr FPS um so schneller läuft die Spiel-Logik auf größter Beschleunigung....super wichtig, wenn man auf Lieferungen oder Forschung wartet.
 
  • Gefällt mir
Reaktionen: mannefix
mannefix schrieb:
Dito, sehe ich auch so. Nur bei dem 8 Kerner bin ich mir nicht 100 prozentig sicher. Der 5600X ist flott in Cyberpunk und geringer Stromverbrauch. Allerdings laufen die Konsolen alle auf 8 K (ernen).

Bedenk die lange Laufzeit.

Beim 6-Kerner würde ich den i5-13600 nehmen, wenn er erscheint. Die zusätzlich 8 E-Cores dürften die Lebensdauer merklich verlängern, zumal die Überarbeitung (mehr Cache, mehr Takt) deren Leistung deutlich verbessert zu haben scheint.

Später die CPU innerhalb derselben Generation aufrüsten (5600x->5900x) ist idR unsinnig. So sind die Intel-CPUs im Gebrauchtmarkt sehr preisstabil und die Alte wirst du nur schwer los. Da gleich das größere Modell kaufen und an der Mehrleistung freuen. (wird letztlich auch günstiger)

Ich hatte vorher einen i7-3770. Im Nachhinein war ich froh etwas mehr Geld fürs HyperThreading ausgegeben zu haben, gegenüber dem i5-3570. Hat die Lebensdauer der Plattform bis Mitte 2021 (ca. 9 Jahre) verlängert, sonst wäre wohl CPU-bedingt schon ab spätestens 2019 ein Wechsel fällig gewesen.

War am Ende immer noch brauchbar, mir ist nur der RAM ausgegangen. Wenn dann Ram-hungrige Sachen wie Anno 1800 dazukommen, war es doch deutlich spürbar, und zB Browser fressen auch immer mehr.
 
Corpus Delicti schrieb:
Beim 6-Kerner würde ich den i5-13600 nehmen, wenn er erscheint. Die zusätzlich 8 E-Cores dürften die Lebensdauer merklich verlängern, zumal die Überarbeitung (mehr Cache, mehr Takt) deren Leistung deutlich verbessert zu haben scheint.
Test des 13600 K (Notebookcheck) Zitat:
"Laut den technischen Daten bieten die Prozessoren weiterhin eine TDP von 125 Watt. Dabei bezieht man sich auf den PL1-Wert. Der PL2-Wert gibt an, wie viel Watt der Prozessor unter Volllast verbrauchen darf, wenn alle Voraussetzungen erfüllt sind. Sind alle Restriktionen im BIOS-aktiviert, so darf der Intel Core i9-13900K maximal 253 Watt verbrauchen. Beim Intel Core i5-13600K sind es immerhin noch 181 Watt. Werden alle Restriktionen deaktiviert, so gibt es keine direkte Einschränkung der Leistungsaufnahme, was im Umkehrschluss bedeutet, dass nun nur noch das Temperatur-Limit die CPU einbremsen kann. Somit ist es auch nicht verwunderlich, dass wir bei unseren Stresstests immer wieder die 100-°C-Marke knacken - mit dokumentierten 345 Watt beim Core i9-13900K und 240 Watt beim Core i5-13600K. Damit steigt die Leistungsaufnahme bei Verwendung einer guten Kühlung ordentlich."

181 Watt ist mir zuviel. Nehme ich eine Ryzen 5700x sind es max 76 Watt. Ich müsste also die 13600 per PPT begrenzen. Mit unklaren folgen für die E Cores...(noch keinen Test dazu gefunden).
(Anmerkung: Zu den Tests (auch von CB); Bitte CPU (immer auch) bei gleichem(!) Stromverbrauch testen.

Den 13600 sehe ich nicht als 6 Kerner. Auch wenn er 6 P Kerne hat. 14 Kerne...
 
  • Gefällt mir
Reaktionen: mannefix
Max007 schrieb:
Selbstverständlich der 5800X3D.
In 4K ist der 13900K gerade mal 1,3% schneller als der 5800X3D, in 1440p sind es auch nur 4,7%.

Wohlgemerkt mit einer 4090! Mit der 7900 XTX dürfte der Unterschied geringer ausfallen.

Zudem kostet der 5800X3D nur 364€.

Getestet wurden 53 Spiele.

https://www.techpowerup.com/review/rtx-4090-53-games-core-i9-13900k-vs-ryzen-7-5800x3d/2.html

Anhang anzeigen 1279969

Wie ist das möglich? Mir juckt es ja auch in den Fingern mit dem X3D aber mir fehlen irgendwie Vergleichsdaten zu den neuen CPUs. Auf https://www.cpubenchmark.net/compar...00X3D-vs-Intel-i5-13600KF-vs-Intel-i9-13900KF wirkt der Intel so deutlich überlegen was mich etwas stutzig machte.

Screenshot 2022-11-08 195117.png
 
  • Gefällt mir
Reaktionen: mannefix
Gut, bislang war das immer meine Basis CPUs zu vergleichen. :D Aber anscheinend nicht so aussagekräftig? Bei CB gibts keine Vergleiche zwischen X3D und den Ryzen 7000er oder 13 Intel Generation.

Vielleicht sind die Intel CPUs ja noch nicht so aufs Gaming optimiert was sich ja evt. noch ändern könnte?
 
  • Gefällt mir
Reaktionen: mannefix
In Anbetracht der Grafiken reicht eigentlich auch ein 5600(X). Kann sich keiner so richtig absetzen. Ob das den mehr als doppelten Preis rechtfertigt...hm. Ist alles auch sehr spielabhängig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mannefix
Corpus Delicti schrieb:
Das sind die berühmten "bis zu"-Werte, die nur in Cinebench oder PI-Berechnung erreicht werden. In der Realität schaut es, auch ohne die Leistungsaufnahme zu begrenzen, viel besser aus.

https://www.igorslab.de/intel-core-...ine-3-4-krone-fuer-den-letzten-monolithen/11/
Ja, aber die muss ich mit dem 550 Watt Netzteil ausschließen. Sonst raucht das NT wirklich ab. Da man die PL2 nicht speziell nur für Cinebench ausschalten kann, muss ich für alles begrenzen. Der (kommende) 13400 wird mit der PL2 von Natur aus niedriger liegen. Sind schon ganz geil die Intel, wenn Sie nur berechenbarer(!, :-)) wären. Gebe ich der CPU weniger Saft ist nicht ganz klar wie sich die E Cores verhalten (ist ja noch neu).
Hat man ein Netzteil mit hoher Lastverteilung und gutem Wirkungsgrad ist das Ding zum zocken sehr gut.
Der 13900 soll mit 45 Watt (Begrenzung) allerdings extrem gut performen. (Test hier bei CB). Nur leider 700 Flocken. Der 5700x kostet 250 Euro (und ich kann das NT behalten ;-)).
finley schrieb:
Wie ist das möglich? Mir juckt es ja auch in den Fingern mit dem X3D aber mir fehlen irgendwie Vergleichsdaten zu den neuen CPUs. Auf https://www.cpubenchmark.net/compar...00X3D-vs-Intel-i5-13600KF-vs-Intel-i9-13900KF wirkt der Intel so deutlich überlegen was mich etwas stutzig machte.

Anhang anzeigen 1281249
Da gebe ich Dir recht.

Würde Geld jedoch keine Rolle spielen, würde ich den 13900 nehmen und auf 45Watt PPT (und das reicht mir zum Zocken in QHD) laufen lassen.
Den 5800X kann man leider nicht begrenzen. Der zieht bis zu 142 W.
Aber beim doppelten Preis hört der Spaß auf.
Ergänzung ()

finley schrieb:
In Anbetracht der Grafiken reicht eigentlich auch ein 5600(X). Kann sich keiner so richtig absetzen. Ob das den mehr als doppelten Preis rechtfertigt...hm. Ist alles auch sehr spielabhängig.
Geht um Cyperpunk
 
Gerade wenn Anno etc gespielt wird UNBEDINGT die 720p Benchmarks bei den CPUs betrachten und die 4K Benchmarks liegen lassen, die machen dann bei CPU lastigen Spielen leider keinen Sinn.
Ergänzung ()

mannefix schrieb:
13900 nehmen und auf 45Watt PPT (und das reicht mir zum Zocken in QHD) laufen lassen.
Das macht allerdings NULL Sinn. Dann gleich nen kleineren Prozessor kaufen.
 
MehlstaubtheCat schrieb:
Was redest du denn da? Auf jeder bekannten Hardwarewebseite sind sofort Tests wenn die CPUs erscheinen!

Hier ist einer von Techport, das sind die Jungs von Hardware Unboxed. Die machen z.B gute Tests.
https://www.techspot.com/review/256...fcyXI1wvmN7jqq4NYaCbpIUOzxk8ZbDR1Hgr2PwKDLcmM

Das soll nur einer von ganz viele Beispielen sein!
Danke für die Tests, kannte ich noch nicht. Allerdings muss ich mal kritsch 2 Sachen anmerken:
Die CPUs werden mit unterschiedlichen Stromverbrauchen getestet. Mir wäre lieber, alle mal auf 65 Watt zu sehen. Bei Cyberpunk fehlen die Raytracing Werte völlig; oder habe ich was übersehen?

Da sind die CB Tests viel besser!

Ergänzung ()

Pisaro schrieb:
Gerade wenn Anno etc gespielt wird UNBEDINGT die 720p Benchmarks bei den CPUs betrachten und die 4K Benchmarks liegen lassen, die machen dann bei CPU lastigen Spielen leider keinen Sinn.
na ja, anno mit 40 fps ist auch ok, vom 5700x
 
Zuletzt bearbeitet:
Aber mal ehrlich. In 5-7 Jahren interessieren die 20% Mehrleistung doch auch nicht mehr wirklich viel oder seh ich das falsch? Es schiebt den Neukauf bestenfalls ein paar Monate auf ...
 
Zuletzt bearbeitet:
finley schrieb:
In 5-7 Jahren interessieren die 20% Mehrleistung doch auch nicht mehr wirklich viel
20% sind 20%. Ob in 2, 4, 7 oder 100 Jahren würde ich meinen :)
 
  • Gefällt mir
Reaktionen: mannefix und Baal Netbeck
Jedes Jahr schmelzen die Prozente dahin. 20% ist in 7 Jahren dann 2 oder 5% oder so. Mit jeder Generation werden es im Verhältnis zum Top Modell immer weniger.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mannefix
finley schrieb:
Mit jeder Generation werden es im Verhältnis zum Top Modell immer weniger.
Den Gedankengang verstehe ich nicht.

Sofern nicht irgendwelche Sicherheits Updates reinfunken, wird der Unterschied weiterhin 20% sein.

Natürlich ist der Druck aufzurüsten irgendwann ähnlich, aber dann hat man über Jahre von 20% mehr profitiert.
 
  • Gefällt mir
Reaktionen: mannefix und Pisaro
Zurück
Oben