News 3D V-Cache gegen 6 GHz: 7950X3D oder i9-13900K(S), wer ist euer Favorit?

WebBeat84 schrieb:
Sag mir EIN Spiel, dass volle 16 Kerne Nutzt
Naja es müssen ja nicht 8 oder 16 Kerne gleichzeitig genutzt werden aber die benutzten Threads bei spielen beißen sich an Kerne ja nicht fest sondern springen von Kern zu Kern was die dann wiederum kühler hält und bei mehr Kernen könnte doch der CPU Kühler bleiben oder ?

Wobei bei Intel es ja 8 grosse und 16 kleine Kerne sind wie weit die kleinen mitbenutzt werden kann ich nicht sagen aber wenn auf die die Hintergrund Tasks fallen wurden wäre mehr Leistung fur das Spiel
 
Piecemaker schrieb:
Ja, ich zeige hier explizit nur Bilder von 4k Performance, denn ich glaube das jemand der sich eine 2500€ GPU aka RTX 4090 leistet, nicht unbedingt in 1440p oder gar 1080p spielen wird.
Dann macht jemand DLSS an und schon bist du wieder auf mindestens 1440p runter^^
Piecemaker schrieb:
In die AM5 Plattform zu investieren, könnte sich lohnen weil man in Zukunft dann von Ryzen 7000 auf Ryzen 8000 upgraden kann?
Oder auf Ryzen 9000, je nachdem ob einem der Sprung mit 8000 reicht.

Anhand der bisherigen Modelle gehe ich mal davon aus, dass dem Nutzer auch MC Performance wichtig ist, und da könnten mit Zen5 bereits die Kernzahlen steigen.

Es ging mir aber mehr allgemein um die Aussage, dass man ohne PCIe und RAM Veränderungen keine 20% von einem reinen CPU Wechsel bekommen könnte, wer zu Release des 5950X bereits eine High-End GPU besessen hat, wird auch dort die Mehrleistung ggü dem 3900 gespürt haben und da hat sich auch nur die CPU verändert.
 
  • Gefällt mir
Reaktionen: bad_sign
Nur zum zocken weder der 13900k oder der 7950X3D. Da spart man lieber mehrere 100€ an der CPU und steckt die in die GPU. Am CPU Limit läuft eh nichts.

Aber wenn man insgesamt für einen PC dazwischen die Wahl hat kommt bei mir nur der 13900k infrage. Und zwar aus zwei Gründen:

1. Der 13900k hat echten Herstellervalidierten ECC support mit W680 boards. AMD hatte das auf AM4 nur inoffiziell und auf AM5 bis jetzt gar nicht. Gibt kein Board das ECC unterstützt (echtes ECC nicht DDR5 Marketing ECC). Das ist absolutes No-Go für mich

2. AMD und Nvidia haben immernoch kein vollständiges quicksync equivalent in ihren videodecodern. Da wird nur 4:2:0 und 4:4:4 unterstützt, aber nicht 4:2:2. Dumm nur dass das aktuell das Aufnahmeformat aller Kamerahersteller ist. Beim Videoediting kann der 13900k also geschmeidig still liegen und die iGPU decoden lassen, während die AMD CPU damit überlastet wird schon das Material flüssig abzuspielen
 
HyperSnap schrieb:
Ach wie ist Intel nun schon wieder Tot?
Immer diese Sargnägel ^^
Vom Aktienwert her sind sie zumindest schwer getroffen.
26,40$ Intel
81,52$ AMD

Gut Nvidia hat noch mehr, aber um die geht's nicht.
Ergänzung ()

Dome87 schrieb:
Bei AMD muss man auch noch immer frickeln. Ständig muss man auf neue AGESAs warten, weil irgendwas zickt. Dann bricht plötzlich die Performance ein und war mit älterem BIOS besser und was weiß ich nicht was alles. Der IDLE-Verbrauch passt oft nicht ohne manuelles Eingreifen und es gibt ständig neue Chipsatz -Treiber...
.
Also ich habe keine Probleme mit meinem 5600 auf meinem Gigabyte aorus m b450.
Einmal nen neues BIOS drauf und es läuft.
Nur doof, dass das Board echt nicht so vielen 3200er RAM unterstützt. Da hätte ich mich besser informieren sollen damals (2019) aber gut, läuft der halt im Standardtakt.
Mal kucken ob ich irgendwann auf zwei 16gb Sticks wechsle. ich warte aber noch auf den passenden RAM im luxx.
 
Zuletzt bearbeitet:
edenjung schrieb:
Nur doof, dass das Board echt nicht so vielen 3200er RAM unterstützt.
Woran machst du das fest, an der QVL? Seit der Controller in der CPU verantwortlich ist, ist die doch eher obsolet. Mein 5900X auf einem X470 läuft mit Ballistix 3000 CL15 RAM auf 3600 CL16. Die QVL habe ich einfach ignoriert :).
 
isyyy schrieb:
Definitiv der 13900KS,
der 7950X3D schaltet den kompletten 2ten Kluster beim Gaming ab. Ist also nur ein 8 Core....
Und wenn man manuell das Spiel aus der XBOX App entfernt sodass alle 16 Kerne benutzt werden und im Spiel ist bricht die Leistung komplett zusammen und im Spielen ist der Chip dann schlechter als ein normaler 7950X.

Der 13900KS ist so hart Selektiert, da muss man einfach nur -150mv Offset setzten und die CPU ist wieder sehr effizient.

Ich mein wer ausschließlich Singleplayer Games zockt kann ja gerne zum AMD Chip greifen aber dann kann man auch einfach einen 5800X3D holen.....
aber in allen Multiplayer Online Spielen hat der 13900KS bessere 1% FPS werte.
Und wer ein bisschen Ahnung von Multiplayer Spielen hat, weiß das es nicht auf die Durchschnittliche FPS werte ankommt, sondern auf die "dipps".

Intel löst das Scheduling durch Hardware auf dem Chip, AMD schaut in der XBOX app ob es sich um ein spiel
handelt, und schaltet den 2te Kluster einfach aus. Das ist keine Kunst sondern verarsche am Endkunden.

Man kauft eine 8 Core Gaming Cpu die auf dem Desktop 16 Kerne hat aber sobald man im Spiel ist nur 8.
Ähmm ja.....

Selten so einen Schwachsinn gelesen. Informiere dich bevor du etwas Postest und setze deine Rosarote Intel Brille ab.
 
Taxxor schrieb:
Eben, bei Intel kannst du einen K nehmen und hast keinen Nachteil dadurch, sparst aber 170€.
Bei AMD sparst du auch wenn du den X statt dem X3D nimmst, verlierst aber 20% Spieleleistung.
Ja in 720p verliere ich 20% nur wird kaum jemand so eine CPU kaufen um in 720p zu spielen. In WQHD oder UWQHD oder 4K wird der Unterschied doch nur noch messbar sein zwischen X3D und X.
Ich weiß es muss in 720p getestet werden.
Aber wenn ich zocke brauche ich eine CPU die schnell genug ist um nicht dir GPU auszubremsen.
 
Piecemaker schrieb:
Es ging ihm aber um von 1700 auf 3900 auf 5950X. Hier ändert sich nicht nur der Chipsatz, sondern auch die Features.
Die Features sind egal, RAM ist ein Mittel um CPU Leistung zu steigern und nur auf die kommt es an. PCIe 3, 4 oder 5 hat fürs Gaming keinerlei Relevanz.

Und keine Sorge, die CPU Leistung kommt auch in 4K an, auch in 16K kommt sie an.

Ich habe mehrere Games, Stalker an manchen Stellen mit 40 FPS CPU Limit, RimWorld häufig deutlich unter 20 FPS und Cosmoteer mit großem Schiffen geht auch in die 20er (hier gabs aber einige Performance patches, seit meine letzten run). Ich könnte ohne Probs auch 200% mehr CPU Leistung umsetzen^^
Anno ist endlich fertig gepatcht, ich denke da fange ich auch bald wieder eine Welt an, da geht auch was mit neuen CPUs
Ergänzung ()

phanter schrieb:
1. Der 13900k hat echten Herstellervalidierten ECC support mit W680 boards. AMD hatte das auf AM4 nur inoffiziell und auf AM5 bis jetzt gar nicht. Gibt kein Board das ECC unterstützt (echtes ECC nicht DDR5 Marketing ECC). Das ist absolutes No-Go für mich
AM5 Asus Boards können ECC, aber nur diese :(
 
Zuletzt bearbeitet:
mae1cum77 schrieb:
Woran machst du das fest, an der QVL? Seit der Controller in der CPU verantwortlich ist, ist die doch eher obsolet. Mein 5900X auf einem X470 läuft mit Ballistix 3000 CL15 RAM auf 3600 CL16. Die QVL habe ich einfach ignoriert :).
An der Kompatiblitätsliste.
Und daran, dass mein System abstürzt wenn ich XMP einstelle.
Klar könnte ich das ganze händisch übertakten, aber da traue ich mich irgendwie nicht ran.
Schon komisch, sowohl bei meiner alten CPU als auch bei meiner 6900XT Toxic bin ich nicht zimperlich was OC (Cpu) und UV (GPU) angeht. aber beim Ram bin ich übervorsichtig.
 
Da man doch normalerweise immer im GPU Limit ist verstehe ich nicht warum man so viel Geld für eine CPU ausgeben sollte!?
Man kauft doch seine GPU nach der Auflösung und Einstellungen in denen man spielt und dann reicht doch fast jede CPU.
Sehe ich das falsch? Gewinne ich an Leistung wenn ich meinen ryzen 2600 in Kombination mit einer Vega 64 aufrüste, obwohl ich meistens 99% GPU auslastung habe?
 
Für Gaming ganz klar ein X3D, fast egal welcher. Würde ich nur davon abhängig machen ob Neukauf oder Umsteiger. Bei Neuanschaffung ganz klar der 7800X3D und wer eben AM4 hat > 5800X3D. Mir reicht mein System jetzt über 3-4 Jahre hinweg und ich überspringe dann einfach 1-2 Generationen an CPU's.
 
ThePlayer schrieb:
Ich weiß es muss in 720p getestet werden.
Dient doch nur dazu ein GPU-Limit möglichst auszuschließen. Toms Hardware hat mit X3D und der 4090 auch in 1080p und 1440p getestet. Bei Spielen die gut mit dem Cache skalieren und eher notorisch im CPU-Limit sind (Far Cry 6, F1 2021 und MSFS z.B.) setzt sich der X3D auch in 1440p noch sehr deutlich vom normalen X ab.
https://www.tomshardware.com/reviews/amd-ryzen-9-7950x3d-cpu-review/6
edenjung schrieb:
Und daran, dass mein System abstürzt wenn ich XMP einstelle.
Meist reicht es schon, die Spannung leicht zu erhöhen. Mein Ballistix braucht für 3600 CL16 1,4V und wird handwarm dabei.

Letztlich stellt das Board nur die Anbindung bereit, der Controller der CPU entscheidet, was geht. Die QVL ist völlig überholt, seit der Controller nicht mehr in der Southbridge sitzt ;). Frage ist, mit welcher CPU wurden die Listen erstellt und inwieweit werden die gepflegt? Selbst mein 2700X hat auf dem Board 3200 CL16 geschafft.
Austronaut schrieb:
Da man doch normalerweise immer im GPU Limit ist verstehe ich nicht warum man so viel Geld für eine CPU ausgeben sollte!?
Ist man das? Gerade Open World Titel sind zum Großteil CPU-limitiert, sobald größere NPC-Ansammlungen auftauchen. Dazu sollte man die Min-FPS nicht vernachlässigen, je höher die ausfallen, desto besser sind die Frametimes. War erstaunt, was ein Wechsel vom 2700X zum 5900X aus einer GTX 1070 gekitzelt hat.
 
  • Gefällt mir
Reaktionen: Whetstone, edenjung und Laphonso
Austronaut schrieb:
Man kauft doch seine GPU nach der Auflösung und Einstellungen in denen man spielt und dann reicht doch fast jede CPU.
Sehe ich das falsch? Gewinne ich an Leistung wenn ich meinen ryzen 2600 in Kombination mit einer Vega 64 aufrüste, obwohl ich meistens 99% GPU auslastung habe?
Das hängt., wie immer, an einzelnen Usecases und Deinen Spieleszenarien.

Ein Ryzen 2600 macht mit einer 7900er RDNA3 oder einer RTX4000er hier nicht so viel Sinn, weil diese CPU schlicht zu langsam ist, um die genannten neueren GPUs an das Limit zu schieben, selbst oder VOR ALLEM unter 4K.

Eine "Krücke" wie der 2600er hat zu wesentliche niedrigere min fps und die gesamten Framekorridore komplett unterhalt der min fps eines 5800x3D z.B.
Mit anderen Worten: Im best case Szenario kratzt ein 2600 an den langsamsten und untersten compute-Keller- Werten eines 5800x3D.
Dort wo der Ryzen 2600 einbricht, fängt der 5800x3D erst an.

Mit einer Vega 64 ist das nicht so relevant, weil die ihrerseits bereits limitiert ist in UWQHD und 4K Szenarien.
Aber auch die schiebt mehr Frames mit einer schnelleren CPU!


Edit: Siehe, was mein Vorposter auch bestätigt:
mae1cum77 schrieb:
War erstaunt, was ein Wechsel vom 2700X zum 5900X aus einer GTX 1070 gekitzelt hat.

Eine stärkere CPU kann die GPU bis zu Ihrem "rechnerischen" fps cap pushen, eine wesentlich ältere und langsame CPU nicht.

Man sollte heute bei den Gaming Builds nicht mehr - was früher möglich war - an der CPU so sehr sparen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Javeran und s1ave77
mae1cum77 schrieb:
Ist man das? Gerade Open World Titel sind zum Großteil CPU-limitiert, sobald größere NPC-Ansammlungen auftauchen. Dazu sollte man die Min-FPS nicht vernachlässigen, je höher die ausfallen, desto besser sind die Frametimes. War erstaunt, was ein Wechsel vom 2700X zum 5900X aus einer GTX 1070 gekitzelt hat.
Darf ich erfahren ich welcher Auflösung du unterwegs bist? Ich spiele in UWQHD momentan Valheim und Sons of the Forest.
 
Austronaut schrieb:
Darf ich erfahren ich welcher Auflösung du unterwegs bist?
WQHD. In UWQHD und UHD verschiebt sich der Fokus hinsichtlich Max-FPS etwas zur GPU, die Min-FPS hängen trotzdem an der CPU.
 
Pleasedontkill schrieb:
Das Thema interessiert mich zwar aber der Aufrüstdruck ist noch nicht hoch genug.

Mein i7 5820K bleibt noch im System.
Gepaart mit RX6800xt
Wozu die 6800XT? Da sind wir wieder beim Thema. Mit der CPU spuckt sie wohl eher 5700XT Werte aus. 🤔

Bei Dir reicht als nächstes wirklich der CPU+RAM Wechsel und Deine GPU ballert 40-50% mehr fps. Hat auch was Gutes :D
 
Laphonso schrieb:
Das hängt., wie immer, an einzelnen Usecases und Deinen Spieleszenarien.

Ein Ryzen 2600 macht mit einer 7900er RDNA3 oder einer RTX4000er hier nicht so viel Sinn, weil diese CPU schlicht zu langsam ist, um die genannten neueren GPUs an das Limit zu schieben, selbst oder VOR ALLEM unter 4K.

Eine "Krücke" wie der 2600er hat zu wesentliche niedrigere min fps und die gesamten Framekorridore komplett unterhalt der min fps eines 5800x3D z.B.
Mit anderen Worten: Im best case Szenario kratzt ein 2600 an den langsamsten und untersten compute-Keller- Werten eines 5800x3D.
Dort wo der Ryzen 2600 einbricht, fängt der 5800x3D erst an.

Mit einer Vega 64 ist das nicht so relevant, weil die ihrerseits bereits limitiert ist in UWQHD und 4K Szenarien.
Aber auch die schiebt mehr Frames mit einer schnelleren CPU!


Edit: Siehe, was mein Vorposter auch bestätigt:


Eine stärkere CPU kann die GPU bis zu Ihrem "rechnerischen" fps cap pushen, eine wesentlich ältere und langsame CPU nicht.

Man sollte heute bei den Gaming Builds nicht mehr - was früher möglich war - an der CPU so sehr sparen.
Kann man irgendwie herausfinden was der beste Trade-Off in meinem Fall ist?
(Ein 5800x3D würde mein Board unterstüzten.)
 

@Austronaut Schau Dir das mal an. Aber setz Dich vorher hin, bitte :D

Diese Zahlen "wirken", finde ich.
 
  • Gefällt mir
Reaktionen: CMDCake, robertsonson, Javeran und 2 andere
Austronaut schrieb:
(Ein 5800x3D würde mein Board unterstüzten.)
Ist zumindest ein finanziell überschaubares Upgrade bei ~340€, im Gegensatz zu einer neuen Plattform :). Die Min-FPS werden auf jeden steigen und die besseren Frametimes sorgen oft für ein flüssigeres Spielgefühl. Der reicht dann auch noch für ein mögliches Grafikkartenupgrade aus.
 
  • Gefällt mir
Reaktionen: Laphonso
Zurück
Oben