@mojomojo
Nur niemand nimmt den 7800X3D ernsthaft primär zum Rendern oder sonstigen Arbeiten, der ist zum zocken.
Es sind komischerweise nur die Fans von Intel die den 7800X3D plötzlich in irgendwelchen Produktivbenchmarks als Vergleich nehmen.
Ist doch auch logisch, dass 20 Kerne mehr als 8 leisten.
Nehmen wir doch wieder Cinebench. Da zersägen die AMD 16 Kerner den Intel 20 Kerner mit 100-200 Watt weniger bei mehr Leistung. Intel > mehr Kerne, weniger Leistung, mehr Verbrauch.
Das einzige was hier den 14700K dann noch rettet ist der Preis.
Oder nehmen wir Gaming. Auch da das Gleiche, der 7950X3D hat mehr Leistung im Gaming (mit ein paar Ausnahmen) und das Ganze bei weniger Verbrauch.
Auch hier rettet nur der Preis des 14700K selbst.
Ich finde Intels CPUs generell nicht schlecht, der Hybridansatz ist super.
Aber es gibt mittlerweile nur noch wenige Szenarien bei denen diese wirklich besser sind.
Sei mal ein Laie, der wenig Ahnung hat... Was nimmst du?
AMD: 80 fps bei 50 Watt
Intel: 75 fps bei 120 Watt
Wer nur Starfield in seinem Leben spielt und unbedingt 100 fps haben muss, der greift natürlich zu Intel.
Intel ist in vielen (nicht allen) Bereichen aktuell eher die 2. Wahl. Ich kann aber durchaus verstehen warum man Intel nimmt. Ein paar kleine Problemchen hier und da weniger, etwas OC freundlicher usw.
@BoggledBeagle
Yes AMD have some Problems too.
The GPUs were a little disappointment and the CPU Chiplets takes to much energy for little things.
@Jiddis
Aber die Frametimes gucken wir uns bei 25 Watt besser nicht an oder? 🙃
Außerdem etwas blöd jedes mal das Powerlimit zu ändern wenn man was macht.
Gaming... oh auf 80 Watt einstellen, ach ne jetzt Rendern... wieder auf 200 Watt umstellen usw.
PCGH hat den 7800X3D übrigens auch auf 24 Watt runter getrimmt.