SSD960
Captain
- Registriert
- Dez. 2017
- Beiträge
- 3.679
Dann Wechsel ich auch.gedi schrieb:Ich warte auf den 9950x3d. Wenn tatsächlich ein Zusatzcache pro CCD verbaut ist, dann tausche ich meinen 7950x3d aus.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Dann Wechsel ich auch.gedi schrieb:Ich warte auf den 9950x3d. Wenn tatsächlich ein Zusatzcache pro CCD verbaut ist, dann tausche ich meinen 7950x3d aus.
Das tut er doch nur weil er viel höher taktet. Ist das so wichtig?? Ist ja nicht so, dass der Verbrauch relativ gesehen hoch ist. 7800X3D ist ja fast schon lächerlich wenig, sowas bleibt eine Ausnahme.sentinel_first schrieb:Gegenüber dem 7800X3D verbraucht der 9er zu viel.
Die erbrachte Mehrleistung in Spielen ist in Ordnung, rechtfertigt eine Aufrüstung aufgrund des Mehrverbrauchs aber nicht wirklich.😆
"UserBenchmark zieht eine eher weniger positive Bilanz des 9800X3D. Es stellt fest, dass der zusätzliche Cache zu 6 % niedrigeren Boost-Takten und 40 % höheren Preisen als bei der 7700X und 9700X führt."5hred schrieb:
Dass er dabei auch ~35% schneller als der 9700X ist, ist dort halt auch keine Erwähnung wert^^Robo32 schrieb:Es stellt fest, dass der zusätzliche Cache zu 6 % niedrigeren Boost-Takten und 40 % höheren Preisen als bei der 7700X und 9700X führt."
naja...ob exemplarische evidenz so eine große aussagekraft hat, bezweifle ich fast. zum einen dürfte das vor allem von den games abhängen die du spielst zumal du mit der 4090 aktuell die dickste gpu hast.BloodGod schrieb:Ich zocke sehr viel und ausgiebig in allen möglichen Genres und immer in 4K maxed out und ich bin fast nie im legendären GPU Limit…
Hat sie. Es kommt eben immer auf die eigene Grafikkarte und Spiele an. Es macht rein gar keinen Sinn sich einen Performance Index in 4K anzuschauen und dann als Fazit zu ziehen, man braucht keinen dicke CPU.cypeak schrieb:naja...ob exemplarische evidenz so eine große aussagekraft hat,
Sie zeigen die CPU Performance und natürlich nicht die GPU Performance. Ist ja auch ein CPU Test. Du weißt aber genau welche FPS du von der CPU erwarten kannst.cypeak schrieb:laborbedingungen mit 720p tests und dicksten grafikkarten zeichnen ein bild von den cpu's und deren performance, welches dann in realistischen nutzungsszenarien in der regel so nicht mehr zustandekommt...
Stellvertretend für Dich, sowie für viele andere mit der Frage.cypeak schrieb:jetzt würde mich noch interessieren wieviel von diesen 15% plus übrig bleiben würde, wenn mein 7800x3d dem 9800x3d weichen müsste..(rtx4080s in 3440x1440) ...ob es noch real 10% sind?
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Eine Variable, die man nicht außer Acht lassen sollte bei der eigenen Entscheidung, definitiv.F1Freak schrieb:Effektiv hat zumindest in diesem Forum wohl die meisten einen WQHD/4K Monitor
M4xw0lf schrieb:Was mich aber mit am meisten überrascht (abgesehen von den MASSIVEN Zugewinnen für Zen5) ist der doch deutlich vorhandene Mehrbedarf der X3Ds bei der Leistungsaufnahme. Nach euren Werten sind das ja jeweils um die 6-7W, die durch den Extra-Cache anfallen.
Das habe ich ursprünglich gepostet. Ich kann dir das auch gerne nochmal in deiner Schriftart und Farbe darstellen, da du das ja anscheinend nicht lesen wolltest und auf einem Teil meiner Aussage, aus dem Kontext gerissen, rum reitestMcFritte schrieb:Reichte unterstrichen, Fettschrift und eine größere Schrift nicht? Ok, versuche ich es dazu noch mal farbig.
"...im Gaming um hohe Performance gepaart mit bester Effizienz geht."
Ich hatte nie behauptet, dass die alten Intels die gleiche Effizienz hatten, dennoch, waren die 12er, 13er und 14er Intel auch in der Energieeffizienz nicht pauschal schlecht.SavageSkull schrieb:Dir ist schon klar, dass Intel seitdem den Level 3 Cache auch vergrößert hat und bis zum 14900K mit Gewalt Takt und Leistung hochgeprügelt hat. Bereits ein 13900K braucht sich nicht vor dem 5800X3D verstecken müssen.
Kennst du den Spruch "Wie es in den Wald schallt, schallt es heraus"?SavageSkull schrieb:Ebenso hat man jetzt einen Neustart mit einer neuen Architektur.
Sobald die aus den Kinderschuhen raus ist und sich die Zusammenarbeit Intel - TSMC eingelebt hat, ist durchaus denkbar, dass diese neue Architektur auch gut gegen AM5 gegenhalten kann.
Zumindest in der Basis sind die Core Ultra 200 keinesfalls schlechte CPUs und bieten ein deutlich runderes Erlebnis, als die Core I 14th. Letztlich war das bei Ryzen 1000 ja genauso. Als die kamen waren die weder in Spielen, IPC oder auch Anwendungen, die noch nichts mit den vielen Kernen anfangen konnten "besser" als die bisherigen Intels. Eigentlich erst mit den 3000er waren die Ryzen wirklich konkurrenzfähig.
Die Menge an Kommentaren die dann schreiben das Userbenchmark eh recht hat ist grandios. Weil GPU Limits und so, also lieber einen 14900k kaufen, und auf gar keinen Fall einen 5700x3D5hred schrieb:
Weil Intel immer noch arrogant ist, sie haben immer noch nicht ihre Position wahrgenommen. Sie haben eine Historie von Anti-Konsumer Praktiken. Sie haben immer noch ein Monopol. Sie bekommen seit 10 Jahren es nicht auf die Reihen ihre Fertigung zu Glätten.SavageSkull schrieb:Dieses pauschale "Intel ist Böse=Schei*e" nimmt hier im Forum teilweise echt Überhand. Man sieht ja bei Umfragen immer wieder, dass wir hier auf AMDBase sind, denn der Anteil an AMD Hardware ist deutlich höher, als es die Verkaufszahlen im Mittel eigentlich hergeben.
Führt Userbenchmark nicht eh irgendwie gefühlt einen Krieg gegen AMD? Ich bin ja mal gespannt, wie sie die Core-Timings bald in ihren Benchmark wieder neu gewichtet. Der Core Ultra 285K ist da ja auch nicht sehr gut, entsprechend müssen sie da ja auch wieder anpassen, damit das wieder stimmt und Intel vorne ist.Robo32 schrieb:UserBenchmark ist höchstens geeignet um Intel mit Intel und AMD mit AMD zu vergleichen, auch dabei sollte man aber sein Hirn nutzen.