Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 9.071
maxpayne80 schrieb:Wer es sich in den Rechner baut hat sich entweder nicht informiert, ist fanboy oder ist bereit, für 5% mehr Leistung in bestimmten Anwendungszenarien den - für die CPU - teilweise doppelten Stromverbrauch hinzunehmen
Gibt doch jetzt schon Szenarien, wo ein aktueller Intel 30% schneller ist, als ein aktueller AMDs. Wird sich bei mehr Cache, mehr Kernen und mehr Takt wohl nicht unbedingt ändern. Wie das gegen Ryzen 4000 aussieht, muss sich dann zeigen.
Auch wie der Verbrauch bei den eigenen Anwendungen wirklich aussieht, aber das interessiert ja immer keinen hier. Hier wird ja nur geschaut, was die CPU bei Cinebench oder in Prime braucht, was kein realistisches Bild für die meisten ist. Aber ja, es soll Leute geben, die einen höheren Stromverbrauch in Kauf nehmen, für mehr Leistung.
Zertruemmerdog schrieb:wie geil hier die intel fanbois sich auf die 10% im gaming bei 720p einen keulen.
Das Intel wenig neues fabriziert hat die letzten Jahre ist einfach mal Fakt. Und wer hier einen 10 Kerner Intel einen 12 Kerner von Amd bevorzugt...Tja dem kann niemand helfen.
Tja, du zeigst leider das du anscheinend ein AMD Fanboy bist. Gibt genug sehr gute sehr genaue Betrachtungen zu der Gamingleistung. Z.B. von Digital Foundry. Gebencht in normalen Auflösungen (bis hin zu 4K) mit der genauen Betrachtung des Verhaltens im absoluten CPU Limit und nicht nur mit Durchschnittswerten.
Hier nur mal ein Beispiel. Crysis 3 läuft auf Ryzen ziemlich gut, dass Spiel kann nahezu beliebig viele Threads nutzen und im Durchschnitt nehmen sich die FPS auch fast nichts. Kommt man dann aber ins CPU Limit, dann kommen die doch teils deutlichen Unterschiede zu Tage. Hier beträgt der Leistungsunterschied 30% zwischen 3700x und 9700K in 1440p.
Ob das für dich relevant ist, muss jeder selbst wissen. Wenn ich 1000+ Euro für eine High End Grafikkarte ausgebe, einen Monitor mit hoher Refreshrate habe und Spiele das aufwändigste ist, was ich am rechner mache, dann ist ein Intel noch immer eine interessante Wahl. Die 10 Kerner bieten zudem noch mal ein gutes plus mehr Cache, was ja auch Zen 2 schon enorm geholfen hat in manchen Anwendungen.
Der 3900X ist eine nette CPU, bringt dir in einem Gamingrechner aber nicht viel. Nicht jeder Kern kann auf den vollen Cache zurückgreifen, die Latenzen steigen an, wenn Code über die zwei Dies hinweg ausgeführt wird und wirkliche Taktvorteile hat man auch nicht. Der Allcoretakt ist auch nicht viel höher, als bei den anderen kleineren Modellen, nur bringt das Plus an Kernen heute in fast keinem Spiel wirklich viel.
Beim 10990K kann jeder Kern auf den vollen L3 Cache zugreifen, es sind hohe Allcore Taktraten möglich, dass Plus in Gaming ist also nicht schlecht, wenn man es nutzen kann und in Anwendungen ist die CPU auch schnell. Beim 3900X bekommst du etwas mehr Anwendungsleistung beim 10900K mehr Gamingleistung. Wobei der 10900K auch in manchen Anwendungen gut abschneiden wird. Immer dann, wenn nur wenig Threads genutzt werden oder auch extrem, wenn eine Anwendung Quicksync Support anbietet.
Und ja Intel nutzt noch immer eine alte Fertigung und alte Architektur. Schlägt sich dafür aber nicht schlecht, muss ich sagen. Pro Kern Kern sind AMD und Intel halbwegs gleich auf, je nach Anwendung ist mal der eine, mal der andere schneller. Der einzige wirklich signifikante Unterschied liegt im Stromverbrauch. Da muss jeder selbst entscheiden, ob ihn das so sehr stört. Aber sagen wir so. Bei der RX480 und RX580 war das für viele AMD Fanboys ja egal, dass die karte viel mehr als eine 1060 verbraucht. Nun ist es aber das absolute Totschlagargument gegen Intel. Halt immer so wie es gerade passt
![Freaky :freaky: :freaky:](/forum/styles/smilies/freaky.gif)