Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsMainboards mit Z490-Chipsatz: Bilder des TUF Gaming Z490 und Prime Z490 aufgetaucht
@Tigerfox Du kannst im RyzenMasterTool doch jeden Kern einzeln takten, die Frage ist, was bringt dir der Spaß, wenn die Kerne ohne manuelles Eingreifen sowieso alle selbständig immer so hoch takten wie nötig und der Unterschied zu dem was man manuell noch an Mhz mehr rausholen könnte im unteren einstelligen Prozentbereich liegt?
Diese strikten Taktgrenzen gibt es nur bei Intel.
Soweit ich das mitbekommen habe, stimmt das nicht. Kann ja auch garnicht, so wie Du es beschreibst, hätte jeder Ryzen mit gleicher TDP bei gleicher Zahl genutzter Kerne den gleichen Takt und, da man AFAIK die TDP ins unendliche erhöhen kann, gäbe es allein dadurch schon keinen Unterschied mehr zwischen 3600 und 3600X bzw. 3700X und 3800X.
Da wird nur soweit geboostet, wie AMD es vorgibt, sonst würde ja keiner einen 3600(X) noch weiter per Allcore OCen. Problem ist, dass der automatische Boost bei Last auf weniger Kernen höhere Taktraten fährt, als man per Allcoreturbo schaffen kann, man aber bei Allcore-OC den Turbo deaktiviert und so bei Nutzung von weniger Kernen Leistung verliert. Je stärker das Modell, umso mehr, weil die größeren Modelle einen stärkeren Turbo fahren. Beim 4,2-4,3GHz typischem Max-OC, beinahe unabhängig von der Kernzahl, kann ich den Verlust beim 3600 bis 3700X nocht verschmerzen bzw. habe garkeinen, aber beim 3800X, 3900X und 3950X sind das schon ein paar 100MHz.
OC-per-Core funktioniet auch nicht sinnvoll, da der Unterschied zwischen den Kernen aus irgendeinem Grund mindestens 1GHz betragen muss. Ist hier erklärt (dt. Version gibt es bestimmt auch). Nur per-CCX-OC funktioniert sinnvoll, das aber auch nur bei 3900X und 3950X, weil die vier CCX haben und nur dort eine hohe Wahrscheinlichkeit besteht, dass alle Kerne eines CCX einen höheren Takt mitmachen als alle Kerne eines anderen CCX. Wenn nur einer der 3-4 Kerne eines CCX den Takt nicht mitmacht, kann ich das ganze CCX nicht höher takten. Bei 3600 bis 3800X mit nur zwei CCX ist die Chance niedrig.
Das ist schon eine ganz andere Nummer als Turbo-OC bei S1151v2 oder OC jedes einzelnen Kerns bei S2066.
Trotzdem würde mich auch mal interessieren, welcher Takt eigentlich bei 4/6/8 belasteten Kernen bei den unterschiedlichen Ryzen 3000 so anliegt. Ich lese immer nur was vom kurz auf einem Kern anliegenden Maximaltakt.
so wie Du es beschreibst, hätte jeder Ryzen mit gleicher TDP bei gleicher Zahl genutzter Kerne den gleichen Takt und, da man AFAIK die TDP ins unendliche erhöhen kann, gäbe es allein dadurch schon keinen Unterschied mehr zwischen 3600 und 3600X bzw. 3700X und 3800X.
Da wird nur soweit geboostet, wie AMD es vorgibt
Klar gibt AMD für die Modelle einen Maximaltakt vor. Und innerhalb dessen takten die Kerne dann so nahe an diesen Wert ran, wie es gerade eben geht.
Mit PBO kann man dann halt noch mal 200MHz draufschlagen, was allerdings nur wirklich was beim 3600 mit 4.2Ghz Boost bringt, da bei 4,4-4,5Ghz sowieso bei den meisten Schluss ist.
Tigerfox schrieb:
Trotzdem würde mich auch mal interessieren, welcher Takt eigentlich bei 4/6/8 belasteten Kernen bei den unterschiedlichen Ryzen 3000 so anliegt. Ich lese immer nur was vom kurz auf einem Kern anliegenden Maximaltakt.
Welche Anwendung? Welcher CPU Lüfter? Welche Umgebungstemperatur?
Duch AMDs Ansatz beim Turbo kannst du hier keine festen Taktraten angeben, weil eben immer so nah an den angegebenen maximalen Takt gegangen wird, wie es geht. Und das ist immer unterschiedlich.
Ich könnte dir jetzt aber z.B. mal für einen Cinebench Run mit ProcessLasso 4, 6 und 8 Kerne zuweisen und mal schauen, was rauskommt^^
Aber doch nur bei Nutzung aller Kerne, oder? Sonst würde das allem widersprechen, was ich bisher von Ryzen-OC gehört habe, inklusive des Videos vom 8auer.
Nehmen wir mal deinen 3700X. Der maximale Turbo ist 4,4GHz. Ich nehme jetzt mal an, dass der mit herkömlichen Mitteln nicht viel besser gekühlt werden kann, als mit der H115i Pro.
Die 4,4GHz liegen ja jetzt nicht auf acht Kernen gleichzeitig an, oder? Wie hoch taktet er, wenn Du alle acht Kerne belastest, meinetwegen mit irgendeinem moderaten Benchmark oder so? Wie hoch, wenn Du nur sechs bzw. nur vier Kerne aktivierst (man kann doch Kerne im BIOS abschalten, oder?)?
Ja kann man, also wenn Cinebench 20 ein "moderater" Bench ist, bei Last auf 8 Kernen 4.0Ghz, bei Last auf einem Kern 4,4Ghz (Mit PPT Anhebung auf den Wert des 3800X sind es übrigens ca 4.2Ghz bei 8 Kernen)
Den Rest kann ich später mal testen
Edit: Bei 4 Threads sinds 4.275GHz, bei 8 Threads 4.175Ghz, bei 12 Threads 4.1Ghz
Cinebench R20 schein kein moderater Benchmark zu sein, dort erreicht z.B. der 3950X den niedrigsten Takt.
Hier lese ich, dass das Testexemplar des 3800X maximal auf 4,550GHz singlecore und 4,275GHz Allcore taktet. Da wird mir schon klar, warum sich Allcore-OC nicht lohnt, wenn Ryzen tatsächlich diese Taktraten schon annähernd mit Turbo erreicht. Wenn dann zwischen einem und acht Kernen nur 275MHz Unterschied liegen, dann kann der Takt auch mit sechs und vier genutzten Kernen nicht soviel höher sein, wahrscheinlich so 4,35GHz bis 4,425GHZ.
Deswegen lasse ich die CPU auch so wie sie ist^^
Nutze sie sowieso nur für gaming, da taktet sie immer so zwischen 4250 und 4350 je nach Spiel und die 100mhz die man da eventuell rausholen könnte, machen vielleicht 2-3% aus wenn man Glück hat
Selbstverständlich ist das eine Momentaufnahme, allerdings ist dies, wie der von Dir zitierte schrieb, die einzige Methode sich der reinen CPU/Infrastruktur Leistung anzunähern und zwar für jedes getestete Spiel X. Und daraus lassen sich für das jeweilige Spiel X Rückschlüsse (Auskunft) im Falle eines CPU/GPU Wechsels ziehen.
Erst wenn man extrapoliert, wird die Angelegenheit unsicherer und je weiter man in die Zukunft blickt, desto höher die Unsicherheit (z.B. andere Engines/ Schnittstellen/Core Count etc. pp). Dennoch gibt es dazu auch einen mittlerweile hinreichenden Erfahrungsschatz und zumindest kurz bis mittelfristig erhält man in Summe jetzt schon eine Tendenz, auch wenn es immer wieder einige neue Titel gibt, die aus diesem Raster fallen.
Auch ohne Multithread enhancement im Bios, genehmigen sich die 9900K CPUs deutlich mehr als die P1 Powerstage. Was auch logisch ist, da die P1 Powerstage ja auch nur für den Baseclock gilt/reichen soll.
Solange nicht länger als den Tau Max Boost Wert (hier 28 Sekunden) das P2 Maximum erreicht wird, ist das trotzdem innerhalb der Spec. Die CPU auf den P1 Wert festzunageln wäre da schon eher das Äquivalent zu AMDs Eco Modus.
In AVX Anwendungen haben die Mainstream Intel Archs ein Effizienzproblem (was für viele aber kein Problem darstellt).
aha, 95W(9900K) die für allcore basetakt gelten bei intel, sind gleich zu setzen mit 65W im eco mode eines 3900X/3950X... cooler vergleich, 45% mehrverbrauch "gleich setzen" zu wollen
Und das ist ein GPU Test, also immer mit einem 9900K gemacht.
Du kannst dir bestimmt vorstellen, wie nah die 5700XT in 1080p noch an die 2080 Super oder die Ti rankommt, wenn man nur einen 8700K hat.
Ergänzung ()
Lustigerweise habe ich gerade einen Kollegen mit einem Haswell i5(non-K), der in Call of Duty mit einer GTX1070 in 1080p im CPU limit hängt.
Der Wechsel auf einen i7 würde ihm hier definitiv mehr FPS bringen, eine schnellere GPU hingegen nicht.
@Tigerfox Das gleiche hier mit PUBG: Haswell-E 8C/16T @ 4.5 ghz und drops auf 70 fps in wqhd auf low mit ner 1080ti. Was würde mir die 2080ti bringen? nichts außer höher avg und max fps, aber die min fps bleiben bei 70. Wechsel ich auf den 9900K hab ich keine min fps unter 140, ergo die doppelte Leistung. Und 70 fps sind einfach nur ekelhaftes Geruckel bei Shootern und das merk ich auch mit 33 noch genauso wie mit 20. Klar wer 60 hz spielt selber schuld, aber ja dann tuts auch ein 200€ Ryzen mit ner 150€ Grafikkarte. Das erinnert mich dann irgendwie an 12 jährige die ihren ersten PC in den Nullerjahren bekommen haben und sich das 60 hz geruckel antun mussten. Gab ja erst ab 2008 oder so sie 120 hz tfts, die fps spieler sind bis dahin ja ihren Röhren treu geblieben damit es nicht ruckelt...
Was sagt Afterburner? 1080ti auf 20%, ergo hartes CPU Limit. Und das sind drops die zt 10 sekunden oder länger anhalten, vor allen Dingen mit Anticheattools wie von Faceit.
Woher kommt die doppelte Leistung? Ganz bestimmt nicht von den paar Mhz mehr, dee Unterschied bei den Drops zwischen 4.2 ghz mit vernünftiger 1.33er Vcore gegenüber 4.5 ghz mit ner 1.44er Prügelvcore für 4.5 ghz ist kaum spürbar, ergo liegts nicht an fehlendem Takt. 3200 dualchan reicht fast für 140 min fps in pubg und 3200 auf Z Chipsätzen ist vllt so wie 2400 auf X Chipsätzen im Quadchan.
Also hat sich auch die Leistung pro Kern fast verdoppelt sobald es eng wird. An den Kernen wird es ja laut deiner Logik nicht liegen können, das ist beides Intel 8C/16T und Haswell-E mit Quadchan profitiert nicht im Ansatz so von schnellem Ram wie coffeelake.
Und bei den 720p Benchmarks will man doch auch nicht nur für zukünftige GPUs simulieren (was natürlich der wichtigste Punkt ist, auch aus PL damit ich nicht 5 ryzens kaufen muss weil alle immer noch zu lahm sind), sondern auch für nicht optimal programmierte Spiele wo man häufiger mal FPS drops hat, trotz aktueller Hardware. Und wenn der 9900K da 40% mehr in 720p abliefert weiss ich dass der bei PUBG vermutlich auch nur drops auf 100 hat während der Ryzen dann auf 60 geht. Und das sollte für jeden mit 144hz das ko kriterium sein. Wobei es Leute eh selber schuld sind wenn sie mit 60 hz spielen, wie man das Geruckel ertragen kann war schon immer ein merkwürdiges Phänomen, die 100-200 hz CRTs liefern alles flüssig ab und der Markt etabliert 60 hz tfts „zum zocken“
Ergänzung ()
Atent123 schrieb:
Außerhalb des GPU Limits zu benchen ist das Einzige, was vernünftige Resultate liefert. Vorallem, wenn man CPUs der selben Kernzahl vergleicht, kommt man so auf zukunftsicherere Werte.
Ein Max RAM OC Test für beide Seiten unter kontrollierten Bedingungen, wäre super.
Da weigert sich CB doch standhaft gegen um die Fanboys nicht zu vergraulen, anders kann ich mir diese Ignoranz sonst nicht mehr erklären wenn oft genug das Gegenteil von Leuten wie Esenel oder phoenixmda bewiesen worden ist, sollte man doch langsam mal saubere redaktionelle Arbeit erwarten, sonst gehen diese dummen Diskussionen hier noch ewig weiter weil der Computerbasebenchmark Test zeigt ja nur 11% Unterschied in Spielen obwohl es in Wahrheit 20% sein müssten bei 3200CL16.
Lieber sagt man OC bringt nicht viel und die CPUs sind schlecht unter Prime kühlbar. seriosly? Wieso sagt man nicht „IMC OC durch RAM OC von 2666 auf 4400 kann 30-48% bringen je nach Spiel und ist problemlos mit Luft kühlbar? Daher kann man das Takt OC ignorieren und macht es nur für die letzten 10%?“ Ein Schelm wer hier böses denkt, wenn der AMD Thread zum RAM im Sticky hängt und der Intel Thread dazu nicht, obwohl der Intel deutlich mehr vom Ramtuning profitiert als der Ryzen.
Jeder der halbwegs Ahnung von der Materie hat weiss, dass 3200-3600 mit max. 4x8 bzw 2x16 noch in den Intel Specs liegt weil die für 4x32 GB 2666 ausgelegt sind die deutlich anspruchsvoller an den IMC sind als 4x8 mit 3600 und Intel einfach keine Abstufungen macht zwischen 8/16/32 gb modulen und vollbestückung oder nicht.
Wenn comet lake s 4x32 2933 freigegeben bekommt, könnte Intel problemlos auch 4x8@4000 frei geben, alles andere sind nur schlechte Mainboards die das nicht packen. Dann wäre der Aufschrei aber groß hier nach dem Test wenn CB mit 4000CL17 hier benchen müsste
Trotzdem würde mich auch mal interessieren, welcher Takt eigentlich bei 4/6/8 belasteten Kernen bei den unterschiedlichen Ryzen 3000 so anliegt. Ich lese immer nur was vom kurz auf einem Kern anliegenden Maximaltakt.
Idle = Alle Kerne schwanken zwischen 3,4 und 4,3 Ghz
Prime95 mit 4 Threads = 4,242 Ghz Konstant auf fast allen Kernen
Handbrake 2x parallel FullHD h264 zu h265 = 3,7-4 Ghz auf allen Kernen
Ja, ich.
Ich finde AMD bei weitem nicht schlecht. Aber als Softwareentwickler bin ich es eben gewöhnt, meine
Builds auf Intel-Prozessoren zu machen. Weil die Compiler dafür auch besser optimiert sind.
Da macht doch der Ryzen noch mehr Sinn.😅
Compiler sind doch auf mehrere Threads optimiert.
Da macht ein Ryzen 3950X mit 32 Threads doch fast jeden Intel nass. Hast du konkrete Anwendungsfälle, ansonsten würde ich das der Fanboy-Ecke zuordnen.✌
Und wenn ich keine Anwendungen habe, die über 12 kerne skalieren? Wozu brauche ich dann einen 12 Kerner? Da die Spiele immer wieder genannt werden, hier mal ein Beispiel von Digital Foundry zwischen 9700k und 3700x. Es wird ja auch immer gesagt, dass der Unterschied im Gaming kaum der Rede Wert ist und wenn dann nur in 720p. Hier mal ein Beispiel, wie die Wahl der CPU selbst in 4K einen deutlichen Einfluss an CPU intensiven Stellen haben kann. Stammt übrigens aus einem sehr interessanten Video, in dem erklärt wird, warum man in Balkendiagrammen das reale Spielerlebnis schlecht darstellen kann. Die Durchschnittswerte, auch für 0.1% Low etc. sind halt recht ungenau und können nicht das Verhalten im absoluten CPU Limit wiederspiegeln. Es sind aber genau Momente wie diese, die du beim Spielen als Drop merkst. Auch wenn Sie in den Durchschnittlich aufgezeichneten FPS kaum sichtbar sind. Und wir sprechen her wohlgemerkt von über 20% Leistungsunterschied bei 4K in DX12. Ohne Übertaktung, rein mit halbwegs vernünftigen Speicher. Und das stellt schon fast den Bestcase für den Ryzen dar, wohingegen beim 9700K noch ein wenig OC Luft nach oben ist, sowohl beim Kerntakt, als auch beim Speicher.
Und wenn ich keine Anwendungen habe, die über 12 kerne skalieren? Wozu brauche ich dann einen 12 Kerner? Da die Spiele immer wieder genannt werden, hier mal ein Beispiel von Digital Foundry zwischen 9700k und 3700x. Es wird ja auch immer gesagt, dass der Unterschied im Gaming kaum der Rede Wert ist und wenn dann nur in 720p. Hier mal ein Beispiel, wie die Wahl der CPU selbst in 4K einen deutlichen Einfluss an CPU intensiven Stellen haben kann. Stammt übrigens aus einem sehr interessanten Video, in dem erklärt wird, warum man in Balkendiagrammen das reale Spielerlebnis schlecht darstellen kann. Die Durchschnittswerte, auch für 0.1% Low etc. sind halt recht ungenau und können nicht das Verhalten im absoluten CPU Limit wiederspiegeln. Es sind aber genau Momente wie diese, die du beim Spielen als Drop merkst. Auch wenn Sie in den Durchschnittlich aufgezeichneten FPS kaum sichtbar sind. Und wir sprechen her wohlgemerkt von über 20% Leistungsunterschied bei 4K in DX12. Ohne Übertaktung, rein mit halbwegs vernünftigen Speicher. Und das stellt schon fast den Bestcase für den Ryzen dar, wohingegen beim 9700K noch ein wenig OC Luft nach oben ist, sowohl beim Kerntakt, als auch beim Speicher.
Schlechtes Beispiel. Metro selbst oder die Engine ist schlecht für Ryzen-Kerne optimiert und lastet generell nur 6 Threads aus. So etwas würde ich nicht als Vergleich nehmen.
Bei anderen Tests gibts dann wiederrum nur 4 fps Unterschied bei 4K.(HWLX)
Bei CB selber hat der 2700X bessere 99th als der i7-8700K.
Das Spiel ist wohl der Inbegriff von Inkonsistenz bei Benschmarks.😂
@Shoryuken94
Ja Metro und Ryzen mögen sich gar nicht.
Die Nein-Sager leben halt in ihrer kleinen Blase.
Da kann so etwas nur in 720p passieren.
In höheren Auflösungen gibts für diese Personen kein CPU Limit...
Sly123 schrieb:
Schlechtes Beispiel. Metro selbst oder die Engine ist schlecht für Ryzen-Kerne optimiert und lastet generell nur 6 Threads aus. So etwas würde ich nicht als Vergleich nehmen.
Oder auch Far Cry 5.
Aber warum sollte man solche aktuellen AAA Titel nicht nehmen?
Ist nicht schön, dass Ryzen da keine Liebe erfahren hat, aber halt auch bittere Realität.
Dass ist leider auch ein Vorteil wenn man den Pakt mit dem Teufel ehm Intel eingeht.
Schlechtes Beispiel. Metro selbst oder die Engine ist schlecht für Ryzen-Kerne optimiert und lastet generell nur 6 Threads aus. So etwas würde ich nicht als Vergleich nehmen.
Bei anderen Tests gibts dann wiederrum nur 4 fps Unterschied bei 4K.(HWLX)
Bei CB selber hat der 2700X bessere 99th als der i7-8700K.
Das Spiel ist wohl der Inbegriff von Inkonsistenz bei Benschmarks.😂
Oder auch Far Cry 5.
Aber warum sollte man solche aktuellen AAA Titel nicht nehmen?
Ist nicht schön, dass Ryzen da keine Liebe erfahren hat, aber halt auch bittere Realität.
Dass ist leider auch ein Vorteil wenn man den Pakt mit dem Teufel ehm Intel eingeht.
Far Cry 5 ist auch so ein Kandidat.
Die Tatsache basiert aber auf "historischen" Gründen.
Das ändert sich schon seit Ryzen 2000 stetig und die Verkaufzahlen werden den bisher faulen Spieleentwickler auch noch die Augen öffnen.
Ergänzung ()
Floppes schrieb:
Ausreißer hat man immer. Bei GPUs ist das nochmal deutlicher.
Bei CS Go steht Ryzen plötzlich exzellente da... voll zukunftsweisend
Könnte man natürlich auch drehen und wenden.
CS Go wurde vielleicht einfach nur neutral entwickelt, da evtl. kein Bedarf für spezielle Optimierungen da war.😅
Da macht doch der Ryzen noch mehr Sinn.😅
Compiler sind doch auf mehrere Threads optimiert.
Da macht ein Ryzen 3950X mit 32 Threads doch fast jeden Intel nass. Hast du konkrete Anwendungsfälle, ansonsten würde ich das der Fanboy-Ecke zuordnen.✌
Ich würde dir jetzt Quellen nennen, wo du das nachlesen kannst.
Aber weil du mich gleich schräg von der Seite anfährst, kannst du von mir aus selbst danach googeln!
Das hat nichts mit den Threads zu tun, sondern der Architektur, mit der der Maschinencode erzeugt wird.
Wenn du so gezielt auf die Threads eingehst, bist wohl du der AMD-Fanboy hier! Geilst dich daran auf ohne wirklich Ahnung zu haben.
Also der gute linus hat schon eins und sagt dass ist wirklich nicht mehr mit Luft zu kühlen. Echt erinnert mich an meinen D955EX der war echt extrem trotz Nina3 Ultra Kühler.
Lässt sich durchaus noch mit Luft kühlen, jedoch muss man sich mehr denn je damit befassen. Mit Gehäusen die in der Lowklasse und mit Billiglüftern "glänzen" spielt sich das nicht mehr. Man wird sich mehr denn je mit dem Aufbau des Gehäuses befassen müssen. Wenn ich lese wie stolz manche sind ihr i9-9900k mit 85 Grad heizt würde ich gerne mal erfahren, wie lange sie im Sommer spielen, wenn es draußen 30 Grad plus hat. Das schreibt meisten keiner rein. Und wenn ich spiele will ich nicht eine Stunde spielen sondern mehrere wenn ich Zeit habe. Solche CPU Boliden werden mit kleinen Gehäusen und niedrig Preissegment nicht mehr akzeptabel in Sachen Temperatur laufen.
Hier würde ich mir einen Test von Computerbase wünschen, die exackt die gleiche Hardware in mehreren Gehäusen in selben Raum mit den selben Temperaturen usw. testen.