Test AMD Ryzen 3000 im Test: Das ist die Krönung

in division 2 einfach auflösungsskalierung auf 50% und 720p. :)
 
Caramelito schrieb:
Reaktion von Intel oder Zufall durch Amazon UK?
Muß man abwarten - kann auch ne Eintagsfliege sein. Im Mindstar gab es den auch schon mal für 439.
Sie haben eigentlich keinen Grund was an den Preisen nachzulassen - sie liegen ja immer noch vorne.
 
Duvar schrieb:
Da geht noch was, die Stromschleudern sind fürn Preis von 400€ ok^^

So wäre man halt zw. 3700x (Vernunft) und 3900x (max Multithread Power) platziert und wäre dann quasi Mittendrin der "Gaming-King" und hätte mehr Anreize als zum Preis eines 12/24ers.
 
ZeroStrat schrieb:
The Division 2, interner Benchmark mit Ultra Settings. Hab den 9900k fast...

3900X@stock -> 212 Avg. FPS
9900k@5GHz -> 217 Avg. FPS

Welchen RAM benutzt du beim Intel und wie hoch ist der Cache Takt? Wesentlich wichtigere Info wie die 300 MHz auf der CPU.
Lass doch wenigstens die gleiche Auflösung mal durchlaufen?
 
Caramelito schrieb:

Eintagsfliege.

Wie gesagt, am Listenpreis hat sich beim 9900k absolut nichts geändert.

Das einzige was wir festgestellt haben: Seit der 3700X und 3900X verfügbar sind, liegen die 9900k wie Steine im Lager. Könnte sein das ein paar Händler den ab und an dann "rabattieren" um ihn los zu werden. Aber eine grundsätzliche Preissenkung gab es nicht.
 
ZeroStrat schrieb:
The Division 2, interner Benchmark mit Ultra Settings. Hab den 9900k fast...

3900X@stock -> 212 Avg. FPS
9900k@5GHz -> 217 Avg. FPS

und ich hab 122 , na ja , 1700x und RX 56 :D
 
Division war mit meinem 2600er sehr gut spielbar btw. An manchen stellen hat die CPI hebremst, aber da hatte man schon 100+ FPS.

Benched/vergleicht lieber Sachen wie Arma, WoW, und so n Crap-Zeug. Anthem auch btw :D
 
Ich habe mal die nächste Testreihe hinter mir und zwar das OC Potential der CCX.
Getestet wird mit dem Ryzen Master (Creator mode) und CB R20.

Der goldene Stern, also der beste Kern bei der CPU liegt in CCX1 bei mir:

P1 (aktuell gespeichertes Profil Nr.1 im Bios) mit 3.6GHz

CCX1 macht dicht bei 3.65GHz--> CB R20 Score 3255
CCX0 packt 3.7GHz --> CB R20 3267

P2 3.9GHz Profil

CCX1 3.925GHz CB R20 3501
CCX0 3.975GHz CB R20 3524

P3 4GHz Profil

CCX1 4GHz (packt keine 25MHz mehr)
CCX0 4.075GHz CB R20 3620

P4 4.1GHz Profil

CCX1 4.125GHz CB R20 3684
CCX0 4.150 CB R20 3708

P5 4.2GHz Profil (ab hier kehrt sich das OC Verhalten um und das bis jetzt bessere CCX wird plötzlich schlechter, auch interessant)

CCX1 4.225GHz CB R20 3787
CCX0 4.2GHz (failed bei 25 MHz mehr)

P6 4.275GHz Profil

CCX1 4.3GHz CB R20 3845
CCX0 4.275GHz (auch hier sind keine +25 MHz mehr drin)

Somit kristallisiert sich heraus, dass bei P1 satte 150MHz brach gelegen sind (beide CCX MHz Bonus Dreingaben zusammengerechnet).
P2 liefert 100MHz zusätzlich.
P3 gibt ein Plus von 75MHz
P4 auch +75
P5+P6 magere +25MHz

Das wars dann erstmal bzgl der CCX Analyse :D


Bonus Infos:
Rückblick--> Als ich die CPU neu verbaut hatte und alles noch mit 2133MHz CL15 RAM lief, hatte ich folgende Scores in CB R20:

P1 (3.6GHz) 3100 Punkte, jetzt 3267 Punkte
P2 (3.9GHz) 3332 Punkte, jetzt 3524 Punkte
P3 (4GHz) 3408 Punkte, jetzt 3620 Punkte
P4 (4.1GHz) 3523 Punkte, jetzt 3708 Punkte
P5 (4.2GHz) 3670 Punkte, jetzt 3787 Punkte

Resultat vom CCX Tuning + schnellerem RAM.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron-man, knoxxi, Unnu und 2 andere
aldaric schrieb:
Seit der 3700X und 3900X verfügbar sind, liegen die 9900k wie Steine im Lager.
Der Rückgang könnte daran liegen, dass viele Käufer auf eine Preissenkung durch Intel warten.

Aber wenn man sich Mindfactory-Zahlen anguckt, dann haben sie in den 11 Tagen seit 7. Juli (Ryzen 3000 Launch) rund 300 Stück von den 9900K verkauft. Das ist weniger als in den Vormonaten, aber jetzt nicht drastisch viel weniger.

Mindfactory vom 7.7.: https://web.archive.org/web/2019070...-i9-9900K-8x-3-60GHz-So-1151-WOF_1280054.html
Mindfactory aktuell: https://www.mindfactory.de/product_info.php/Intel-Core-i9-9900K-8x-3-60GHz-So-1151-WOF_1280054.html
CB-Artikel https://www.computerbase.de/2019-07/passmark-mindfactory-neue-zahlen-marktanteilen-amd/
 
@chithanh Aldaric meint das bestimmt aus Sicht des Großhandels. Kann auch sein, daß kaum welche nachebstellt wurden, denn sicherlich werden immer wieder welche verkauft.

Und MF vs. Passmark ist auch schwierig, weil MF Neuverkäufe betrachtet und Passmark Bestandshardware. Letztendlich bildet keiner der Indikatoren den gesamten Markt ab, weshalb man eigentlich gar nichts weiiß. :D
 
  • Gefällt mir
Reaktionen: GHad, aldaric und Unnu
oemmes schrieb:
Bei den Beispielbildern limitiert aber garnix - weder CPU noch GPU...

Aehm, in beiden Beispielen liegt komplettes CPU-limit an. Ein CPU-Limit tritt nicht erst bei 100% auf. :freak:
 
  • Gefällt mir
Reaktionen: oemmes und ZeroStrat
SKu schrieb:
Aehm, in beiden Beispielen liegt komplettes CPU-limit an. Ein CPU-Limit tritt nicht erst bei 100% auf. :freak:

Ich werde am WE die 2080 Ti ins Ryzen System packen und dann wiederhole ich die Tests bei exakt 720p. Dann hat das alles seine Richtigkeit...

Aber klar, wenn 1-2 Kerne am Anschlag laufen, kann bereits bei 10% Auslastung ein CPU Limit vorliegen.
 
  • Gefällt mir
Reaktionen: Unnu und DannyA4
BTW. In der Beschreibung zum Der Bauer Video findet sich das CCX-OC Tool, welches er im Video benutzt. Vielleicht hilfreich für den einen oder anderen.
 
  • Gefällt mir
Reaktionen: Gortha und Unnu
ZeroStrat schrieb:
Ich werde am WE die 2080 Ti ins Ryzen System packen und dann wiederhole ich die Tests bei exakt 720p. Dann hat das alles seine Richtigkeit...
Für einen Vergleich zwischen deinen System wäre das hilfreich. Könntest du dennoch ein definiertes Preset verwenden damit es für andere besser vergleichbar ist?

Mit meinem Custom Einstellungen und 720p + 50% Renderauflösung (1080 Ti ne lahme Krücke), komme ich auf 243 FPS. Ist aber total irrelevant, weil nicht vergleichbar.
 
@OZZHI Ja, und ich werde dann auch ordentliche CPU-Settings verwenden. Das Ultra Preset ist auch nicht das Gelbe vom Ei.
 
ZeroStrat schrieb:
Das Ultra Preset ist auch nicht das Gelbe vom Ei.
Doch ich finde schon. Denn auch da gibt es sicher das eine oder andere, welches CPU Leistung fordert. Deshalb sollte man ja nur die Auflösung absenken. Ich dachte nur, dass du mit Ultra max. Settings meintest.

yummycandy schrieb:
Sie hat unter 720p & 100% Renderauflösung limitiert. :p

Update: 228 FPS im 720p Ultra Preset & 50 Renderauflösung kommt selbst eine 1080 Ti ins schwitzen. Meine vorherigen Angaben könnt ihr vergessen.

benchmark_20190718_07h14m.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu und yummycandy
OZZHI schrieb:
Doch ich finde schon. Denn auch da gibt es sicher das eine oder andere, welches CPU Leistung fordert. Deshalb sollte man ja nur die Auflösung absenken. Ich dachte nur, dass du mit Ultra max. Settings meintest.

Ne, das Ultra Preset fordert die Grafikkarte zu sehr, die CPU dagegen aber teils noch zu wenig (Sichtweite, Streaming usw.).
 
  • Gefällt mir
Reaktionen: OZZHI und DannyA4
ZeroStrat schrieb:
Ich werde am WE die 2080 Ti ins Ryzen System packen und dann wiederhole ich die Tests bei exakt 720p. Dann hat das alles seine Richtigkeit...

Aber klar, wenn 1-2 Kerne am Anschlag laufen, kann bereits bei 10% Auslastung ein CPU Limit vorliegen.

Was man nicht machen darf, ist die Resolution Scale zu ändern. Ich habe das mal bei mir getestet.
720p 100% Resolution Scale Preset Ultra, Volumetric Fog auf Low, AF und AA auf Minimum. 225FPS AVG mit meinem 8700K.
720p 50% Resolution Scale Preset Ultra, Volumetric Fog auf Low, AF und AA auf Minimum. 245FPS AVG mit meinem 8700K.

Meine Vermutung ist, dass zwar die GPU intern in einer niedrigeren Auflösung rendert aber dabei auch die Last auf die CPU reduziert wird. Schatten haben immer Impact auf GPU und CPU z.B. Wenn die Schatten mit niedrigerer Aufösung gerendert werden, reduziert das auch die Last auf CPU-Seite.

Ich wollte ja mal Vergleichsvideos erstellen aber ich schaffe es nicht das GPU-Bottleneck zu beseitigen. Ich habe es mit Streamlabs OBS, OBS Studio und auch Bandicam versucht aber überall habe ich selbst bei 1024x768 ein GPU-Bottleneck, weil die Programme selbst GPU-Power beanspruchen.

Dass einzige was man machen kann ist mittels CapFrameX z.B. mit einer Stichprobe von 5 Durchläufen den Mittelwert zu bilden und dann mittels Diagramm darstellen, wenn man die CPU-Performance testen will.

Daher kann man meiner Meinung nach auch Youtube-Videos total in die Tonne kloppen, wo die Ersteller die Performanceunterschiede Side-by-Side mit OSD darstellen wollen.
 
  • Gefällt mir
Reaktionen: iron-man, oemmes, OZZHI und 2 andere
Zurück
Oben