Test AMD Ryzen 3 3300X und 3100 im Test: Zen-2-CPUs mit 4 Kernen für den B550‑Chipsatz

Ihr seit eh alle auf dem Holzweg.

720p 1080p 1440p..

Alles Hupe.
Es kommt auf den RAM an.

Je schneller die Zugriffe der CPU desto mehr Daten muss der RAM verarbeiten können, also max RAM OC, Max GPU OC und erst dann sieht man, was eine CPU unter bestimmten Vorrausetzungen zu leisten im Stande ist.

Dass das fern ab jeglicher Alltagsbetriebe ist, lassen wir mal kurz unter den Tisch fallen..

Ich mag Igor seine Kladde. Es ist so erfrischend, wenn man mal nicht die Standard Texte lesen muss, dennoch verstehe ich beide Seiten der hier gewünschten Tests.

Es bringt einem nichts eine CPU zu testen indem die Grafikkarte oder der RAM limitiert, genauso wenig bringt es aber jemanden die Ergebnisse zu kennen und nicht entsprechende Hardware zuhaben.

Wie man bei den Community benches gesehen hat kommt es auch immer auf die Games an.

KCD z.B. rechnet die Schatten z.B. auf der CPU anstelle der GPU (wieso auch immer) ergo ist ein 9900k hier im Vorteil. Sagt das etwas über die CPU Performance in einem anderen Game aus?
Nein.

Es sagt nur, dass die Engine die Schatten nicht auf der Grafikkarte (die bei den Berechnungen schneller wäre) zum Einsatz kommt.

Andererseits kann man dadurch ableiten, dass CPU A gegen CPU B bei den Berechnungen der Schatten schneller ist.

Also wie man es macht, macht man es falsch.

Ich sage nur ein Wort.

Usecase.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iqhigherthanshi, adAstra, Arkada und 2 andere
Verangry schrieb:
Es kommt auf den RAM an.

Je schneller die Zugriffe der CPU desto mehr Daten muss der RAM verarbeiten können, also max RAM OC, Max GPU OC und erst dann sieht man, was eine CPU unter bestimmten Vorrausetzungen zu leisten im Stande ist.
Damit befinden wir uns aber Tief im OC Bereich, die Tests sollen ja erst mal nur zeigen, was die CPUs Stock leisten können, genau wie die GPU Tests Stock gemacht werden.
RAM übertakten gehört ja zur CPU, denn dort sitzt ja der Memory Controller.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Natürlich ist man das.

Aber was (wenn nicht stock vs stock) soll man denn vergleichen?
Da bietet sich halt an, den kleinsten gemeinsamer Nenner in der Auflösung (wenn es ginge 16x16 Pixel) zu nehmen und die CPUs zu vergleichen.

Bei entsprechend selben RAM Settings und Grafikkarten.
 
@Verangry @Taxxor

Was du beschreibst bekommt man mit synthetischen Tests erschlagen. Einfach Drystone/Wetstone/Linpack laufen lassen mit Datensätzen die der Größe der CPU Caches entsprechen (L1 Data, L2 und L3). Näher dran an das theoretische Maximum kommt man nicht. Mit größeren Datensätzen kann man dann testen wie gut das Prefetching ist.
Aber selbst da sind die ableitbaren Aussagen begrenzt.

Bei Spielen und ähnlich komplexen Programmen testet man sowieso immer den ganzen Softwarestack mit.
 
  • Gefällt mir
Reaktionen: adAstra
Die neuen CPUs sind also mit den 400er-Boards lauffähig garantiert, aber B550-Boards haben wegen angeblich zu kleinem BIOS-Speicher keine Unterstützung für ältere CPUs? D.h. 400er-Boards haben mehr BIOS-Flash-Kapazität als B550? Warum geizt man? So ein paar Megabyte Flash sind kein Kostentreiber.
 
  • Gefällt mir
Reaktionen: Volker und Ned Flanders
Taxxor schrieb:
Wenn wir aber nun denken, dass der 3100 zu 100fps in der Lage ist, denn die hat er ja im CPU limit mit der Titan erreicht, warum hat dann z.B. ein 3100 mit einer GTX1660 weniger fps als ein 3300X mit der GTX1660?

Was ist daran besonders? Das CPU Limit verläuft ja nie wie eine starre Gerade , sondern hat in dem Fall, wenn es ein Gemisch aus CPU und GPU Limit gibt, lokale maxima und lokale minima, wo das GPU Limit drüber wäre oder mal drunter.
Hier reicht die 1660 nicht ganz aus, damit die CPU permanent limitiert, eine 2080Ti/Titan schon so ziemlich.
Natürlich ist der FPS Verlauf an manchen Stellen mit der 1660 und dem 3300x höher als mit dem langsameren 3100.

Die Skalierung wäre an der Stelle überflüssig, wenn du den FPS Verlauf im annähernden CPU Limit (RTX Titan + 3100) + den Verlauf der 1660 im GPU Limit hättest und beide übereinanderlegst. Da hast du bereits nen soliden Vergleich.

Mit der Radeon 580 ist der Unterschied übrigens von 3100 zu 3300x größer, weil der Treiber, bzw die Architektur von Polaris einfach mehr CPU braucht, bei der 1660 wirds wieder kleiner.

Meiner Ansicht nach ist das ein unnötig hoher Testaufwand, der in keinem Verhältnis zum eigentlichen Nutzen steht. Da bringt es mehr die CPUs im CPU Limit zu testen und die GPU benchmarks gegenüber zu stellen, aber das wissen wir ja bereits.

Taxxor schrieb:
Dann kann das Ergebnis am Ende eben auch mal 2-3fps niedriger ausfallen, als man es mit dem Quervergleich bestimmt hat, das rechtfertigt für mich aber nicht den Aufwand, alles einzeln zu testen und ein Argument gegen einen 720p Test ist es auch nicht, da das für 1080p ebenso gilt.

Ja, nur sind das keine 2-3 FPS wenn man es ordentlich macht, sondern Messungenauigkeiten von ~1 oder 2%.
Ich kann auch eine Bulldozer CPU einsetzen und mit einer 5080Ti in 5 Jahren messen und dann noch gegenüber der 1080Ti das ein oder andere Prozent herausholen, obwohl eigentlich das Konstrukt aus CPU/RAM/Plattform schon limitierte.

Das eine oder andere Prozent bleibt ohnehin immer liegen.
Ergänzung ()

Verangry schrieb:
Ihr seit eh alle auf dem Holzweg.

720p 1080p 1440p..

Alles Hupe.
Es kommt auf den RAM an.

Den Einwurf verstehe ich nicht - der RAM läuft nach Möglichkeit stock - auf der GPU, wie auf dem Motherboard.
Mit den Auflösungen hat das gar nichts zu tun. Flotterer Speicher hebt natürlich das "CPU Limit", weil das immer die Kombination aus RAM/CPU/Plattform ist, aber deshalb muss ich ja nach Möglichkeit Tests in 720p beibehalten, ansonsten sehe ich den Nutzen aus flotterem Speicher gar nicht.

Verangry schrieb:
Je schneller die Zugriffe der CPU desto mehr Daten muss der RAM verarbeiten können, also max RAM OC, Max GPU OC und erst dann sieht man, was eine CPU unter bestimmten Vorrausetzungen zu leisten im Stande ist.

Stimme ich soweit überein, ausschließlich CPU-Stock Vergleiche sind langweilig. :)

Verangry schrieb:
Es bringt einem nichts eine CPU zu testen indem die Grafikkarte oder der RAM limitiert, genauso wenig bringt es aber jemanden die Ergebnisse zu kennen und nicht entsprechende Hardware zuhaben.

Irgendetwas limitiert ja immer, die CPU/Speicher Kombination oder die GPU und ganz selten läuft man einfach ins framecap des Spiels und wundert sich über 200 FPS auf jeder CPU/GPU Kombination.

Verangry schrieb:
Also wie man es macht, macht man es falsch.

Man kann ja auch auf 1080p testen und dafür die Auflösungsskalierung auf 0.5 einstellen.^^
 
Zuletzt bearbeitet von einem Moderator:
@FormatC @Ned Flanders

Noch ein paar Worte zum Thema lineare Skalierung und Extrapolation, auch als Ergänzung zum Beitrag von @KlaraElfer.

Ich für meinen Teil habe keine lineare Skalierung erwartet. So was wie GPU- oder CPU-Limit ist kein sprunghaftes Systemverhalten. Es verläuft fließend. Das zeigt der Test von Igor sehr schön. Von daher auf jeden Fall ein Informationsgewinn, wenn man den Artikel liest.

Es scheint weit verbreitet zu sein, dass ein GPU-Limit ab einer gewissen GPU-Auslastung vorliegt, ansonsten nicht. Die Leute erwarten also ein binäres Verhalten. Limit, ja oder nein. Aber das gibt es so nicht. Das ist keine belastbare Definition. Ein gute Definition wäre eher so was wie:

Wenn eine Erhöhung oder Absenkung der GPU-Leistung zu einer stärkeren Veränderung der Spieleleistung führt als eine Erhöhung oder Absenkung der CPU-Leistung, dann liegt ein GPU-Limit vor.

Formal hieße dies: Delta_GPUL/Delta_CPUL > 1 => GPU Limit

Das Ziel eines 720p Testes ist es demensprechend, Delta_GPUL/Delta_CPUL zu minimieren und das mit einer schnellen GPU und geschickten Settings. Das heißt auch nicht, dass man OC mit einem Chiller macht, sondern eben das Maximum aus dem rausholt, was man zur Verfügung hat. Das betrifft nicht nur das Equipment, sondern alle Ressourcen, auch die Zeit.

Die Lösung bzgl. der einknickenden Skalierung liegt einfach darin, was man halt auch intuitiv erwarten würde, eine Toleranz auf CPU-FPS eines 720p Tests zu packen, damit man auf der sicheren Seite ist. Man sollte ja eh keine CPU kaufen, mit der alles gerade so eben so auf Kante genäht ist.

Und zum Schluss noch paar Sätze zum Thema Extrapolation. Extrapolation ist immer möglich, denn heißt ja nichts anderes als Werte in die interpolierende Modellfunktion einzusetzen, die außerhalb des Interpolationsintervalls [a,b] liegen. 720p Tests also daran scheitern zu lassen, dass sie sich "angeblich" nicht linear extrapolieren lassen, ist "ziemlich sportlich".

Ich bin nun auch raus, was die Diskussion bzgl. der Testmethodik betrifft. Ich hoffe, dass @Volker den Ansatz ändert und zumindest die unseeligen UHD Tests mit 720p ersetzt. Wir werden sehen.

Ich widme mich nun wieder dem Battle mit Ian Cutress. ^^ Wir rendern Crysis auf der CPU über WARP. Sein letzter Stand war, dass er sein Dual Socket Epyc Sys ins Rennen schicken wollte... :daumen: Ich muss meinen 3950X jetzt mal wieder fit machen. Wärmeleitpaste kam gestern.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: KarlsruheArgus und KlaraElfer
Natürlich kannst du technisch gesehen extrapolieren, das bezweifelt ja keiner. Das kannst du mit allen Daten machen solange du mindestens 2 Punkte hast. Das musst du ja offensichtlich sogar. Da du aber nicht weisst und auch nicht überprüfen kannst ob sich System X über den gesamten Bereich linear oder auch nur annährend linear verhält kannst du für deine Extraploation noch nichtmal einen Unsicherheitswert angeben. Dafür bräuchtest du ja schon mindestens 3 Punkte und 720p-1080p-1440p wird die These "verhält sich linear" eben nicht bestätigen.

Vieleicht ist es am besten die CPUs mit einer Titan bei halber Clock Speed zu testen. Dann isses garantiert eine CPU Limit und man testet 1000MHz - 1500MHz - 3000MHz - 3500MHz, dann kannst du eine skalierungskurve erstellen und das Ding tatsächlich extrapolieren.

Anyway, wenn ich dir sag, ich meine nicht das sich das vernünftig linear verhält weil sich kaum etwas linear verhält und dir das sogar mit Daten zeige, dann tu mich halt als Spinner ab. Das ist ja mitlererweile in Foren nichts besonderes mehr. Ich hab damit übrigens keine Probleme weil mein Fell da schon dick genug ist. Das gleiche kannst du auch mit Igor machen. Der hat damit sicher auch keine Probleme. Ist aber der einzige von uns in dieser Diskussion der wenigstens eine ganze Karriere Erfahrung im Rücken hat.

Es zeigt aber deutlich, das unsere Meinungen dazu wirklich erschöpfend ausgetauscht sind. Von daher lassen wir es.

Viel Spass beim warpen... klingt cool!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
29 Seiten zum Teil echt BS

Alle Achtung ^^

Als man dann Format_C Versuchte noch seine technisch sehr hochwertigen Tests schlecht zu reden, war ich raus..
Das ist mit ein Grund, warum ich auch immer wieder rate Launchanalysen zu schauen.. Bei HWLuxx gab es einen P/L Award.. Der wäre auch hier bitter nötig gewesen.
Und wer von einem 2400 zB kommt, dem reicht so ein "Upgrade" Locker 5 Jahre.
 
  • Gefällt mir
Reaktionen: CuMeC, Tomsenq und Neronomicon
nazgul77 schrieb:
Die neuen CPUs sind also mit den 400er-Boards lauffähig garantiert, aber B550-Boards haben wegen angeblich zu kleinem BIOS-Speicher keine Unterstützung für ältere CPUs? D.h. 400er-Boards haben mehr BIOS-Flash-Kapazität als B550? Warum geizt man? So ein paar Megabyte Flash sind kein Kostentreiber.
Nö so, wie ich das verstanden habe supportet AMD keine ZEN3 auf älteren Chipsätzen....
Wie das im Endeffekt wohl aussieht, hängt wohl wieder von den Partnern ab und den verbauten BIOS-Chips.
Gibt ja auch A320er auf denen ZEN2 läuft (Zu diesen gehören ja die 3100/3300X).

Mal schauen, ob mein X370 noch mit den letzten AM4-CPUs läuft.
(Im schlimmsten Fall wäre sogar die MAX-Serie nicht upgradefähig)
Aber steht eh erst mal ein Upgrade zu ZEN2 an.
 
Ned Flanders schrieb:
Vieleicht ist es am besten die CPUs mit einer Titan bei halber Clock Speed zu testen. Dann isses garantiert eine CPU Limit und man testet 1000MHz - 1500MHz - 3000MHz - 3500MHz, dann kannst du eine skalierungskurve erstellen und das Ding tatsächlich extrapolieren.

Oder man macht es ganz simpel und rechnet eine Toleranz drauf, was man eh tun sollte. Die Abweichung vom linearen Verlauf beträgt ein paar Prozent und die CPU sollte eh ein paar Prozent schneller sein, damit man Reserven hat. Ich würde da jetzt nicht drauf rumreiten, das lenkt vom Wesentlichen ab.

Kurze Erklärung, was ich mit Toleranz meine. Angenommen, ein 720p Tests ergibt 80 FPS im CPU-Limit. Die Wunschgrafikkarte liefert auch 80 FPS, dann sollte man eher zur CPU greifen, die 90 oder sogar 100 FPS schafft. Mit dieser Toleranz ist man auf der sicheren Seite und gut gewappnet gegen den fiesen degressiven Kurvenverlauf.
-----------------------------------------------------------------------------------------------------------------------

Mal was anderes. Ich habe ein paar Latenztests mit meinem 3950X gemacht und dabei folgenden Szenarien betrachtet:

* 16 Kerne, 4 CCX, 4.6GHz
16_Cores_4_CCX_4.6GHz.png
* 4 Kerne, 2 CCX, 4.6GHz
4_Cores_2_CCX_4.6GHz.png
* 4 Kerne, 2 CCX, 3.9GHz
4_Cores_2_CCX_3.9GHz.png

Ich hätte gerne auch 4 Kerne mit 1 aktivem CCX getestet, aber mein BIOS gibt das Setting (4+0) nicht her. @Verangry wird das vielleicht demnächst auf seinem Board testen.

Man sieht sehr schön, dass das Abschalten von CCX Modulen die Latenzen verbessert. Das liegt vermutlich daran, dass das Grundrauschen der Core Kommunikation die IF Lanes zusätzlich belastet. Was mich wundert, dass die Latenz des L3 Caches besser wird. Der L3 ist ja gar nicht über den IF angebunden.

Zusätzlich habe ich einen Test mit 3.9GHz Core-Takt gemacht, um zu zeigen, dass der Core-Takt die Latenzen der gesamten Cache-Hierarchie beeinflusst.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: nazgul77
War das mit festem multi@4.6GHz?

Sonst kannst du die Latenz nicht zuverlässig messen, zumindest bei mir schwankt die sonst.

Die Caches laufen @CPU clock. Da ist es logisch das sich die Latenz mit dem Takt ändert.
 
KlaraElfer schrieb:
Warum beeinflusst der Coretakt die Memorylatenz?

Ich weiß es nicht. Ich muss mal irgendeinen Experten kontaktieren. Ich weiß nur, dass der L3 Cache bei Zen 2 keine eigene Clock Domain hat. Wenn man nun davon ausgeht, dass die Latenz ein gewichtetes Mittel aus Cache und RAM Latenzen ist...

Ned Flanders schrieb:
Die Caches laufen @CPU clock. Da ist es logisch das sich die Latenz mit dem Takt ändert.

Aber die RAM-Latenz? Warum die? Kann man mit Software die Cache-Hierarchie überspringen und direkt auf den RAM ohne Cache Misses zugreifen? Machen diese Tests das so? Oder ist es immer ein gewichtetes Mittel?
 
  • Gefällt mir
Reaktionen: Ned Flanders
Kann ich nicht beantworten, ich hab's immer auf die Latenz des Tests selbst geschoben, die bei niedrigeren CPU Takt oder dynamischem Taktverhalten höher ist. Schöner wäre sowieso eine Angabe in Taktzyklen.
 
Ned Flanders schrieb:
P.S. was hier übrigens so schön nahezu parallel in Log Darstellung aussieht ist ein Performance Unterschied im Range von Faktor .63 bis 4.4

Auch wenn es leicht off-topic ist - das Fass wurde nun geöffnet, also lasst uns das Bier trinken, solange es noch frisch und kühl ist ...

Nutzt die Matrixmultiplikationsroutine AVX-512 - so es denn verfügbar ist? Hier eröffnet sich dann nämlich eine neue Schwierigkeit: Fairer wären eigentlich für die Zielplattform optimierte Kompilate :D
 
KuestenNebel schrieb:
Fairer wären eigentlich für die Zielplattform optimierte Kompilate :D

Ich hab schon so lange kein kaltes Bier mehr getrunken, ich bin sofort dabei :-)

Was du siehst ist das jeweils optimierte. Also respektive AVX2 und AVX512. Sind übrigens nicht meine eigenen Messungen wie du aufgrund der Hardware vielleicht schon vermutet hast. Ist aber mit Blick auf die Überschrift dieses Themas hier vielleicht wirklich zu ot.
 
  • Gefällt mir
Reaktionen: adAstra
Sehe ich das richtige das der 3300X bis zum 9900KS die beste Quad-Core Performance hat, well done =)
 
Ein_Freund schrieb:
Sehe ich das richtige das der 3300X bis zum 9900KS die beste Quad-Core Performance hat, well done =)

Ein Quadcore mit 9900KS Taktraten und dem vollem Cache hätte wahrscheinlich noch eine leicht bessere Performance, aber die gibt es leider nur abgespeckt, deshalb denkt man wohl auch immer, dass mehr Kerne so gut skalieren, aber faktisch ab 4c8t minimal.
 
Zurück
Oben