Test AMD Ryzen 3 3300X und 3100 im Test: Zen-2-CPUs mit 4 Kernen für den B550‑Chipsatz

Also bei deinen ganzen "es sei denn" in deinem Text müsste dir ja eigentlich auch selber irgendwann aufgefallen sein, dass Du keine spezifischen Prognosen angeben kannst. Außerdem, müsste dir auffallen, dass du zur Bildung deiner Meinung die 720p Benchmarks gar nicht gebraucht hast.

Da frag ich nochmal, wo ist der Mehrwert für den Kaufinteressierten? Meinst du wirklich du kannst die FPS aus GraKa bei 8K und CPU bei 640p auftragen und dann aus dem Kreuzpunkt ableiten, was die Hardware unter 1080p/2K bei einem Spiel, das in drei Jahren released wird, leistet? Ich halte das für eher irreführend.

Just wondering
 
@Taxxor oder @ all: So wie ich es bisher verstanden habe, muss man dann nur auf die 720p Werte achten und kann daraus dann auf höhere Auflösungen schließen?

Ich hab dazu eine Verständnisfrage. Ich nutze noch einen 2700K mit 4,5GHz und möchte bald aufrüsten. Im Test von CB werden viele Intel Generationen verglichen. Bei den 99th Percentile Diagrammen ist z.B. der 7700K @ stock 12% schneller als der 2600k @ 4,6GHz (was ungefähr meinem Setup entspricht, auch vom RAM). Unter 2160p wächst der Vorsprung des 7700K @ stock allerdings auf 28%. Müsste es deiner Erklärung nach nicht anders herum sein? Gibt es vllt. noch andere Faktoren, die das beeinflussen? Letzendlich ist das 2160p Diagramm dann sinnvoller für mich, da ich auch in 2160p spiele. Würde es nur den 720p Vergleich geben, würde ich das dann anders einschätzen aufgrund der Werte. Das 2160p Diagramm sagt mir aber etwas anderes (nämlich dass der 2600K @ 4,5GHz in 4k noch weiter abfällt als unter 720p).

Da ich eine 1080 habe und in 4k spiele, denke ich ein 3300X würde völlig ausreichen. Liege ich mit meiner Annahme richtig? Dann lieber in zwei oder drei Jahren wieder eine neue CPU kaufen mit neuer Technik und gesteigerter IPC. Macht doch mehr Sinn, als jetzt 300€ für einen 3700X ausgeben, mit dem ich unter 4k keine bis kaum Vorteile habe (beim Spielen). Dann spare ich mir doch lieber die 170€ und rüste eher wieder auf. Ich denke in zwei bis drei Generationen wird auch ein 3700X von einer 150€ CPU geschlagen.

Ja ich weiß, es ist stark davon abhängig, welche Spiele ich spiele. Daher möchte ich das eher allgemein betrachten. Ich kann mir schwer vorstellen, dass bei neuen AAA Games Prozessoren mit nur 8 Threads auf einmal stark einbrechen. Ich weiß auch nicht, ob das im Sinne der Spieelindustrie ist, damit einfach 80% der Gamer "abzuschneiden" (die Zahl habe ich einfach mal aus der Luft gegriffen, ich denke nur ein geringer Teil - allgemein, nicht hier im Forum - hat mehr als 8 Threads, und das sind vorwiegend AMD User).

Es ist einfach sehr schwer einzuschätzen. Ich spiele mit FPS Limiter bei 57 FPS (wegen GSYNC Compatible, mein Monitor hat max 60 Hz).

Meiner Meinung nach sind 720p CPU-Tests für Laien (!) etwas irreführend, da sie einen deutlich höheren Unterschied suggerieren, als er tatsächlich in der Realität dann auftritt. Leider sind viele User nicht in der Lage, das richtig zu lesen und zu erkennen. Dann sieht man nur unter 720p ist CPU A 30% schneller also kaufe ich die mit meiner 1650 Super. Im Endeffekt hätte man aber deutlich mehr Leistung wenn man anstatt CPU A eine etwas langsamere und günstigere nimmt und dafür mehr in eine bessere GPU investiert, wie es hier vor mir schon aufgegriffen wurde.

Bei Leuten, die ein begrenztes Budget haben, geht es doch immer um die Frage wie bekommen ich damit die beste Leistung?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra und Ned Flanders
Ned Flanders schrieb:
Da frag ich nochmal, wo ist der Mehrwert für den Kaufinteressierten?

Das kann doch nicht dein Ernst sein? Ich hätte jetzt am letzten von dir erwartet, dass du den Sinn von 720p benches nicht verstehst, man testet ja schließlich auch eine 2080Ti nicht mit einem Pentium Gold, dafür nimmt man auch einen OC 9900K, oder wo ist der Mehrwert für den Kaufinteressenten, wenn in den GPU Tests ein 9900K verwendet wird. Da sagt ja auch keiner, dass ein Ryzen 1700 besser wäre, weil den evtl. mehr benutzen.:freak:

Am ende willst du damit ja bloß Spielbarkeitstest eines Systems mit zufälligen Komponenten, also ner 2060Super mit nem 8400F, keine Ahnung was das bringt.

Ned Flanders schrieb:
Meinst du wirklich du kannst die FPS aus GraKa bei 8K und CPU bei 640p auftragen und dann aus dem Kreuzpunkt ableiten, was die Hardware unter 1080p/2K bei einem Spiel, das in drei Jahren released wird, leistet? Ich halte das für eher irreführend.

Das Argument ist schlicht Whataboutism oder moving the goalposts. Natürlich kann man das nicht.
Aber du kannst zu 99% sagen, welche CPU dort performen wird und welche nicht, indem du halt einfach vorher ordentlich testest und nicht die CPUs im GPU Limit vergleichst...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: PPPP, KarlsruheArgus und ZeroStrat
Ned Flanders schrieb:
Vorrausgesetzt das verhält sich alles linear über die verschiedenen Plattformen.
Es verhält sich linear zum Setup.
Solltest du eigentlich wissen.
Ned Flanders schrieb:
Und linear über die zukünftigen Software Releases, dann könnte man aus den 720p tests vieleicht auch was sinnvolles ableiten.
Da bringste aber einiges durcheinander.
 
Puscha schrieb:
Ich hab dazu eine Verständnisfrage. Ich nutze noch einen 2700K mit 4,5GHz und möchte bald aufrüsten. Im Test von CB werden viele Intel Generationen verglichen. Bei den 99th Percentile Diagrammen ist z.B. der 7700K @ stock 12% schneller als der 2600k @ 4,6GHz (was ungefähr meinem Setup entspricht, auch vom RAM). Unter 2160p wächst der Vorsprung des 7700K @ stock allerdings auf 28%. Müsste es deiner Erklärung nach nicht anders herum sein? Gibt es vllt. noch andere Faktoren, die das beeinflussen?
Klar, die GPU^^ Frametime Spikes können ja auch von der GPU kommen, in 4K natürlich deutlich öfter.
Da der 2600K hier in 4K abgefallen ist, alle anderen CPUs aber nicht, könnte an der speziellen Kombi mit dieser CPU und der verwendeten GPU liegen, die average fps zeigen ja auf der anderen Seite das Gewohnte Bild in der der Abstand zum 7700K kleiner wird je höher die Auflösung geht.
 
  • Gefällt mir
Reaktionen: Puscha
KarlsruheArgus schrieb:
Da bringste aber einiges durcheinander.

Da musst du mich schon aufklären.... Woher weisst du denn, dass sich die Leistungsfähigkeit der CPUx auf Plattform Y zwischen Tests mit 720p und 4k linear verhalten. Da kann ja ein haufen overhead entstehen von dem wir nichts wissen. Du kannst es ja auch nichtmal messen (was meiner Argumentation nun sehr entgegen kommt) weil vorher die GPU limitiert. Alles was man machen kann ist sich mal die verschiedenen GraKas anschauen ob die sich alle linear zwischen hohen und niedrigen Auflösungen verhalten und das tun sie ja offensichtlich nicht. Und auf zukünftige Software kannst du doch eh nix extrapolieren. ;-)
 
Ned Flanders schrieb:
Da musst du mich schon aufklären.... Woher weisst du denn, dass sich die Leistungsfähigkeit der CPUx auf Plattform Y zwischen Tests mit 720p und 4k linear verhalten. Du kannst es ja nichtmal messen weil vorher die GPU limitiert. Alles was man machen kann ist sich mal die verschiedenen GraKas anschauen ob die sich alle linear zwischen hohen und niedrigen Auflösungen verhalten und das tun sie ja offensichtlich nicht. Und auf zukünftige Software kannst du doch eh nix extrapolieren.

Als wenn Games sich in den nächsten 2-3 Jahren großartig anders verhalten werden... :rolleyes:
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: PPPP
Puscha schrieb:
Meiner Meinung nach sind 720p CPU-Tests für Laien (!) etwas irreführend, da sie einen deutlich höheren Unterschied suggerieren, als er tatsächlich in der Realität dann auftritt. Leider sind viele User nicht in der Lage, das richtig zu lesen und zu erkennen. Dann sieht man nur unter 720p ist CPU A 30% schneller also kaufe ich die mit meiner 1650 Super. Im Endeffekt hätte man aber deutlich mehr Leistung wenn man anstatt CPU A eine etwas langsamere und günstigere nimmt und dafür mehr in eine bessere GPU investiert, wie es hier vor mir schon aufgegriffen wurde.
Du vergisst das der Laie sich dann auch noch den GPU Benchmark anschauen muss. Wenn er dann sieht was er von der GPU zu erwarten hat kann er dementsprechend die CPU für die passenden Frametimes wählen. So wie du das beschreibst schaut der Laie nur in den CPU Benchmark und kauft dann.
Außerdem suggeriert der 720p Benchmark nix sondern zeigt jediglich die Fakten auf. Deshalb ist auch dein Beispiel ein Paradebeispiel für Leute die die 1080p Benchmark von CB brauchen. Alle anderen nehmen die von PCGH.
Und wenn du schon solche CPUs vergleicht wie aus deinem Test (2017) dann würde ich auch noch die 1080p miteinbeziehen denn spätestens dann müsste dir aufffallen das etwas nicht ganz rund lief bei dem Test. Den die Stockwerte sämtlicher CPUs passen, die der OC nicht.
i7-2600K@4.6+2133 vs i7 7700K@4.8+3866
720p: 100 zu 126
1080p: 100 zu 109
2160p: 100 zu 133

Stock:
i7-2600Kvs i7 7700K
720p: 100 zu 154
1080p: 100 zu 154
2160p: 100 zu 149

merkste was ?
Ergänzung ()

Ned Flanders schrieb:
Da musst du mich schon aufklären.... Woher weisst du denn, dass sich die Leistungsfähigkeit der CPUx auf Plattform Y zwischen Tests mit 720p und 4k linear verhalten.
Was ein 720p Benchmark aussagt:
Definierte CPU auf definiertem Unterbau erlaubt einen Vergleich der CPUs untereinander im CPU Limit.
In deisem Szenario skaliert die CPU sehr wohl.
Und falls du dich an dem Begriff "linear" aufhängst. Er ist nahezu linear. Die CPU muss in 720p, bei selben Settings, die gleichen Arbeiten verrichten wie in 2160p nur die GPU kommt nicht mehr hinterher und limitiert.
Den bei einer Änderung der Auflösung ist die GPU betroffen nicht die CPU, die CPU übernimmt nämlich auflösungunabhängige Arbeiten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, PPPP und Taxxor
Ich habe spaßeshalber mal 720p mit max. und min.Details gebencht - einmal mit einer 2080 Ti, einmal mit einer Titan RTX und einmal mit einer Quadro RTX 6000. Alle unter Wasser und OC (bis auf die Quadro, die auch so mit 2,05 lief). Die Titan RTX zieht auch eine 2080 Ti noch einmal ordentlich ab, also müsste man, wenn schon 720p, dann mit einer grenzwertig auf 2.2 GHz übertakteten Titan RTX testen. Aber hat man das? Ich rieche auch hier GPU-Limits, vor allem bei den max. Details. :D

Man wird immer Argumente für und gegen etwas finden und mögliche Fehlerquellen sowieso. Ich bin mit den Zugriffen jedenfalls zufrieden, was am Ende zeigt, das es so falsch nicht gewesen sein kann.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Tzk, adAstra, Luxmanl525 und 4 andere
KarlsruheArgus schrieb:
Er ist nahezu linear.

ich hab's schon beruflicherseits nicht so mit Annahmen die nicht durch Daten belegbar sind. Das mag zutreffen oder auch nicht, es gibt ja durchaus vorstellbar Gründe warum sich Mixed workloads innerhalb einer CPU mit limitierten Ressourcen nicht linear verhalten... Beispielsweise RAM und Cache Latenzen. Ich will euch auch die 720p Messungen nicht wegnehmen, nur der individuelle benefit steht ja auch individueller Irreführung gegenüber und das darf man schon Mal abwägen.

Wenn ich all diese 720p Ergebnisse so super in die Zukunft übertragen lassen, warum haben wir denn überhaupt noch CPU Empfehlungen jenseits eines 9600k/3300x? Das ist doch alles rausgeworfenes Geld. 9600k oder 3300x und feddich. Wir wissen ja jetzt um die Leistungsfähigkeit. Das problem des sterilen Benchtables war ja auch nie eines.

Um zum Punkt zu kommen. Jenseits einer technischen Analyse zu der ich mir 720p Benchmarks sogar wünsche kommt eben die Verantwortung, dass man einem stillen Kaufinteressenten erklären muss, dass das Benchmark Ergebnis nur die halbe Wahrheit ist. Und ich hab keinen Bock drauf das ständig in den Foren klären zu müssen, und drei Viertel der Argumentierenden hab ich noch nie im Problemlösungsforum oder in der Kaufberatung gesehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra
Ned Flanders schrieb:
Wenn ich all diese 720p Ergebnisse so super in die Zukunft übertragen lassen, warum haben wir denn überhaupt noch CPU Empfehlungen jenseits eines 9600k/3300x?

Macht auch sehr selten Sinn. Aber zumindest ein wenig Luft nach oben schadet bei den aktuell kleinen Preisen für einen 6-Kerner bestimmt nicht.

Ein 3950X/9960X lohnt sich für jemanden der rendert, nicht für jemand der Spiele spielen möchte. Keine 0,1% der Spiele sind in der Lage überhaupt mehr als 4 Kerne zu nutzen. Und Blockbuster sind da nicht wirklich dabei ... von heute auf morgen, sprich die nächsten Jahre, wird sich das auch nicht groß ändern, Game Engines zu parallelisieren ist wohl nicht das einfachste Unterfangen.
Wer doch ein Spiel findet das 6 Kerne „benötigt“ ist wie gesagt günstig mit einem Ryzen 3600 dran, bei dem “kleinen“ Preisunterschied würde ich grundsätzlich zum 3600 greifen, das muss jedoch jeder für sich entscheiden.
Da viele aber “aufwendiges“ Multitasking wie Battle.net oder Firefox mit einem Youtube Fenster im Hintergrund laufen haben, wird eben doch gerne ein 12 oder gleich ein 16-Kerner empfohlen, frei nach dem Motto lieber zu viel, als zu wenig :rolleyes:
 
  • Gefällt mir
Reaktionen: adAstra
Ned Flanders schrieb:
Wenn ich all diese 720p Ergebnisse so super in die Zukunft übertragen lassen,.....
Darüber hab ich nix geschrieben und dem gegenüber stehe ich kritisch. Ein CPU Benchmark ist eine Momentaufnahme unterschiedlicher CPUs in einem Szenar was man sehr gut als vergleich nehmen kann.
Von diesem Benchmark aus Rückschlüsse für die nächsten Jahre zu ziehen find ich zweifelhaft, dafür ist der Hardware-/Softwaremarkt zu schnelllebig. Solange das Szenar aber gleich bleibt kann man auch Rückschlüsse auf die Zukunftsfähigkeit machen, allerdings nur begrenzt. Deshalb halte ich von solchem Zukunftgebrabbel nix.

Ich bleib dabei, auch in der Kaufberatung, beschafft wird das was den Bedarf deckt, bzw wird es versucht.
Wer sich jetzt für die Zukunft rüstet hat wohl eine ziemlich große Glaskugel, dieser darf mir gerne per PN die nächsten Lottozahlen verraten.
Ergänzung ()

FormatC schrieb:
Ich bin mit den Zugriffen jedenfalls zufrieden, was am Ende zeigt, das es so falsch nicht gewesen sein kann.
War es auch nicht, nur wenn Leute deinen Benchmark nehmen um 720p Benchmarks ad absurdum zu erklären empfinde ich das als sauerei.
Ergänzung ()

Ned Flanders schrieb:
Und ich hab keinen Bock drauf das ständig in den Foren klären zu müssen, und drei Viertel der Argumentierenden hab ich noch nie im Problemlösungsforum oder in der Kaufberatung gesehen.
Das stimmt leider, weshalb ich auch die 1080p CPU Benchmarks von CB sehr begrüße. Sie vereinfachen zumindest die Argumentation wenn mal in der Kaufberatung fragen aufkommen.
 
Zuletzt bearbeitet:
Warum empfiehlst du 2017 einen Ryzen 1700 für Gaming, wenn die CPU damals schon einem 7700K erheblich unterlegen ist und versteifst dich auf zukünftige MT Entwicklungen die in dem Ausmaß völlig spekulativ sind, während Spiele in 720p eine viel solidere Grundlage dafür liefern, was CPUs morgen in Praxisauflösungen leisten , wenn man die Grafikkarte der nächsten Generationen auslasten möchte.

Dass man heute eher einen Ryzen 5 3600 nimmt anstatt des 3300X, wenn das System länger halten soll ist offensichtlich,ein wenig Reserve kann nie schaden.

Hier und da setzt sich der 3600 auch ein kleines Stück ab.
 
Ned Flanders schrieb:
Und ich hab keinen Bock drauf das ständig in den Foren klären zu müssen, und drei Viertel der Argumentierenden hab ich noch nie im Problemlösungsforum oder in der Kaufberatung gesehen.

Die CPU wird bei den Tests ohnehin mit einer 2080Ti gepaart. Wenn ich schon versuche einen GPU Einfluss aus dem Weg zu gehen, kann ich es auch gleich richtig machen.

Wissen wie viel meine GPU leistet und mit welcher CPU ich sie sinnigerweise kombiniere, sehe ich auch in den GPU Benchmarks, die ich sowieso ansehen muss, denn die 2080 Ti gilt sowieso für wenige als Maßstab.
Gehe ich danach, brauch ich auch keine genauen Tests, reicht ja wenn ich schaue ob die CPU 60 FPS bringt :D
 
Einfallslos^99 schrieb:
oder zB. von GTX 1650 S auf GTX 1660 S (ca. 40 € Unterschied).

Wie kommst du auf einen Unterschied von 40 Euro zwischen den genannten Karten? Wenn ich die PNY Single-Fan ignoriere, dann liegen 70 Euro zwischen der günstigsten 1650 Super und der günstigsten 1660 Super:

https://geizhals.de/inno3d-geforce-gtx-1650-super-twin-x2-oc-n165s2-04d6x-1720va31-a2181378.html

https://geizhals.de/inno3d-geforce-gtx-1660-super-twin-x2-n166s2-06d6-1712va15l-a2167540.html
 
@KarlsruheArgus
Ich eigne mich eh nicht als Argumentationshilfe :D

Damit 720p klappt, muss man vorher alle anderen Flaschenhälse beseitigen. Dazu gehört die schnellste Grafikkarte auf dem Markt, die man bekommen kann, übertaktet und auf unter 40 Grad gewässert, damit die Taktraten konstant bleiben. Und das ist keine 2080 Ti. Wie hoch taktet man den RAM oder nutzt man den nur nach den Specs? Hat man vorab Messreihen zur Skalierung gemacht und wenn ja, sind die einsehbar?

Denn ein Problem steht bei Skalierungen immer: die Kappung. Wie stelle ich dar, dass ab einer gewissen GPU-Leistung die CPU nur noch gleiche FPS ausspuckt oder sogar weniger? Genau deswegen und weil ich die Skalierung nicht so plausibel hinbekommen habe, wie ich sie mir wünsche, habe ich es wieder verworfen. Die ist nämlich nur annähernd linear. :)

Es wird immer ein Pro und Kontra geben, für oder gegen alle Herangehensweisen, logisch. Aber welche Religion ist die richtige oder aber anders gefragt: braucht man eine Religion?
 
  • Gefällt mir
Reaktionen: Tzk, Rockstar85, Javeran und 4 andere
FormatC schrieb:
Damit 720p klappt, muss man vorher alle anderen Flaschenhälse beseitigen. Dazu gehört die schnellste Grafikkarte auf dem Markt, die man bekommen kann, übertaktet und auf unter 40 Grad gewässert, damit die Taktraten konstant bleiben. Und das ist keine 2080 Ti. Wie hoch taktet man den RAM oder nutzt man den nur nach den Specs? Hat man vorab Messreihen zur Skalierung gemacht und wenn ja, sind die einsehbar?

Ich verstehe nicht, wie jemand mit deiner Erfahrung auf so was kommt. :confused_alt: Man muss halt die richtigen Settings wählen. AA/AF/AO gehen auf die GPU und gehören aus, Post Processing auch und zur Not gibt's noch die Render Skalierung. Dafür brauchts keine OC Ti, nur eine gute Custom.

So Bullshit Settings wie z.B. Volumetrische Wolken in AC:Od sind Sonderfälle, muss man halt ausprobieren.

Dass so was wie Raytracing natürlich abgeschaltet gehört ist ja vollkommen klar. Wenn man das nicht weiß, dann gute Nacht. In dem Fall sollte man sich eine andere Beschäftigung suchen, z.B. Enten füttern im Park. :D Hab ich zum Glück noch nirgends gesehen bei einem CPU Test.

Letztlich kannst du doch einfach mal Nsight anwerfen und dir die Drawcalls anschauen. Ist doch keine Magie...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: KlaraElfer und Duvar
FormatC schrieb:
Ich habe spaßeshalber mal 720p mit max. und min.Details gebencht - einmal mit einer 2080 Ti, einmal mit einer Titan RTX und einmal mit einer Quadro RTX 6000. Alle unter Wasser und OC (bis auf die Quadro, die auch so mit 2,05 lief). Die Titan RTX zieht auch eine 2080 Ti noch einmal ordentlich ab, also müsste man, wenn schon 720p, dann mit einer grenzwertig auf 2.2 GHz übertakteten Titan RTX testen. Aber hat man das? Ich rieche auch hier GPU-Limits, vor allem bei den max. Details. :D

Man wird immer Argumente für und gegen etwas finden und mögliche Fehlerquellen sowieso. Ich bin mit den Zugriffen jedenfalls zufrieden, was am Ende zeigt, das es so falsch nicht gewesen sein kann.
Du bist doch ein logisch denkender Mensch, der Wert auf Fakten bzw "richtige" Werte legt, wie zB bei deinen Leistungsaufnahmemessungen. Verstehe nicht, warum du dich gegen 720p Tests sträubst. Sagst ja selbst in 720p max Settings riechst du (in welchem Game auch immer) GPU Limits, selbst mit einer stark übertakteten RTX Titan.
Was du aber machst, ist noch schlimmer, wenn du in 720p etwas aus der Ferne riechst, was machst du dann in 1080p, da riechst du nicht mehr, sondern stehst mit beiden Füßen mitten in der Sch...^^
Sagtest doch, dass dir der Aufwand zu groß wäre bei den 720p Settings, sprich du gibst ja zu, dass die 720 Tests eigentlich besser, da korrekter sind bzw viel näher an der Wahrheit...
Ganz einfache Frage an dich:
Was veranschaulicht die CPU Performance besser 720p oder deine Methode?
Zugriffe auf den Artikel sind kein Beweis dafür, dass deine Methode besser ist.
 
  • Gefällt mir
Reaktionen: KarlsruheArgus, KlaraElfer und Esenel
ZeroStrat schrieb:
Ich verstehe nicht, wie jemand mit deiner Erfahrung auf so was kommt.

Ist halt auch nur noch auf Klick aus.

FormatC schrieb:
Ich bin mit den Zugriffen jedenfalls zufrieden, was am Ende zeigt, das es so falsch nicht gewesen sein kann.
 
Zurück
Oben