Test AMD Ryzen 3 3300X und 3100 im Test: Zen-2-CPUs mit 4 Kernen für den B550‑Chipsatz

Taxxor schrieb:
Das lustige ist doch, dass man gerade man mit 720p Tests das komplette Spetrum abdeckt, während man mit 1080p Tests Informationen verliert.
Moin,

eben nicht, siehe Igors Test.


mfg
thornhill
 
thornhill schrieb:
eben nicht, siehe Igors Test.

Der geneigte Käufer eines 3300X, der aktuell nur eine RTX2060 im Rechner hat, kann sich aus einem 720p CPU Test genau die gleichen Infos ziehen, wie aus einem 1080p Test.
FPS des 3300X in 720p checken(max Leistung der CPU), FPS der 2060 in der gewünschten Auflösung checken(max Leistung der GPU) -> der niedrigere der beiden Werte ist die zu erwartende Performance.

Derjenige, der auf einen 3900X oder 9900K schielt und eine 2080Ti besitzt, die er auch Ende des Jahres mit einer 3080Ti ersetzen will, kann aus einem 1080p Test aber keine relevanten Informationen gewinnen, da die CPUs in 1080p Ultra öfter durch die 2080Ti limitiert werden, ein Limit, welches der Nutzer in ein paar Monaten aber nicht mehr haben wird und somit mit dem Test nicht weiß, ob und in welchem Maß die Unterschiede zwischen 3900X und 9900K mit der 3080Ti größer werden.

Oder was ist mit dem 2080Ti Nutzer, der sich 120fps als persönliches Ziel gesetzt hat, die Top 5 CPUs aber im 1080p Ultra Test alle zwischen 100 und 103fps liegen, weil die 2080Ti limitiert?
Dieser Nutzer würde die Settings von "Ultra" auf "Sehr Hoch" reduzieren, um an seine 120fps zu kommen, kein Problem für die 2080Ti, aber auch kein Problem für die 5 Top CPUs? Welche von denen würden die 120fps denn mitmachen? Waren 1-2 der CPUs vielleicht mit den 100fps sogar schon an ihrem Limit? 720p hätte es verraten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gnodab, trialgod, KlaraElfer und 3 andere
Bringt glaub ich nix mehr, die Diskussion. Man stößt auf taube Ohren.
Beide Tests machen Sinn und auch Igor, dessen großer Fan ich bin, trifft die Aussage, das beides, wenn richtig durchgeführt Sinn macht.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
Wobei die angesprochene Thematik mit dem ständigen neu benchen, die er bei 720p Tests angeführt hat, doch eher auf 1080p Tests zutrifft, denn hier müssen spätestens mit erscheinen der 3080Ti alle CPU Tests wiederholt werden, nicht nur die im allgemeinen CPU Parcour sondern auch alle Einzeltests von anderen Spielen, da jemand, der sich den Einzeltest zu einem Spiel außerhalb des Parcours ein paar Monate später anschaut, wenn die 3080Ti draußen ist, die falschen Infos über die CPU Leistung bekommt.
Indem man mit 720p das Limit der 2080Ti weitestgehend entfernt hat, bieten die Tests viel länger brauchbare Informationen, da sie auch für eine 3080Ti in 1080p noch Gültigkeit besitzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
Der 3100 mit guten OC Settings wäre noch sehr interessant im Benchmark! Wenn der wirklich mit 4,5 GHz stabil läuft, dann oha. Damit wäre die Gaming Leistung ja nochmals deutlich höher. Und das für hoffentlich 80€ Marktpreis ... Kein schlechtes Angebot.
 
@Taxxor
Igor hat den feinen Schachzug gemacht es Momentaufnahme zu nennen und nicht CPU Test ;-)

Du darfst manchen nicht mit Logik und Fakten kommen.
Das überfordert.
Du musst komplexe Dinge mit nem Einsilber beantworten.

Das ist gewollt ;-)
 
Taxxor schrieb:
Das lustige ist doch, dass man gerade man mit 720p Tests das komplette Spetrum abdeckt, während man mit 1080p Tests Informationen verliert.
Und wie genau ließt du die Effizienz aus dem 720p Test raus? Erklär mal, bin ich sehr gespannt
Im CPU Limit saugt die CPU immer maximal - schöne Aussagekraft fürs praktische spielen...
um nur einen einzelnen Aspekt zu erwähnen -> darum braucht bei Igor auch die CPU so wenig Saft ;-)

aber es ist eh bereits alles gesagt
 
peru3232 schrieb:
Und wie genau ließt du die Effizienz aus dem 720p Test raus? Erklär mal, bin ich sehr gespannt
Im CPU Limit saugt die CPU immer maximal - schöne Aussagekraft fürs praktische spielen...
Es geht doch nur um die maximal mögliche CPU Leistung, die Effizienz variiert sowieso je nach kombinierter GPU und Settings.
Jemandem ohne 2080Ti sagt der Verbrauchswert einer CPU beim Spielen in 1080p genausowenig(oder jemandem mit 2080Ti der aber in 1440p spielt), da die CPU bei ihm viel weniger ausgelastet sein wird.
 
Esenel schrieb:
@Taxxor
Igor hat den feinen Schachzug gemacht es Momentaufnahme zu nennen und nicht CPU Test ;-)

Du darfst manchen nicht mit Logik und Fakten kommen.
Das überfordert.
Du musst komplexe Dinge mit nem Einsilber beantworten.

Das ist gewollt ;-)
manche machen eben nur 100% theoretische Benchmarks - andere wollen die CPUs auch mal wirklich benutzen
somit prallen Welten aufeinander - nur einige sind dann auch noch gewillt BEIDES zu akzeptieren und entsprechend zu gewichten
 
peru3232 schrieb:
Und wie genau ließt du die Effizienz aus dem 720p Test raus? Erklär mal, bin ich sehr gespannt
Im CPU Limit saugt die CPU immer maximal - schöne Aussagekraft fürs praktische spielen...
um nur einen einzelnen Aspekt zu erwähnen -> darum braucht bei Igor auch die CPU so wenig Saft

Bester Kommentar.
Bei AMD willst Teillast für die Effizienz sehen und bei Intel dann nach den 200W Volllast ohne Limitierung verlangen.

:hammer_alt:
 
MeisterOek schrieb:
Haha, ich war ja schockiert, als ich die Benchmarks angeschaut hab, der 3300X schneller als mein 7700K :pcangry:
Naja noch läuft das meiste flott genug und wahrscheinlich noch eine ganze Weile, aber krasser Lob an AMD, hatte ich damals als ich den 7700 gekauft habe nicht mit rechnen können.
Hehe, das hätte wahrscheinlich keiner noch so wirklich ahnen können, es sei denn, er hätte ne gut funktionierende Glaskugel 🔮.

Aber daran sieht man mal, wie gut AMD mit seinen Ryzens das Prozessorgeschehen aufgewirbelt hat und wieviel Leistung man jetzt für so wenig Geld bekommt. Und wie bitter nötig das einfach war... 😉
 
KlaasKersting schrieb:
Ich halte CBs Fazit für zutreffender.

Wegen 35€ Preisunterschied soll man statt auf 6C/12T auf 4C/8T gehen? Bei quasi identischer Leistung pro Kern?

Wenn man ein komplettes System baut, sind 35€ ein Rundungsfehler. Mit Case, NT, Board, RAM, GPU sind das 5% mehr Budget für 50% mehr Kerne.
Gibt halt Leute die arbeiten mit Budgets. Wenn es nach deiner Rechnung geht, kann man immer noch ein Schüppchen drauflegen, bis man bei dem teuersten Prozessort ist :)
Ich sag mal so, man müsste dann Statt 129 Euro 168 Euro zahlen, bei aktuellen Preisen. Anzunehmen ist, dass die 129 Euro noch weniger werden. Wenn man also entweder das Budget nicht hat oder die Leistung/Kerne nicht braucht, warum sollte man dann erheblich mehr zahlen wollen?

Für mich ist der AMD Ryzen 3300X der beste Einstiegsgaming Prozessor. Nicht nur von der Leistung, auch vom Preis her.
 
Taxxor schrieb:
Es geht doch nur um die maximal mögliche CPU Leistung, die Effizienz variiert sowieso je nach kombinierter GPU und Settings.
Jemandem ohne 2080Ti sagt der Verbrauchswert einer CPU beim Spielen in 1080p genausowenig(oder jemandem mit 2080Ti der aber in 1440p spielt), da die CPU bei ihm viel weniger ausgelastet sein wird.
dir vielleicht(wahrscheinlich) allerdings finde ich in der Testbezeichnung
 
@peru3232
Verbrauchs- bzw. Effizienzmessungen sind im Gegensatz zu CPU Leistungstest wirklich etwas, was für unterschiedliche Szenarien gemessen werden muss.
Bei der Leistung ist es egal, da muss der Nutzer nur wissen, ob die gewünschte CPU über Punk X kommen kann, Punkt X ist in dem Fall die Leistung seiner eigenen GPU.
z.B. seine GPU kann in dem Spiel 80fps, die CPU die er sich holt, kann 120 -> Passt

Beim Verbrauch, interessiert den Nutzer aber, wie effizient die CPU an genau diesem Punkt X, also bei 80fps arbeitet.

Wenn man also wirklich brauchbare Effizienzmessungen für CPUs in Spielen machen wollen würde, dann müsste man mit FPS Limitern arbeiten und für jede CPU mindestens 3-4 Tests machen mit verschiedenen Limits, die sich im Bereich der Unterschiede der GPUs befinden, dann hätte jeder Nutzer einen Annäherungswert für seine Kombi.
Nur wer will sich den Aufwand machen?


Als Beispiel: Mit einer 2080Ti kombiniert, läuft in einem Spiel der 3800X auf Anschlag, der 9900K hat noch etwas Luft, da er von der 2080Ti teilweise limitiert wird, bringt dabei trotzdem etwas mehr FPS und verbraucht gleich viel. Die Effizienz steht am Ende also zugunsten des 9900K.

Was sagt dieser Wert aber nun für den Nutzer einer 2080, wo auch der 3800X nicht mehr auf Anschlag läuft und somit das Perf/Watt Verhältniss steigen sollte? Ist der 9900K dann immer noch effizienter?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und Esenel
Das ist doch das schöne an der Geschichte.
Man kann verschiedene Tests, mit verschiedenen Schwerpunkten lesen. Wenn beide sauber gearbeitet haben, bringt dass für jeden der sich darauf einlässt einen Mehrwert.
 
  • Gefällt mir
Reaktionen: HerrRossi, or2k und Esenel
TR2013 schrieb:
Das ist doch das schöne an der Geschichte.
Man kann verschiedene Tests, mit verschiedenen Schwerpunkten lesen. Wenn beide sauber gearbeitet haben, bringt dass für jeden der sich darauf einlässt einen Mehrwert.
Für 1080p und 720p CPU Test gilt das aber eben nicht, die Infos die ich mir aus einem 720p Test ziehen kann, sind die gleichen, die ich mit auch aus einem 1080p Test ziehen kann + noch mehr.
Beim 1080p Test kann ich so lange Diagramme vergleichen wie ich will, an die zusätzlichen Infos die der 720p Test liefert, komme ich nicht ran.
 
  • Gefällt mir
Reaktionen: KarlsruheArgus, KlaraElfer und Esenel
Taxxor schrieb:
Für 1080p und 720p CPU Test gilt das aber eben nicht, die Infos die ich mir aus einem 720p Test ziehen kann, sind die gleichen, die ich mit auch aus einem 1080p Test ziehen kann + noch mehr.
Beim 1080p Test kann ich so lange Diagramme vergleichen wie ich will, an die zusätzlichen Infos die der 720p Test liefert, komme ich nicht ran.
Ja, eh. Wenn ich schreibe mehrere Tests sind gut dann meine ich damit unter anderem, dass einer mit 720p nicht fehlen sollte. Trotzdem finde ich den Zugang von Igor auch nicht unnütz für aktuelle Käufer die sich die beste Kombi aus CPU und GPU bei begrenztem Budget suchen wollen.
 
Zurück
Oben