Test Ryzen 7 5700X & Ryzen 5 5500 im Test: AMDs kleinste 8- und 6-Kern-Zen-3-CPUs sind zu spät dran

Mehr Auflösungen, höherer Testaufwand. =>

Zwirbelkatz schrieb:
Damit du den vom Aufwand her machbarsten Indikator für mögliche zukünftige Reserven, zB nach dem Kauf einer starken Grafikkarte in 3 Jahren, hast.

Wäre vllt. möglich mit mehr CB-Pro Kunden. (Ich weiß, sie liefern ja jetzt schon nicht, was "ihr" wollt ;)
 
Randalmaker schrieb:
Wenn sie also diese Tests bereits machen, spricht in meinen Augen nichts dagegen, auch WQHD durchzuführen. Das ist zumindest deutlich praktikabler als 4K.
Was ist das für eine Argumentation? Wenn ihr euch schon den unnötigen Aufwand für FHD und 4K macht, dann könnt ihr euch jetzt auch einfach noch den ebenfalls unnötigen Aufwand in WQHD machen?

Einfache Geschichte: Ich finde 4K durchaus noch interessant. Auch wenn die CPUs dort sehr eng zusammen sind, kann man durchaus noch Unterschiede in den Frametimes erkennen. Und das kann dann tatsächlich schon wieder relevant sein, wenn ich unter 4K unterwegs bin.
Und FHD ist halt nach wie vor die am weitesten verbreitete Auflösung. Und in WQHD kommt vermutlich eher nicht die Frage auf, ob die CPU reicht, sondern ob meine GPU noch reicht.

Um mal das 4K-Beispiel zu nehmen:
5500 vs 3600 in Battlefield
Der 3600 schafft 2% mehr Frames, der 5500 liegt bei den Frametimes plötzlich 13% vorne.

Gehen wir zum 1080p-Benchmark der beiden im Test, bleibt beim Durchschnitt der 3600 vorne, der 5500 liegt hier aber nur noch 7% bei den Frametimes vorne.

Weiter zu 720p: Selbes Bild beim Durchschnitt, der Unterschied bei den Frametimes ist quasi nicht mehr vorhanden. Heißt aus dem 4k Benchmark kann ich zumindest erkennen, dass ein 5500 mir im GPU-Limit scheinbar konstantere Frames liefert, als ein 3600.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: seadersn
Moinsen,
tolle CPU und für mich ein guter Test.
Sie wird ab 200€ meinen 5600x B2 ersetzen, den ich einfach verkaufen werde.
Gleiches Verhalten bei der TDP und dem EDC. Mit PPT 82 Watt, EDC 95A und dem Curved Opti
komme ich auf ALLcore 4,3 - 4,35 GHz Cinebench r23. Orign. und ohne CO selbige 4GHz allcore.

Ich Dinosaurier spiele mein CSGO tatsächlich immer auf der Max FPS der CPU.
Hier ist mir die Graka sowas von egal, denn ich stelle die Graka Einstellungen nur low-mid-high ein,
damit ich möglichst alle FPS habe und viel sehe= viele Frames = viele Frags = Fame!

Saludos
 
.Snoopy. schrieb:
Danke an CB für den Test der beiden AMD CPUs. Wenn ich den Verbrauch und die Temperaturen vom 5700X ggü. dem 5800X sehe, frage ich mich, läuft der 5800X echt so hart am Limit? Denn der 5700X ist ja kaum langsamer.
Nein der läuft nicht am Limit, sondern ist vom AMD so eingebremst um ihn zum 5900 und 5950 abzugrenzen, wenn man die Boost Begrenzung rausnimmt geht er allein auf +200 (5050) ohne das PL zu erhöhen, also wie der Boost vom 5950, curve optimizer hilft dann das der Takt auch anliegt.
 
Bruder_Joe schrieb:
wenn man die Boost Begrenzung rausnimmt geht er allein auf +200 (5050) ohne das PL zu erhöhen
Aber auch nur auf 1-2 Kernen oder eben unter Teillast(Gaming).
In Cinebench kommst du nicht weiter ohne die Limits zu erhöhen und wenn du das tust, kommst du ohne extreme Kühlung auch nicht viel weiter bis du an die 90°C stößt, wenn du es je nach Kühlung nicht bereits Stock tust.

Hier zeigt der 5700X eben, dass man mit fast der Hälfte des Verbrauchs nur 11% an Multicore Performance verliert.
Also diese letzten 11% brauchen deutlich mehr Power.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Snoopy.
Taxxor schrieb:
Aber auch nur auf 1-2 Kernen oder eben unter Teillast(Gaming).
In Cinebench kommst du nicht weiter ohne die Limits zu erhöhen und wenn du das tust, kommst du ohne extreme Kühlung auch nicht viel weiter bis du an die 90°C stößt, wenn du es je nach Kühlung nicht bereits Stock tust.

Hier zeigt der 5700X eben, dass man mit fast der Hälfte des Verbrauchs nur 11% an Multicore Performance verliert.
Also diese letzten 11% brauchen deutlich mehr Power.
Bin so bei Max 70 Unter silent Luft Kühlung beim spielen, also Teillast, ist nur nen reiner Gaming Rechner.
Da ich kein kein Cinebench oder Prime spiele brauch ich aber auch kein höheres PL.
Wer die meiste Leistung möchte wird ungern auf 11% verzichten, aber ja wer die Leistung nicht benötigt kauft niedriger.

Wollte auch nur drauf hinaus dass der 5800x nicht Stock am Limit läuft, sondern am von AMD gesetzten Limit, bzw.. an der kurzen Leine.
 
alan_Shore schrieb:
Joooo. Ich habe letztes Jahr einen 5800X gekauft und der wird noch lange reichen. Daher sind mir die neuen CPUs völlig egal.
hey, voll klasse, dass Du uns das mitgeteilt hast.
 
  • Gefällt mir
Reaktionen: Pro_Bro, Sly123 und seadersn
  • Gefällt mir
Reaktionen: seadersn
HanneloreHorst schrieb:
AMD passiert nun das, was wohl jeder Firma passiert mit starker Konkurrenz, mal bist du besser, mal bist du schlechter.
Eigentlich ein ganz normaler Gang, schließlich versucht die Konkurrenz ja auch etwas Neues und AMD, das sieht man daran, das erst mit Zen 5 BigLittle kommt, hat sich eben erst mal etwas ausgeruht bzw. war nicht so unter Zugzwang was das bereitstellen von Innovationen angeht, daher haben sie jetzt mit Zen 3+ und wahrscheinlich auch mit Zen4 etwas "das Intel" gemacht und springen halt nur gerade so hoch wie sie es müssen.

naicorion schrieb:
Schön zu sehen - alle Hersteller sind gleich. Kaum hat AMD ein paar Jahre Ruhe vor Intel, stellen auch sie die Arbeit komplett ein und ruhen sich aus, bis sie wieder hintendran sind. Also warten wir jetzt 3 Jahre, bis der "8800x" wieder gut wird
Woran macht ihr fest, dass AMD sich "ausruht"? Ich nehme das momentan anders war:
1. Im Server-Bereich wischen sie mit der aktuellen und laut Gerüchten wohl auch mit zukünftigen Intel Generationen den Boden auf.
2. Mit RDNA2 sind sie das erste mal wieder im High-End konkurrenzfähig und werden mit RDNA3 nach allem was bislang bekannt ist wohl zumindest die technologische Führung im GPU Bereich übernehmen.
3. Mit dem 5800X3D zeigt man, dass man sich eben nicht ausruht sondern weiter nach kreativen Lösungen sucht und diese auch findet und zur Marktreife bringt. Im Gaming-Bereich erreicht man damit die Leistung der Intel-Top CPU bei einem Bruchteil der Leistungsaufnahme und bei geringerem Preis.
4. Zen 4 steht im Herbst an. Wir wissen noch recht wenig über die Leistungsfähigkeit dieser Architektur, aber es werden sicher mehr als die typischen +5% zu Zeiten des Intel-Quasi-Monopols (die Dekade vor Zen 1).

Außerdem ist Alder-Lake zwar ein enormer Schritt nach vorn, aber die großen Vorzüge der bigLITTLE Architektur gegenüber dem klassischen Ansatz (z.B. R9 5950X) habe ich jetzt noch nicht wahrgenommen. Daher sehe ich momentan keine Notwendigkeit für AMD, so schnell wie möglich auf diesen Ansatz umzusteigen. Und schon gar nicht lässt sich damit ein "Ausruhen" belegen.
 
  • Gefällt mir
Reaktionen: ArrakisSand
@Perdakles
Ich glaube bei AMD ruht sich niemand aus, wenn du aber schon ein Produkt hast, dass sehr gut im Wettbewerb steht, dein Marketing gut läuft und die Verkaufszahlen sehr gut sind und auch gut bleiben, egal ob du nur Mini-Steps machst, dann gehst du natürlich keine Risiken ein und verteilst enorme Mengen für R&D um.
AMD hat das Geld vor allem erst mal verwendet um zu wachsen.
Z.B. Von der Xilinx Übernahme spüren wir als Verbraucher ja erst mal nichts, auch von den guten Werten im Serverbereich kommt ja bei uns wenig an.
Für uns ist doch relevant, ob die CPUs zu Preis X und Leistung Y bei Desktop und Mobil liefern, das tun sie aber der Fortschritt stagniert doch eher, während Intel gezwungen war was anderes zu probieren.
Was ich mir einfach von AMD wünsche ist eine noch bessere Mobil-Performance auch, vor allem Effizienz, die ist gut aber wie auch bei Intel und nVidia, ohne Strom kommt wenig Leistung rum, das nervt.
RDNA 2 war ein genialer Step zu RDNA1 und Navi aber auch hier, die Karten sind wann zu erwarten? 2023? Ich meine wenn es sie wirklich zu kaufen gibt.
Zen 4 ähnlich und hier ist eben noch kein effizienteres BigLittle an Board.
Der große Cache ist halt eher eine Sonderlösung der nur in wenigen Anwendungen wirklich mehr bringt, da wünsche ich mir mehr Kreativität über die Range hinweg.

Von daher ist es eher so gemeint, das nicht mehr so viele „überraschendes“ gerade kommt und angeteased wird, man merkt das der Druck erstmal bei Intel liegt.
Faul sind sie sicher nicht, nur wenn die Verkäufe gut laufen, dann hält man auch Innovationen zurück, ich glaube dafür gibt es sogar ein Marktbegriff, Apple tut das regelmäßig, immer nur so viel neu machen, das man neu drauf schreiben kann und Intel hat das halt auch ewig gemacht.

Aber ich bin auch der erste der AMD lobt wenn Zen4 und RDNA3 Leistungs- und Effizienzmonster werden.
 
  • Gefällt mir
Reaktionen: Perdakles
HanneloreHorst schrieb:
RDNA 2 war ein genialer Step zu RDNA1 und Navi aber auch hier, die Karten sind wann zu erwarten? 2023? Ich meine wenn es sie wirklich zu kaufen gibt.
Zen 4 ähnlich...
Es ist doch aber so, dass der "späte" Markteintritt der neuen Generationen vornehmlich mit der neuen Fertigung zu tun hat. Erst wenn Apple die 5nm Ressourcen mittels Umstieg auf 3nm frei macht können andere diese nutzen. Es ist ja nicht so, dass andere Marktteilnehmer (Nvidia) die nächste Generation viel schneller auf den Markt bringen.

Aber grundsätzlich gebe ich dir recht. Es ist nur menschlich sich auf seinen Lorbeeren auszuruhen. Auch wenn man das vielleicht nur unterbewusst macht. Aber ein bewusstes Verzögern neuer Technologien oder ganzer Generationen ist für mich nicht zu erkennen.
 
Der 5700X also um soviel kühler wie der 5800X?
 
alkaAdeluxx schrieb:
Ich mein wenn man aus allen defekten 5950x mindestens einen 5600x machen kann, sind doch alle CPUs die da drunter angesiedelt sind doch obsolet, aber anscheinend gibt es sogar noch so defekte Chips, die es nicht mal zur 5600x schaffen, ansonsten kann ich aus Wirtschaftlicher sicht, den move von AMD nicht verstehen.
Es gibt fast immer einen Markt für günstigere Produkte. Sonst könnten alle CPU Hersteller die ganzen Einstiegsmodelle streichen. Das Silizium wäre oft zu mehr fähig (höhere Taktraten aber auch zb mehr Kerne, diese werden dann künstlich deaktiviert). Und solange das insgesamt immer noch profitabel ist macht es für die Hersteller sehr wohl Sinn. Es ist eben nicht möglich, alle Chips zum Preis der Topmodelle zu verkaufen, selbst wenn die Chips dazu technisch imstande wären.
 
Die Overclocking-Tests waren mir aber arg sparsam.
Alleine durch das aufheben des Powerlimits auf 100W steigt die Taktrate in einem fiktiven nicht genannten Lastszenario um satte 450 MHz auf 4,4 GHz. Welches Lastszenario wurde hier benutzt?
Die Temperatur steigt zwar um 20 Grad auf knapp über 70 Grad ist aber immer noch 20 Grad unter dem 5800X.

Beim Test des 5800X wurden mit Blender Multicore 4,53 GHz angegeben.

Die Frage ist jetzt ob auch hier beim 5700X Blender benutzt wurde?

Nur durch das anheben des Powerlimits um 24 Watt rückt der 5700X gefährlich nahe an den 5800X heran ohne dass die Temperaturen kritisch werden, wenn die Preise für den 5700X noch etwas purzeln wäre das die klare Empfehlung.
Da wurde ein wichtiger Punkt sehr schnell abgefrühstückt.
 
Soll das (wo LT) eigentlich without limit bedeuten?

5700.png
 
  • Gefällt mir
Reaktionen: DeadEternity
Daniel# schrieb:
Ja, in den Alder Lake Tests wird es immer erwähnt.
Das bedeutet dauerhaft ohne Powerlimit.

Entsprechend steigen Temperaturen und Leistungsaufnahme stark an.
Und die AMD CPUs werden mit Limit getestet? Ist das dann überhaupt vergleichbar?
 
  • Gefällt mir
Reaktionen: DeadEternity
Meiner Meinung nach ist das einen Milchmädchenrechnung und ist NICHT vergleichbar.
 
  • Gefällt mir
Reaktionen: DeadEternity
kachiri schrieb:
Der 3D-Cache macht hier wirklich nur beim "Flaggschiff" Sinn.
Naja ich denke mal größerer Cache macht meistens Sinn.
Die Frage ist aber nur wie sich das auf den Preis auswirkt.
3DCache hat halt den Vorteil dass es weniger Chipfläche benötigt da gestapelt.
Vielleicht gibt es in Zukunft auch noch mehr Cache denn wie man sieht profitieren die Min-FPS enorm davon.
 
Zurück
Oben