Test Ryzen 5 3600X & 7 3800X im Test: AMDs Prozessor-Duo auf verlorenem Posten

JoeDoe2018 schrieb:
Ich finde die Preise für den Marktstart schon sehr gut. Die AMD verschleudert die CPUs schon. Vor 2 Jahren gab es gleiche Intel CPUs für 2000€ und jetzt kostet die AMD CPU gerade noch knapp über 300€ die Firma macht so gut wie kein Gewinn.

Unwahrscheinlich. Ein Chiplet soll mit Packaging und allem drum und dran preislich angeblich bei ~74 $ liegen. Der 6-Kerner ist teildefekt und wird für 199 $ verkauft. Die Marge ist sogar seit Zen+ gestiegen.

Und nur weil Intel die CPUs für 2000 € verkauft hat, heißt das nicht, dass die auch nur annähernd so viel mehr in der Produktion gekostet haben.
 
  • Gefällt mir
Reaktionen: iron-man und Tanzmusikus
Shelung schrieb:
Sollten es die schlechteren sein währe das aus meiner subjektiven Sicht Kundenverarsche.
Das ist es ja, weshalb sich die Leute aufregen.....weil die teureren Chips eben keine besseren Chips sind....sie werden nur mit mehr Spannung ausgequetscht.

Haut man mehr Spannung auf schlechten Chips, boosten sie auch mal höher als gute Chips mit niedirger Spannung.
....wobei die Chips ohne X auch nicht gut sind....die sind eigentlich auch schlecht....gut wird man wohl nur in TR oder rome sehen...ganz eventuell im kommenden 16 Kerner.

Beim 12 Kerner gibt es das Gerücht, es wäre immer ein gutes(das erste) und eine schlechtes Chiplet(das zweite), sodass eines den versprochenen Boost packt aber am zweiten Chiplet spart man dann.
Da bin ich sehr skeptisch...ich halte es für wahrscheinlicher, dass es andere Gründe wie eine schlechtere Kühlung oder schlechtere Spannungsversorgung am zweiten Chiplet sind, die da zu Unterschieden führen.

Aber die Ergebnisse der reviews und der OC Erfahrungen der Community lassen keinen Zweifel daran, dass 3600X und 3800X Kundenverarsche sind....beim 3800X bin ich mir noch nicht sicher.
 
  • Gefällt mir
Reaktionen: iron-man
Baal Netbeck schrieb:
Aber die Ergebnisse der reviews und der OC Erfahrungen der Community lassen keinen Zweifel daran, dass 3600X und 3800X Kundenverarsche sind....beim 3800X bin ich mir noch nicht sicher.

Ich finde es ein wenig übertrieben von Kundenverarsche zu sprechen. Die verschiedenen Preisbereiche werden durch die Produkte gut abgedeckt. Zudem ist auch klar, dass PBO momentan total verbuggt ist und man auf ein neues AGESA warten muss, damit es gefixt wird.

Sollten diese eintreffen, kann man erstmal sehen ob die Chips dann auch mehr rausholen. Grundsätzlich aber von "Verarschung / Täuschung" zu sprechen ist schon ein wenig übertrieben.
 
  • Gefällt mir
Reaktionen: nazgul77, darkcrawler, snipe1337 und 3 andere
Inras schrieb:
"Der 3600X und der 3800X scheinen beide die CPUs zu sein, die gerade so das Binning geschafft haben, weshalb ihnen der Dienst als effizientes und stromsparenderes Modell verwehrt und nur die „Resterampe“ bei rund 100 Watt blieb. "
Also beim 3600X muss das kein schlechtes Modell der Resterampe sein. Er könnte genauso gut/schlecht in der Streuung liegen wie der 3600.

Nur weil der 3600X mit 95W eine höhere TDP-Klassifizierung bekommen hat, heißt das ja nicht, dass er auch 30W mehr als der 3600 verbraucht. Ohne XFR wird der wohl genauso viel verbrauchen wie der 3600. Mit XFR natürlich etwas mehr, weil er ständig ans Limit getaktet wird. Das werden vlt. 5-15W mehr sein, also ~67-80W maximal. Dafür schafft er dann bis zu 1fps mehr in Spielen bei FullHD. :daumen:

Schade finde ich, dass XFR so aggressiv eingestellt ist. Es werden (bei meinem 2700X jedenfalls) schon im Idle bei einer kaum merkenswerten Last einzelne/mehrere Kerne alle paar (Milli-)Sekunden mit über 1,4V auf über 4GHz geboostet.

Warum schaltet sich XFR denn nicht erst bei einer Auslastung von über 50/60% o.s. ein? :confused_alt:
Gerne würde ich die jeweiligen XFR-Schwellenwerte selbst regeln wie früher mit RMClock oder K10stat:

RmClock_.jpg . . . K10Stat_.jpg

Grüße, TM
 
aldaric schrieb:
Ich finde es ein wenig übertrieben von Kundenverarsche zu sprechen. Die verschiedenen Preisbereiche werden durch die Produkte gut abgedeckt.

Nunja, man bekommt ein Fitzelchen mehr Leistung und so wie es aussieht sogar noch den schlechteren Chip.
Sieht für mich schon ein wenig nach Kundentäuschung aus und würde auch erklären, warum AMD die Prozessoren nicht gesampelt hat.

Banned schrieb:
Da steht ganz klar: ROG Strix B450-F --> keine Unterstützung für PCIeX16_1!

Lass ihn doch, ich habe ihm auch schon gesagt, dass AMD dies ohne technische Begründung sperrt und die Boardhersteller das trotzdem bringen wollten.
AMD will eben durch neue Chipsätze Geld verdienen, ansonsten wären die X570er ja auch fast umsonst und würden sich für niemanden lohnen. Mir reicht eine GPU und SSD die mit PCIe 4.0 angebunden ist.
Wahrscheinlich wird es der Ryzen 5 3600 werden, der hat die beste Preisleistung.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Banned
Banned schrieb:
Da steht ganz klar: ROG Strix B450-F --> keine Unterstützung für PCIeX16_1!

Und trotzdem war es von ASUS das erste bedachte Board mit dem Beta Bios und wurde auch die ganze Zeit immer zuerst mit neuen Versionen beliefert. Wobei das ja ziemlich egal ist, wenn man die Kommentare und reddit weiter verfolgt ist es auf anderen (auch unterstützten) Boards nicht besser. Und scheinbar sowieso jetzt komplett eingemottet.
 
KlaraElfer schrieb:
Nunja, man bekommt ein Fitzelchen mehr Leistung und so wie es aussieht sogar noch den schlechteren Chip.
Sieht für mich schon ein wenig nach Kundentäuschung aus und würde auch erklären, warum AMD die Prozessoren nicht gesampelt hat.
Ich würde in der ganzen Sache generell erst mal ne Weile abwarten, bis die BIOS Situation komplett geregelt ist.
Dann könnten wir nämlich auch wirklich etwas größere Unterschiede zwischen den CPUs sehen, als hier im Test.
 
  • Gefällt mir
Reaktionen: McTheRipper
Taxxor schrieb:
Ich würde in der ganzen Sache generell erst mal ne Weile abwarten, bis die BIOS Situation komplett geregelt ist.
Dann könnten wir nämlich auch wirklich etwas größere Unterschiede zwischen den CPUs sehen, als hier im Test.

Dann muss das aber ein Zauber-Bios sein, welches mit noch höherer Spannung + Verbrauch hantiert.
Kann ich mir ehrlichgesagt nicht vorstellen.
aldaric schrieb:
Und trotzdem war es von ASUS das erste bedachte Board mit dem Beta Bios und wurde auch die ganze Zeit immer zuerst mit neuen Versionen beliefert.

Wie schon häufiger gesagt, liegst du falsch, da bringt es bei Widerlegung deines Arguments mit diesem Board, auch nicht daran festzuhalten. Das Board war nie für PCIe 4.0 von ASUS freigeschaltet.
Demnach ist die ganze Argumentationskette darauf basierend nicht korrekt.

Das was funktionieren sollte, war nur die M.2 Anbindung über PCIe 4.0.
 
Taxxor schrieb:
Kaufe einen 3600, aktiviere PBO mit +200MHz und stelle die Werte für PPT, TDC und EDC manuell auf die des 3600X, und du hast einen 3600X
Bin Neuling was die Übertaktung von AMD CPU´s angeht, meine letzte CPU die ich übertaktet habe war ein i5-2500k, da war das noch recht einfach. Wo bekomm ich die Werte von PPT, TDC und EDC eines 3600X denn her?
 
KlaraElfer schrieb:
Dann muss das aber ein Zauber-Bios sein, welches mit noch höherer Spannung + Verbrauch hantiert.
Kann ich mir ehrlichgesagt nicht vorstellen.
Es muss gar nicht mit höherer Spannung hantieren sondern Default weniger Spannung nutzen.
Denn die auto Spannungen sind scheinbar einfach oft etwas hoch momentan, weshalb der 3900X z.B. bei manchen Boards nur auf 4.3 boostet, während andere auf 4.5 kommen, wobei beide ähnliche Spannungen anliegen haben.

Atlan3000 schrieb:
Bin Neuling was die Übertaktung von AMD CPU´s angeht, meine letzte CPU die ich übertaktet habe war ein i5-2500k, da war das noch recht einfach. Wo bekomm ich die Werte von PPT, TDC und EDC eines 3600X denn her?
Jemanden mit einem 3600X fragen, was bei ihm im Ryzen Master steht^^

Hier stehen die Werte für die anderen
https://www.computerbase.de/2019-07/amd-ryzen-3000-test/6/

Die des 3600X stehen dort nicht, aber du kannst dir aus den Abständen den 3600X auch ca errechnen.

PPT=128W
TDC=85W
EDC=130A
 
  • Gefällt mir
Reaktionen: iron-man und Tanzmusikus
Sly123 schrieb:
Hat sich nicht durchgesetzt weil's sinnlos ist.
Es ist auch insofern nicht sinnvoll, als die Nickel-Beschichtung des Heatspreaders ein viel größeres Problem hinsichtlich der Wärmeleitfähigkeit darstellt. Da kann man mehr erreichen, indem man den Heatspreader abschleift, um das Kupfer unter dem Nickel freizulegen. Das alleine soll bis zu 4 Grad Differenz bringen.
 
  • Gefällt mir
Reaktionen: Sly123
KlaraElfer schrieb:
Wie schon häufiger gesagt, liegst du falsch, da bringt es bei Widerlegung deines Arguments mit diesem Board, auch nicht daran festzuhalten. Das Board war nie für PCIe 4.0 von ASUS freigeschaltet.
Demnach ist die ganze Argumentationskette darauf basierend nicht korrekt.

Das was funktionieren sollte, war nur die M.2 Anbindung über PCIe 4.0.

Von ASUS ist kein einziges Board mehr für PCIe4.0 freigeschaltet, da AMD kein finales AGESA liefern wird. ASUS verweist mittlerweile darauf, dass alte Chipsätze kein PCIe4.0 bekommen.

Was von ASUS "freigeschaltet" wurde / nicht wurde ist mittlerweile irrelevant. Denn sie haben das Beta Bios für das genannte Board online gestellt und Leute zum Testen aufgerufen. Du kannst auch gerne reddit weiter verfolgen, denn dort gibt es die identischen Probleme auch mit Boards die laut ASUS funktionieren.
 
aldaric schrieb:
Von ASUS ist kein einziges Board mehr für PCIe4.0 freigeschaltet...
Das ist korrekt, aber der Grund wieso sie es gesperrt haben, war eben nicht an dem besagten Board festzumachen, welches du als Argument benutzt hast und behauptetest,es funktioniere nicht zuverlässig, sondern das Board war von Anfang an nicht zugelassen am ersten PCIe Steckplatz mit 4.0 zu arbeiten.

aldaric schrieb:
Du kannst auch gerne reddit weiter verfolgen, denn dort gibt es die identischen Probleme auch mit Boards die laut ASUS funktionieren.

Welche Boards sind das denn? Ich habe davon keine Ahnung.
Ich kann bei dir nur eine ziemlich handfeste Verteidigungshaltung gegenüber AMD herauslesen.
 
Ich hab jetzt alle Kommentare gelesen, aber warum sich alle aufregen nicht verstanden.
War doch schon bei Ryzen 1xxx so. Wer schlau war, hat den 1700 gekauft. Der 1700x oder der 1800x hat wesentlich mehr gekostet, bei gleicher Leistung, wie der 1700 mit OC.
Ich hab auch nur den 1700x genommen, weil er zu der Zeit soviel gekostet hatte, wie der 1700er.
Beim OC Pustekuchen. 3,8 GHz @ 1,3V. Mehr geht trotzdem nicht. Mit 1,5V schafft er auch 3,9-4 GHz. Wow, für kaum mehr Leistung Unmengen an Energie verbraten. Der 1800x war da kaum besser. ( Golden Sampler außen vor)
Es gab auch genügend 1700er die bei guter VCore 4-4,1 GHz mit gemacht haben.
Wer nur GHz zieht, sollte lieber zu Intel greifen.
 
  • Gefällt mir
Reaktionen: muzafferamg58
Ich vermute CB hat eine schlechte CPU erwischt beim OC. Hier der 3800X bei 4.5Ghz AllCore:


Klar sollte man jetzt nicht denken, dass es jede macht, aber warten wir auf den 3950x :-P
 
  • Gefällt mir
Reaktionen: Gortha, Tanzmusikus und McTheRipper
Tanzmusikus schrieb:
Schade finde ich, dass XFR so aggressiv eingestellt ist. Es werden (bei meinem 2700X jedenfalls) schon im Idle bei einer kaum merkenswerten Last einzelne/mehrere Kerne alle paar (Milli-)Sekunden mit über 1,4V auf über 4GHz geboostet.

Genau so funktioniert ein gut implementierter Turbo. Das Ziel ist immer bei kurzen Lastspitzen welche häufig nur Last auf einem/wenigen Kernen generieren (und selbst hier nicht alle Ausführungseinheiten auslasten können) wie beispielsweise Programmstarts möglichst schnell eine maximal hohe Taktfrequenz zu erreichen. Je geringer dabei die Auslastung der gesamten CPU ist desto mehr Spielraum hat dabei der Turbo (sowohl thermisch als auch elektrisch). Spannungen wie 1,4V+ sind bei hoher Auslastung der gesamten verfügbaren CPU Ressourcen überhaupt nicht machbar. Am Ende geht es immer um die zu verrichtende Arbeit. Solange der Großteil der Einheiten im Leerlauf ist bleibt die Verlustleistung auch trotz proportional betrachtet sehr hoher Spannung im akzeptablen Rahmen. Der große Vorteil ist hierbei das solche Tasks erheblich schneller abgearbeitet werden und das System sich somit deutlich flotter anfühlt/reagiert. Gerade diesbezüglich hatte AMD in der Vergangenheit einen ziemlich großen Rückstand gegenüber Intel/Skylake.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron-man und Tanzmusikus
Es sieht so aus als koennte bald weiterer Nachschub in Sachen RyZen 3000 winken, zumindest werden auf WccfTech weitere neue Matisse Prozessoren von AMD kolportiert, darunter ein weiterer R5 3500 6-Kerner, ein weiterer R7 3700 8-Kerner sowie ein weiterer R9 3900 12-Kerner:

CPU NameRyzen 5 3500Ryzen 5 3600Ryzen 5 3600XRyzen 7 3700Ryzen 7 3700XRyzen 7 3800XRyzen 9 3900Ryzen 9 3900XRyzen 9 3950X
Cores/Threads6/126/126/128/168/168/1612/2412/2416/32
Base ClockTBD3.6 GHz3.8 GHzTBD3.6 GHz3.9 GHzTBD3.8 GHz3.5 GHz
Boost ClockTBD4.2 GHz4.4 GHzTBD4.4 GHz4.5 GHzTBD4.6 GHz4.7 GHz
Cache (L2+L3)35 MB35 MB35 MB36 MB36 MB36 MB70 MB70 MB72 MB
PCIe Lanes (Gen 4 CPU+PCH)404040404040404040
TDP65W65W95W65W65W105W65W105W105W
Price$159-$179 US$199 US$249 USTBD$329 US$399 USTBD$499 US$749 US

Ob diese interessanter als die R5 3600X und R7 3800X CPUs werden duerften und nicht vorwiegend fuer OEMler interessant sind (denn braucht es diese Zwischenstufen-Prozessoren wirklich noch)?

Gut ein 8-Kerner fuer 299 US$ und ein 12-Kerner fuer 449 US$ koennte preislich Sinn machen und der Verbrauch waere beim kleineren 12-Kerner mit o.g. Spezifikationen auch niedriger angesiedelt, aber wie wird sich das in Taktung und Leistung widerspiegeln?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron-man und Tanzmusikus
joel schrieb:
Mit den aktuellen Preisen ist AMD einfach zu teuer.
Schauen wir mal wie es in zwei Jahren aussieht, für Heute und demnächst bleibt es bei Intel.
Wo genau ist intel denn günstiger bei P/L?
 
  • Gefällt mir
Reaktionen: iron-man
Zurück
Oben