News AMD Ryzen 3000: 15% mehr IPC schlagen Intels Coffee Lake ab 329 USD

thuNDa schrieb:
Ist denn noch irgendwas TDP limitert wenn man PBO anschaltet?

Schon 3x hier erwähnt.
Um mal beim Aktuellsten zu bleiben (400er)
PPT 141.75W ist, was ein 2700X maximal ziehen kann und darf, dies wird vom Chip selbst eingehalten, selbst wenn das Board mehr darf (Weil eingestellt) sagt die CPU > NEIN. (Deswegen muss man es Manuell machen) also außerhalb der Kontrolle durch die CPU <> Board (Manuell kein PBO, Offset/Fix etc)
TDC 95A, EDC 140A - Standard

Mit PBO: PPT 1000W, TDC 114A, EDC 168A

Die PPT entspricht aber der VRM Eingangsleistung, nicht CPU.

Jetzt mal zum Verständnis ein 2700X @ Stock (Achte auf PPT, TDC und EDC oben)

PPT massig Luft, das Board (VRMs >EDC) aber ist nahezu am Limit.
Wie kann man das ändern? Indem man die CPU hier nun UV.
100-250Mhz kann man dadurch raus kitzeln, dann ist Schluss. Man kann noch VDDRCR CPU Current Capability rumspielen....
Nen Zen2 ist, so wie vorgestellt (Takt/Boost) das maximum, was selbst auf jedem 300er Board out of box läuft. Für mehr, muss nen stärkeres Brett her und genau das sind die neuen Bretter alle (durch die Bank fetter aufgestellt bei der Versorgung) :)

Das betrifft natürlich nur den Boost/XFR was die CPU selbstständig macht.
Manuell ist natürlich mehr drin, geht dann aber eben zu Lasten, die eben existieren, wenn man die Spezifizierungen verlässt. Heißt: Ein 3700X wird durch die gesetzten Limits nicht höher kommen als sein größerer Bruder 3800X - es sei denn, du machst es eben Manuell ohne Boost/XFR - Feste Werte, Offset/Fix etc.
Das einzige was du machen kannst, ist, den 3700X zu UV (je nach Glück) sodass er dann höher Boosten kann und so auf den 3800X kommt und leicht darüber.
Der 3800X hat aber ohne Eingriff mehr Spielraum, sodass er höher kommen darf, mit UV entsprechend nochmals besser.

Für Anwendungen/Games die nur 1-3 Kerne auslasten, ist es natürlich besser, wenn auch entsprechend nur diese Kerne deutlich höher Boosten dürfen, anstelle alle 8 fix auf 4,8Ghz was deutlich mehr Vcore und Kühlung als auch Verbrauch fabriziert und im Endeffekt genauso schnell ist, wie automatisch mittels Boost/XFR mit PBO.

Solange das Brett und die Kühlung top ist, holt die CPU von sich aus fast schon das optimalste raus was geht.
UV noch dazu, Speicher OC samt Timing-Tuning, mehr braucht es nicht.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: LukS, Gortha und thuNDa
T96 schrieb:
Nen Zen2 ist, so wie vorgestellt (Takt/Boost) das maximum, was selbst auf jedem 300er Board out of box läuft. Für mehr, muss nen stärkeres Brett her und genau das sind die neuen Bretter alle (durch die Bank fetter aufgestellt bei der Versorgung) :)

Das erscheint mir absolut plausibel ;). Obwohl ich deinen Post mangels eigenem Ryzen nicht ganz nachvollziehen kann: Ich denke auch, daß die deutlich bessern VRMs der X570-Boards auf ein nicht zu unterschätzenedes Übertaktungspotenzial hindeuten. Denn sonst hätte man sich diesen ganzen Mehraufwand doch schlichtweg sparen können.

Ich interpretiere deinen Post u. a. aber so, daß sich die Ryzen 3000-CPUs deiner Meinung nach mit den X570er-Boards auch besser undervolten lassen werden als mit den älteren Boardgenerationen. Das strebe ich nämlich an. Oder habe ich dich da falsch verstanden?

Wie du vielleicht weißt werde ich auch demnächst auf ein Ryzen 3000-System wechseln. Die ganzen Features wie PCIe 4.0 und mehr Lanes sind für meine Bedürfnisse nicht wirklich notwendig. Deshalb ziehe ich es in Erwägung mir ein X470-Brett (evtl. auch ein B450) zu holen.

Perfekt wäre für mich ein B550-Brett - aber die kommen lt. PCGH erst im Winter. Mir ist letzte Woche mein USB-Hub abgeschmiert. Das Problem habe ich kurzfristig mit einer USB 3.0-Schnittstellenkarte gelöst ;). Aber ich weis halt nicht, ob mein Board generell nen Knacks weghat und wie lange es noch halten wird. Ziehe deswegen in Erwägung mir fürs erste ein gutes X470er-Board nebst R5 2600 zu kaufen um dann später auf den 3900X hochzugehen. Hätt für mich auch den Vorteil, daß ich mich schon mal mit der neuen Plattform vertraut machen könnte :D.

Aber mögliches UV-Potenzial möchte ich eben auch nicht verschenken. Jedenfalls bei den Intel Boards spielte das beim UV nie eine große Rolle. Beispielsweise Z68 (Sandy Bridge) vs. Z77 (Ivy Bridge). Die Z77er ließen sich (mit Ivy Bridge) zugegebenerweise besser übertakten, beim UV war aber kein Unterschied festzustellen. Von daher würde es mich doch recht wundern, wenn sich die X470er beim UV anders verhalten sollten als die B550er/X570er. Aber wie gesagt, vielleicht habe ich dich da auch falsch verstanden :).

Lg,

Ice
 
Zuletzt bearbeitet:
@Iceberg87
UV geht überall gleich gut. Hier kommt es nur auf die Güte - sprich Silizium-Lotterie - des/der Ciplet/s an.
Eine X470er Platine mit guten VRM wie z.B. ASUS Prime Pro oder noch besser sollte passen für spätere 12Kerner Abitionen.
 
  • Gefällt mir
Reaktionen: Iceberg87
Nun , die Spatzen pfeifen es aus allen Löchern , den 16C wird es geben , die MoBo Hersteller haben ihn wohl auf der Computex hinter verschlossenen Türen wohl auch schon gezeigt , dessen TDP wird 125 oder 135 Watt betragen und pauschal gesagt , fast doppelt so viel Leistungsaufnahme haben wie der 8 C .
Wenn man nach dem 3800x 8C geht müßte er 210 Watt TDP bekommen , jedoch denke ich der 16C wird deutlich bessere Die bekommen , ähnlich den 12C . Gut möglich das für die single Chiplet CPUs Chiplets verwendet werden die zwar hoch genug takten , jedoch dabei recht viel verbrauchen , das kann man beim EPYC Rome überhaupt nicht gebrauchen ...
Von daher müssen auf den X570 Boards stärkere VRMs verbaut sein , erst recht wenn auch noch OC der 16 C möglich sein soll .

Ein Intel 18 C 7980 XE @4,5 Ghz all core zieht da seine 550 - 600 Watt , beim Ryzen 3000 16C kann man 250 - 300 Watt unterstellen
 
Zuletzt bearbeitet:
MK one schrieb:
Wenn man nach dem 3800x 8C geht müßte er 210 Watt TDP bekommen , jedoch denke ich der 16C wird deutlich bessere Die bekommen , ähnlich den 12C . Gut möglich das für die single Chiplet CPUs Chiplets verwendet werden die zwar hoch genug takten , jedoch dabei recht viel verbrauchen , das kann man beim EPYC Rome überhaupt nicht gebrauchen ...

Also das glaube ich nicht.
Es beißt sich auch etwas - Chips die hohe Takte mitmachen, sind meist auch gut in Fragen der Genügsamkeit was Spannung angeht. Nicht immer aber das korreliert schon eher... wenn du verstehst was ich meine.
 
@MK one
Der 2950x threadripper verbraucht auch nur etwa 250w in cinebench und damit nur etwa 30% mehr als der 2700x. (Gesamtsystem)
Also so riesig wird der stock Verbrauch nicht sein.

Es wurde ja auch glaube ich schon berichtet, dass der übertaktete Ryzen 16-Kerner auf der computex etwa 300w verbraucht hätte.

Kann ja gut sein dass der IO-Die da einen großen Anteil aus macht, und der zusätzliche die für die 8 Kerne da nicht so aufschlägt.
 
VelleX schrieb:
@MK one
Der 2950x threadripper verbraucht auch nur etwa 250w in cinebench und damit nur etwa 30% mehr als der 2700x. (Gesamtsystem)
Also so riesig wird der stock Verbrauch nicht sein.
ich sprach von 4,5 Ghz allcore , nicht stock .... , du kannst davon ausgehen das , wenn du den 2950X auf 4,2 Ghz all Core betreibst dieser sehr wohl bei 400 Watt oder darüber ist .... , da knabbert man sogar an der 500 Watt Grenze
bei Zen 1 ist der Unterschied von 3,8 Ghz zu 4 Ghz gewaltig für grade mal 200 Mhz mehr , macht locker 50 Watt mehr aus
https://www.guru3d.com/articles-pages/amd-ryzen-threadripper-2950x-review,31.html
788986


von daher müssen die X570 OC Boards , wenn sie denn diesen Namen verdienen wollen , auch ziemlich viel Saft bereitstellen können für den OC der 16 C , 300 bis 350 Watt mindestens , besser 400 Watt , was aber immer noch deutlich weniger ist was die TR Plattform liefern können muß .
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
MK one schrieb:
Nun , die Spatzen pfeifen es aus allen Löchern , den 16C wird es geben , die MoBo Hersteller haben ihn wohl auf der Computex hinter verschlossenen Türen wohl auch schon gezeigt , dessen TDP wird 125 oder 135 Watt betragen und pauschal gesagt , fast doppelt so viel Leistungsaufnahme haben wie der 8 C .
Wenn man nach dem 3800x 8C geht müßte er 210 Watt TDP bekommen , jedoch denke ich der 16C wird deutlich bessere Die bekommen , ähnlich den 12C .

Wie du schon richtig angemerkt hast, werden es wohl 125 bis 135W TDP beim 16C werden. Der Realverbrauch ist aber ohnehin wieder eine andere Sache ;). Ich vermute ebenso, daß die kommenden 16Cores offiziell nur auf den B550/X570-Brettern Support erhalten werden. Die aktuelle Plattform läßt ja derzeit nur maximal 105W TDP zu ;).

Aber von einem 16Core Matisse hatte ich bis jetzt noch nichts gehört - bis auf die Leaks die im Netz rumschwirren. Technisch gesehen ists natürlich gar kein Problem, aber ich denke man wird sich den 16C bis zum Comet Lake Launch seitens Intels aufsparen. Wäre doch eine perfakte Gelegenheit um Intel die Show zu vermasseln ;).
 
glaub ich nicht , ich hab schon ne Roadmap gesehen , da war der Comedy Lake für anfang 2020 eingetragen ... , so lange wird AMD wohl nicht warten , ich tippe darauf das sie den 16 C solange nicht rausbringen wie der TR3 nicht gelauncht wurde , um die eigene HEDT Plattform nicht überflüssig zu machen und den TR Nutzern dann eine Upgrade Option bieten zu können

Klar , sollte der Comedy Lake 10C früher kommen könnte AMD den 16C früher auf den Markt schmeißen , aber der Intel 10C braucht eh wieder nen neues MoBo :evillol: , davon hat man weder was gesehen noch gehört
 
VelleX schrieb:
Kann ja gut sein dass der IO-Die da einen großen Anteil aus macht, und der zusätzliche die für die 8 Kerne da nicht so aufschlägt.

Die IO-Die soll wohl so um die 15-20 Watt verbrauchen. Von daher kann man ohnehin nicht von einer Verdoppelung der Leistungsaufnahme zwischen einem 8C und einem 16C Matisse ausgehen. Was mich immer noch verwundert ist, daß der 3800X diesselbe TDP hat wie der 3900X. Obwohl der 3900X über zwei Chiplets verfügt. Auch wenn der 3900X mit 3.8GHz einen etwas geringeren Basetakt als der 3800X hat. Genaueres werden wir aber ohnehin erst beim Launch erfahren ;).
Ergänzung ()

MK one schrieb:
glaub ich nicht , ich hab schon ne Roadmap gesehen , da war der Comedy Lake für anfang 2020 eingetragen ... , so lange wird AMD wohl nicht warten , ich tippe darauf das sie den 16 C solange nicht rausbringen wie der TR3 nicht gelauncht wurde , um die eigene HEDT Plattform nicht überflüssig zu machen und den TR Nutzern dann eine Upgrade Option bieten zu können

Na ja, offiziell kommt Intel 10C Ende 2019. Wird vermutlich wieder mal ein Paperlaunch, aber das zählt hier nicht. Aber dein Thredripperargument erscheint mir durchaus schlüssig. Derzeit ist ja der 2920X (12Core) das Einstiegsmodell bei AMDs HEDT. Wenn man jetzt gleich nen 16C Matisse loslassen würde greift man ja praktisch die hauseigene HEDT-Plattform an. Macht dann aber auch keinen wirklichen Unterschied mehr was den Launch eines 16Core Matisse betrifft. Die TR 3000er kommen ja auch erst 2020 ;).
 
Zuletzt bearbeitet:
https://www.pcbuildersclub.com/2019/05/intel-comet-lake-kommt-mit-neuem-sockel-chipsaetze-geleakt/
Intel Comet Lake: wieder 14nm, aber anderer Sockel
Dass die 10nm-Produktion weiterhin stockt, hat Intel mittlerweile auch selbst bestätigt. Zwar sollen noch dieses Jahr die ersten 10nm-CPUs für Laptops auf den Markt kommen, Desktop-CPUs könnte es aber erst 2022 mit 10nm geben. Als Lückenfüller hat Intel daher eine neue Generation geplant, die den Namen Comet Lake trägt.

...
LGA1200 als neuer Sockel, neue 400er-Chipsätze
Dass es zur neuen Generation auch neue Chipsätze gibt, ist längst Usus bei Intel. Damit einhergehend sind aber oftmals auch Inkompatibilitäten. Auch für Comet Lake sind jetzt bereits die ersten Informationen zu genauen Chipsätzen aufgetaucht. Der Twitter-User momomo_us hat direkt in einem Chipsatz-Treiber von Intel den Verweis auf die Chipsätze der 400- und 495-Serie gefunden. Die 400er-Serie ist dabei als CometLakePCH-LP geführt, während die 495er-Serie als IceLakePCH-LP genannt ist. Die 400er-Serie gehört demnach zu Comet Lake, während die 495er-Serie zu Ice Lake gehört.

hatte Intel nicht immer wieder betont , beim 10 nm liefe alles super ? :evillol: :evillol: :evillol:
 
@MK one

Das mit dem neuen Sockel LGA 1200 wußte ich schon ;). Gehe mal davon aus, daß Comet Lake 125W TDP haben wird. Daher auch der neue Sockel.

Aber darum ging es mir auch gar nicht wirklich. Abgesehen davon, daß der 3900X in Anwendungen den kommenden Intel 10C ohnhin schlagen dürfte ;).

Hatte das vor einigen Tagen schon einmal angemerkt: Es geht nicht um die Leistungsfähigkeit im allgemeinen, sondern vielmehr um die öffentliche Aufmerksamkeit. Oder ums mal neuhochdeutsch auszudrücken, um die Publicity ;).

Wenn Intel seinen 10-Kerner raushaut, schießt AMD mit dem 16-Kerner dagegen. Für die meisten Leute hört sich das doch fürs erste einfach nur verdammt gut an. Da sagen sich dann nicht grade wenige: Intel liefert "nur" 10 Kerne, bei AMD krieg ich aber schon 16. Rein aus strategischer Sicht wäre es für AMD deshalb absolut sinnvoll das ganze genau so zu handhaben, oder nicht? Gut fände ich das nicht, gar keine Frage ;). Außerdem dürfte bis zum Launch des 16C der 7nm-Prozess soweit perfektioniert sein, daß generell höhere Taktraten als derzeit möglich sind. Und vorerst gehen die besten Chiplets ohnehin in die Serversparte - sprich Rome. Also warum zu früh einen 16C Matisse launchen?
 
Zuletzt bearbeitet:
MK one schrieb:
(...) trotz Lot scheint ein Effekt aufzutreten wie er bein 8700K mit TIM zu beobachten war , die Wärme kann nicht schnell genug abgeleitet werden

Das wäre ein absolutes Armutszeugnis. Die CPUs sind bei gleichem Takt deutlich effizienter und Intel kann einen 9900K bringen (der dazu noch schlechter verlötet ist) und AMD nicht wegen zu viel Hitze?

PS: Ich habe Roadmaps gesehen, wo Comet Lake auf dem gleichen Sockel (1151v2) laufen soll.

Da heißt es abwarten.
 
Banned schrieb:
Das wäre ein absolutes Armutszeugnis.

Das ist kein Armutszeugnis sondern ein Problem der Heatspots. Die Chiplets sind klein, die Hitze muss über diese Fläche jedoch abgeführt werden.

Wobei es abzuwarten bleibt, ob diese Probleme tatsächlich existent sind. Bisher hat man von den Leaks in der Richtung noch nichts gehört.
 
ist ja auch nur ne Vermutung von mir aufgrund der TDP Sprünge , die vermutlich nichts mit den Verbrauch / Leistungsaufnahme zu tun haben ( 3800X = 8C 105 W TDP , 3900x = 12 C auch 105 Watt TDP )
genaueres wird man erst nach Launch wissen , was aber ja nicht mehr allzu lange dauert :D

Ich finde es immer noch erstaunlich wie dicht im Grunde alle gehalten haben und das es 4 Wochen vor Launch nicht noch mehr Leaks gibt
 
Banned schrieb:
PS: Ich habe Roadmaps gesehen, wo Comet Lake auf dem gleichen Sockel (1151v2) laufen soll.

Das würde mich aber sehr stark wundern ;). Zumal Intel selbst den Sockel 1200 ins Gespräch gebracht hat. Ganz ausschließen möchte ich es zwar nicht daß die zukünftigen 10000er Prozessoren auf dem bestehenden Sockel laufen werden, aber es wird ja spekuliert daß sogar der i9 9900KS einen neuen Sockel benötigen wird. Obwohl das eigentlich absolut unsinnig ist: Der 9900KS wird nur ein gut selektierter 9900K sein - meiner Meinung nach :).

Bin mir aber ziemlich sicher, daß Comet Lake einen neuen Sockel benötigen wird - aufgrund der zu erwartenden erhöten TDP :). Das war bei Intel die letzten Jahre doch niemals anders, oder?

Aber wir werden es schlussenendlich sehen. Sollte Comet Lake wirklich mit der gleichen (offiziellen) TDP daherkommen wie derzeit der i9 9900K dann ziehe ich wirklich mit allergrößtem Respekt meinen Hut vor Intel :). Glauben tue ich das allerdings nicht wirklich. Denn zaubern kann auch der blaue Chipriese nicht.

Aber wie du schon richtig gesagt hast: Ersteinmal abwarten.

Lg,

Ice
 
Zuletzt bearbeitet:
0ssi schrieb:
Falls es ein Gaming PC wird dann ist die entscheidende Frage in welcher Auflösung gezockt wird
denn wenn höher als Full HD aber keine RTX2080Ti dann machst du dir unnötig viele Gedanken
weil im GPU Limit spielen Mainboard, CPU und Arbeitsspeicher keine Rolle also teuer = unnötig.

Du kannst um eine RTX2080 zwar die teuersten Komponenten bauen aber Jemand mit RTX2080Ti
und billigem Komplett PC wird im GPU Limit trotzdem mehr FPS haben als du ... First World Facts.
Vergessen wird bei dieser Überlegung aber, dass grafikkarten häufiger gewechselt werden und das gpu Limit vom heute das cpu Limit von morgen ist.
 
und nochmal der 3600 im Geekbench , diesmal mit einem Biostar X570
man kann wirklich sagen , die 3000er schneiden im Geekbench sehr gut ab

789111

https://www.overclock3d.net/news/cp...0_delivers_incredible_geekbench_performance/1

off topic , aber zumindest für mich interessant , die Physische Überprüfung aller Transistoren einer Vega 20 CPU dauert über 10 Stunden , genutzt wurden dazu 4140 Kerne ...

https://www.hpcwire.com/2019/06/05/amd-verifies-its-largest-7nm-chip-design-in-ten-hours/
June 5, 2019

On Thursday, AMD announced that its engineers had successfully executed the first physical verification of its largest 7nm chip design – in just ten hours.
The AMD Radeon Instinct Vega20 – which boasts 13.2 billion transistors – was tested using a TSMC-certified Calibre nmDRC software platform from Mentor. AMD scaled Calibre nmDRC on 4,140 cores across 69 HB virtual machines on an Azure cloud platform, powered by AMD’s own Epyc processors.
The ten-hour result represents a major reduction in total turnaround time for verification, even in the face of the Radeon Instinct Vega20’s complexity. AMD completed a second verification pass in approximately nine additional hours, for a total of two passes in 19 hours.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iceberg87 und aldaric
psychotoxic schrieb:
Vergessen wird bei dieser Überlegung aber, dass grafikkarten häufiger gewechselt werden und das gpu Limit vom heute das cpu Limit von morgen ist.

Zudem gibt es heute schon Games wo gewisse CPUs bremsen bzw. in einigen Situationen die 60er Marke nicht halten können.
Also auch Grakas wie ne 2070 oder 2080 sind da nicht ausgelastet zum Teil und das in 1440p.

Wenn dann die CPU bremst ist das mMn. unangenehm. Wenn die GPU zu langsam ist, kann man immer Details (AA, hbao, shadows,..) um 1-2 Stufen senken und weiterhin flüssig daddeln.

Passiert zwar in Ausnahmefällen, bei mir leider gleich 3 Games ^^
Dann wiederum gibt es Games, wo die CPU fast egal ist solange 6 Kerne am Start sind..:-)
 
MK one schrieb:
Ich finde es immer noch erstaunlich wie dicht im Grunde alle gehalten haben und das es 4 Wochen vor Launch nicht noch mehr Leaks gibt

Das dürfte Lisa Su geschuldet sein :D. Die gute Frau ist die Geheimniskrämerin in Person. War doch bei den letzten Produktvorstellungen bei AMD auch nicht anders ;).

Zu Geebench: Jo, die Werte sind wirklich super :daumen:.

Hier der (vermutlich) gleiche R5 3600 auf einer anderen Seite:

https://mightygadget.co.uk/amd-ryzen-5-3600-vs-amd-ryzen-7-2700x-zen-2-destroys-zen-in-geekbench/

Hier sieht man einmal den direkten Vergleich R5 3600 vs. R7 2700X.

Trotz 100MHz weniger Standardtakt und Boost schlägt der "kleine" Zen2 den R7 2700X bei der Multicore-Performance.

R5 3600: Single 5220 / Multi 27276
R7 2700X: Single 4801 / Multi 26693

Finde ich schon krass. AMD muß beim HT, welches ja bekanntermaßen ohnhin schon gut ist, nochmals deutlich nachgelegt haben.
 
Zurück
Oben