News AMD Ryzen 9 3950X: Taktprobleme angeblich für Verschiebung verantwortlich

@NerdmitHerz
Völlig korrekt.

Ein 3800X hält mit dem 9900K eben auch gut mit. Ich sehe einen 16C auch eher in Workstation, aber AMD möchte eben selbstbewusst sein. Also kriegt das WS Modell den Präfix gaming und Threadripper wird Workstation.
Machte Intel bis Skylake nicht anders
 
NerdmitHerz schrieb:
AMD verkauft zwar den 3900x/3950x als Gaming-CPU, doch sind diese beiden sind mit Ihren Kernen eher im Anwendungsgebiet (Rendern, Streamen oder als Workstation) angesiedelt als im Gaming-Bereich. Gerade weil beim Gamen 6 bzw. 8 Kernen derzeit noch das Optimum darstellen. Sollte sich das in Zukunft durch Konsolen mal ändern, werden diese CPUs auch im Gaming mehr Punkten können.
Das liegt halt auch am Marketing Blabla... Man braucht ja noch eine Differenzierung zum Threadripper. Also muss man quasi so tun, als wären das Gaming CPUs. Daher müssen die auch einen höheren Boost bekommen, damit man sagen kann: Das ist im Gaming unsere schnellste CPU, kauf die! Der Kunde zahlt ja auch ordentlich Geld dafür, das will man natürlich auch mitnehmen. Würde man sagen: Nimm für's Gaming den 3800X oder 3700X, würde doch niemand die teuren Modelle kaufen und man hätte wie üblich das Billiganbieter Image, von dem man weg will. Wie gesagt, alles Marketing-Blabla, wie bei Intel auch. Aber du hast natürlich vollkommen Recht, eigentlich sind das nicht wirklich Gaming CPUs.
 
  • Gefällt mir
Reaktionen: nazgul77
Oberst08 schrieb:
Das liegt halt auch am Marketing Blabla... Man braucht ja noch eine Differenzierung zum Threadripper. Also muss man quasi so tun, als wären das Gaming CPUs. Daher müssen die auch einen höheren Boost bekommen, damit man sagen kann: Das ist im Gaming unsere schnellste CPU, kauf die! Der Kunde zahlt ja auch ordentlich Geld dafür, das will man natürlich auch mitnehmen. Würde man sagen: Nimm für's Gaming den 3800X oder 3700X, würde doch niemand die teuren Modelle kaufen und man hätte wie üblich das Billiganbieter Image, von dem man weg will. Wie gesagt, alles Marketing-Blabla, wie bei Intel auch. Aber du hast natürlich vollkommen Recht, eigentlich sind das nicht wirklich Gaming CPUs.
Der Threadripper differenziert sich schon durch die sehr hohe Speicherbandbreite, also keine Dual-Channel-Krücke..
 
Oberst08 schrieb:
Das liegt halt auch am Marketing Blabla... Man braucht ja noch eine Differenzierung zum Threadripper. Also muss man quasi so tun, als wären das Gaming CPUs. Daher müssen die auch einen höheren Boost bekommen, damit man sagen kann: Das ist im Gaming unsere schnellste CPU, kauf die! Der Kunde zahlt ja auch ordentlich Geld dafür, das will man natürlich auch mitnehmen. Würde man sagen: Nimm für's Gaming den 3800X oder 3700X, würde doch niemand die teuren Modelle kaufen und man hätte wie üblich das Billiganbieter Image, von dem man weg will. Wie gesagt, alles Marketing-Blabla, wie bei Intel auch. Aber du hast natürlich vollkommen Recht, eigentlich sind das nicht wirklich Gaming CPUs.

Wobei der 3700X und 3800X auch nicht gerade günstig/billig sind. Habe für meinen i7-4790k damals auch um die 350€ gelöhnt habe.
 
Wo ist da der 3700x nicht günstig? Für ~330 € ein 8-Kerner mit einem brauchbaren Kühler ? Also wer da behauptet, dass sei nicht grade günstig, hat den Markt wohl verpennt.
 
  • Gefällt mir
Reaktionen: Esenel, Relict, rg88 und 2 andere
Damals 4 Kerne für bummelig 400€.
Heute halt 8 Kerne.
:rolleyes:
 
37_ schrieb:
verstehe nicht warum die 105W TDP so strickt eingehalten werden muss... AM4 Boards sind für 140W ausgelegt oder nicht? das schafft selbst mein X470 ITX Board im 24/7 Betrieb bei adequater Gehäusebelüftung

Es sind 140 Watt Lastspitzen, auf die AM4 ausgelegt ist, nicht Dauerlast.
Insbesondere die Spannugnswandler sind entsprechend dimensioniert die Spezifikation erfüllen zu können. Sie müssen bei entsprechender elektrischer Last die Spannung halten und die Abwärme abführen können.
Die Leiter und der Sockel selbst können deutlich mehr Leistung transportieren.
 
NerdmitHerz schrieb:
AMD verkauft zwar den 3900x/3950x als Gaming-CPU, doch sind diese beiden sind mit Ihren Kernen eher im Anwendungsgebiet (Rendern, Streamen oder als Workstation) angesiedelt als im Gaming-Bereich.
Du vergisst einfach etwas: Fürs REINES Gaming alleine mag das überdimensioniert sein. Wenn du aber noch irgendwas im Hintergrund machst dann bricht die Performance ein, wenn du nur 8 Kerne hast und das Spiel diese auf nutzen kann.
Ganz reales Beispiel wäre hier zum Beispiel Streaming.
Also:
8 Kerne + Streaming -> Leistung sinkt
12/16 Kerne + Streaming -> Leistung bleibt gleich.
NerdmitHerz schrieb:
Wenn man natürlich sich diese beiden CPUs rein fürs Gamen kauft und sich dann wundert, warum der Rest der Kerne im Chill-Modus ist, dann ist natürliche der falsche Weg aus meiner Sicht.
Rein fürs gamen wäre dann der 3700x aktuell die beste Lösung, was Preis, Verbrauch, Effizienz, Kerne, Takt und IPC angeht. Also wieder angenommen, dass das Spiel bis 8 Kerne gut skaliert und mit mehr nichts anfangen kann.
 
gunmarine schrieb:
Google sie dir selber. Danke

Es gibt keine Quelle dafür. Es ist null über den 10-Kerner bekannt, außer das er irgendwann 2020 kommen wird. Alternative Fakten ?
 
  • Gefällt mir
Reaktionen: Hayda Ministral, yummycandy, X8Koenig und eine weitere Person
rg88 schrieb:
Ganz reales Beispiel wäre hier zum Beispiel Streaming.
Also:
8 Kerne + Streaming -> Leistung sinkt
12/16 Kerne + Streaming -> Leistung bleibt gleich.


lies meinen text komplett, ich beschrieb das

Streaming ist nicht der Sinn von Gaming. Weil Gaming bedeutet Spielen und Streaming = gamen + das alles live zeigen inkl. Cam, Mic und anderem Gimmick. Beim Gaming hast normal nur Game + Browser offen. von streamen ist man beim gamen nicht die rede.



--------------------------------------------

Rockstar85 + Oberst08. Volle Zustimmung. Ich bin nur kein direkter Gamer, siehe mein 5820k. net mal der ist 100% aufs gaming ausgelegt
 
rg88 schrieb:
Wenn du aber noch irgendwas im Hintergrund machst dann bricht die Performance ein, wenn du nur 8 Kerne hast und das Spiel diese auf nutzen kann.
Welches Spiel kann das bitte schön? Die meisten Spiele können selbst 4 Kerne noch nicht voll auslasten.
rg88 schrieb:
12/16 Kerne + Streaming -> Leistung bleibt gleich.
Nein, ganz sicher nichts, denn bei Last auf wenigen Kernen ist der Takt natürlich höher als bei Last auf allen Kernen und daher bleibt die Gamingperformance nie gleich, wenn im Hintergrund noch etwas läuft was viel CPU Last erzeugt!
 
  • Gefällt mir
Reaktionen: .Sentinel.
NerdmitHerz schrieb:
lies meinen text komplett, ich beschrieb das

Streaming ist nicht der Sinn von Gaming. Weil Gaming bedeutet Spielen und Streaming = gamen + das alles live zeigen inkl. Cam, Mic und anderem Gimmick. Beim Gaming hast normal nur Game + Browser offen. von streamen ist man beim gamen nicht die rede.
Das ist aber eine sehr eigenwillige Definition. Zugegeben, Streaming ist optional, aber wer definiert denn, was ich nebenbei alles offen zu haben habe?
 
Dies ist keine eigenwillige Definition. Gaming beinhaltet nicht, dass die CPU gleichzeitig für das Spiel da sein muss und zur selben Zeit via x264 streamen soll zu Twitch, Mixer oder Youtube.

Google Einfach mal nach Gaming- und Streaming-CPU @yummycandy. Die Ergebnisse werden nicht dieselben sein.

825066


Ich will den 3900x/3950x keinesfalls schlecht machen und könnte ich auch nicht, wenn ich selbst plane den 3950x mir nächstes zu kaufen als "upgrade" für mein 5820k und diese dann statts der 2080 streamen zu lassen.

Jedoch bin ich nicht jemand der sich den 3950x fürs reine gamen kauft, denn dafür ist die CPU nicht gemacht es sei denn man schaltet die Threads ab.

die ersten 3 Plätze sind Intel (9900k, 9700k & 8086k), erst dann kommt der 3900x. Der 9900k ist vom Preis teurer als der 3900x. Weil er jedoch 4 Kerne weniger hat und die 8 die da sind bei 3.6 - 5.0 Ghz liegen. Da SingleCore derzeit noch in vielen Spielen zusammen mit 8 Kernen die Nase vorne hat
 
Ich schrieb doch, daß Streaming optiional ist. Aber ich kann sehr wohl nebenbei noch andere Sachen offen haben und da gehört nicht nur ein Browser zu. Das ist ja gerade der Sinn mehr Resourcen zu haben, als vom Spiel gebraucht werden.
 
Taxxor schrieb:
Wie wäre es mit der Aussage vom Chief Technology Officer von AMD, die DonL_ bereits gepostet hat?

das habe ich ja auch gelesen aber das hat für mich erstmal keinen Sinn ergeben. Warum nehme ich einen neuen Prozess und verwende dessen Libraries nicht? Und für mich war es verwirrend, das der CTO von GF eigentlich doch das Gegenteil von dem gesagt hatte, nämlich kleinere "luftige" Design Blöcke durch kleinere Zellen.

>>When discussing with AMD, the best way to explain it is that some of the design of the key features has not >>moved – they just take up less area, leaving more dark silicon between other features.

825076


>>Here is a very crude representation of features attached to a data path. On the left is the 14LPP design, and each >>of the six features has a specific size and connects to the bus.

Also hab ich mich heute bei GF und AMD durch Folien zum Thema gelesen und ich muss sagen naja so ganz klar und eindeutig ist das alles nicht.

Ich bin erstmal komplett auf das GF Marketing reingefallen, denn wenn ich es richtig verstanden habe ist 12LP überhaupt kein kleinerer Node sondern benutzt die gleichen Transistor Parameter wie 14nmLPP.

825043


Die Verbesserungen kommen also zum Teil durch Prozessschnitt Tuning, sowie man durch Prozessschritte die die Höhe der Fins verändert ohne die Maske dabei anfasssen zu müssen. Und dann gibt es da noch eine neue HD Library die Zellen mit 7.5T zur Verfügung stellt. Kleiner wird das Design also nur wenn man die 7.5T Zellen benutzt, (dann braucht man auch neue Masken für den BaseWafer) laut CTO AMD hat man die nicht nicht benutzt laut CTO von GF sehr wohl?

https://www.anandtech.com/show/12625/amd-second-generation-ryzen-7-2700x-2700-ryzen-5-2600x-2600/2
https://blog.globalfoundries.com/gfs-12lp-process-behind-covers/

>The fin profile was improved to a taller, thinner fin, improving the drive current and short channel control. >>Also, the fin surface roughness was reduced, resulting in a carrier mobility increase of 6 percent for the NFET >>and 9 percent for the PFET.

>To improve the PFET performance without increasing leakage, the source/drain cavity profile was modified, >>moving from a bowl-shaped cavity in the 14LPP process to a deeper cavity in the 12LP process. The enlarged >>cavity is needed to improve the strain on the channel, delivering more embedded silicon germanium (eSiGe) >>but without the penalty of higher leakage.

noch mal Anandtech:

So is Zen+ a New Microarchitecture, or Process Node Change?
Ultimately, nothing about most of the Zen+ physical design layout is new. Aside from the manufacturing process node change and likely minor adjustments, the rest of the adjustments are in firmware and support:

  • Cache latency adjustments leading to +3% IPC
  • Increased DRAM Frequency Support to DDR4-2933
  • Better voltage/frequency curves, leading to +10% performance overall
  • Better Boost Performance with Precision Boost 2
  • Better Thermal Response with XFR2
Also man kann das durchaus so lesen die Masken wurden nicht anpasst
Ich lese es so das was verändert wurde ( nothing about most) was letzlich zu neuen Masken führt.
Und ein Teil der Prozessverbesserung wird durch Maskenänderung z.B. der Vias erzielt

@rg88 und @DonL_ @Taxxor

Besser so?
 

Anhänge

  • 1569525194243.png
    1569525194243.png
    87 KB · Aufrufe: 367
Zuletzt bearbeitet:
@HAL8999 SP3 Spricht GF denn da überhaupt spezifisch von Zen+? Ich denke da geht es mehr um das was mit 12LP möglich ist, nicht um das was AMD draus gemacht hat.
 
Taxxor schrieb:
@HAL8999 SP3 Spricht GF denn da überhaupt spezifisch von Zen+? Ich denke da geht es mehr um das was mit 12LP möglich ist, nicht um das was AMD draus gemacht hat.

Je öfter ich das lese was da z.b. bei Anandtech steht, desto mehr bin ich bei Dir. Allerdings gehts im ganzen Artikel eigentlich nur um Zen+ ...ich habe bei meiner Lesestunde heute auch gelesen das natürlich bei Zen+ HW fixes gemacht wurden... und was dann wirklich gemacht wurde werden wir wahrscheinlich nie erfahren....
 
Zum Thema:

Planet3Dnow unkt jetzt auch, noch sehr versteckt, aber es bringt N7P ins Gespräch.

https://www.planet3dnow.de/cms/5099...tart-der-5-nm-massenproduktion-im-maerz-2020/

Überigens @HAL8999 SP3 hatte ich gestern auch noch ein Post für dich, das deinem Schaubild m.A. nach entspricht. Wahrscheinlich hast du es übersehen.
https://www.computerbase.de/forum/t...-verantwortlich.1895733/page-14#post-23161599

Wenn man bedenkt das TSMC im Frühjahr 2020 mit der 5nm EUV Massenproduktion beginnt, auch wenn es erstmal nur für Sock ist, sieht es für Intel irgendwie gar nicht gut aus. Ryzen 4000 ist nach Roadmap ja mit N7+ (EUV) geplant (beschriftet), also wird Ryzen 5000 (2021-2022) noch diesen Meldung auf alle Fälle in 5nm EUV kommen.
Eigentlich verhält es sich wie ich schon mal geschrieben habe, jeden Tag mehr den Intel kein 10nm in High Performance bringt, geraten sie mehr produktiontechnisch (Prozess) ins hintertreffen.
 
Zurück
Oben