Notiz CPU-Gerüchte: AMD Raphael mit 16 Kernen bei 170 Watt TDP

Esenel schrieb:
Interessant wie bei Intel immer von PL2 geredet wird, bei AMD aber vom PL1 Pendant TDP.
Warum?
Aktuell sind doch bei amd 142 Watt das, was bei Intel 260watt sind, oder ist das falsch?

Und die 142 Watt sollen doch auf 170watt hoch, oder habe ich das falsch verstanden?
 
ETI1120 schrieb:
Bei Zen 4 bleibt nach allem was bekannt ist die Anzahl der Kerne gleich. Grundsätzlich ist klar, dass AMD nicht in den Benchmarks schlechter dastehen will, nur weil die Konkurrenz mehr Saft in den Prozessor bringt. Aber wie sehr sich AMD bei 170 W TDP vom Sweetspot entfernt ist momentan unklar.
Wie weit der Sweetspot entfernt ist, wissen wir nicht, aber die TDP wird halt bezogen auf die Kernzahl überproportional erhöht. AMD will offenbar Leistung aus dem Chip quetschen, auch wenn das am Ende 230W PPT und mehr bedeutet.
ETI1120 schrieb:
Das Problem bei dieser ganzen Diskussion ist, dass wir nicht wissen wie Zen 4 mit steigendem Verbrauch skaliert. Und Rückschlüsse aus dem Verhalten von Zen 3 bei einer bestimmten Wattzahl auf das Verhalten von Zen 4 bei derselben Wattzahl halte ich für gewagt. Im Vergleich zu Alderlake fällt auf, dass der N7-Prozess auf dem Zen 3 produziert wird, nicht für HPC ausgelegt ist. Nach allem was AMD behauptet, soll dies bei Zen 4 anders sein
Das kann man bereits jetzt schon gut beurteilen, einfach weil ein 5950X mit engem PPT Korsett weit unter dem maximal möglichen allcore Boost taktet. Das wird beim 7950X nicht anders sein. Mark my words, AMD will mit "16 Kerne bei 5GHz der Vergeltung" Marketing machen.
 
GERmaximus schrieb:
Aktuell sind doch bei amd 142 Watt das, was bei Intel 260watt sind, oder ist das falsch?
Ja
GERmaximus schrieb:
Und die 142 Watt sollen doch auf 170watt hoch, oder habe ich das falsch verstanden?

105W auf 170W (TDP)
140W auf 230W (PPT)
Screenshot_20220325-122919.jpg
 
  • Gefällt mir
Reaktionen: GERmaximus

Anhänge

  • Screenshot_20220325_123243_org.mozilla.fenix.jpg
    Screenshot_20220325_123243_org.mozilla.fenix.jpg
    569,8 KB · Aufrufe: 220
  • Gefällt mir
Reaktionen: Esenel
Esenel schrieb:
Interessant wie bei Intel immer von PL2 geredet wird, bei AMD aber vom PL1 Pendant TDP.
Warum?
Weil sich jeder die Brotkrumen herauspickt die die persönlich Vorliebe gut aussehen lässt.

Dieses ganze Gebashe ist nur nervtötend.
Aber Du hast ja die Freude es losgetreten zu haben.
 
  • Gefällt mir
Reaktionen: Esenel
OKay, das wird auch eine geile CPU. Wie die AlderLakes.
Aber ganz ehrlich? Nett, mehr nicht. Und veraltet.
Wohin die Reise geht, zeigt gerade Apple mit ihren M1 höchst eindrucksvoll.
Das sind die wahren Effizienzmonster. Diese CPUs lassen die bisherigen x86 Archs so richtig alt aussehen.

Ich werde mir schon noch einen x86 für's Hobby zulegen, jedoch mit Sicherheit nicht so einen Mega-Monster-TDP-Vorschlaghammer! Da kommt ja dann noch eine KW-GPU dazu.
Schon irre, ein HiTech-Rig verschlingt dann mal eben 1KW/h. ... und das auch nur, wenn man es nicht voll ausfährt. 😵
Da kommt einem die KW-Kühlanlage von intel damals bei der Präsentation ja richtig mickrig vor.

Immerhin, der Trend geht wieder zur Stromheizung und das Zimmer in dem das Gaming-Rig steht, braucht dann keine Heizkörper mehr, völlig egal ob intel, AMD oder nVidia. 😂
Ergänzung ()

cookie_dent schrieb:
Wem die CPU zu viel säuft, kann das PPT runter setzen.
Gilt für Intel und AMD.
Das kann ja sein, allerdings geht das ja wieder am Sinn und Zweck einer solchen CPU vorbei, denn wenn ich die Leistung haben will, muss ich die Verlustleistung auch mit nehmen.
Sonst kaufe ich mir so eine CPU ja erst gar nicht.
 
ETI1120 schrieb:
Das sind die Designentscheidungen.

Aber bei Apple vs AMD/Intel nur den Verbrauch zu vergleichen und dabei zu ignorieren was Apple an Die-Fläche aufwendet, ist nicht sinnvoll.

Auch sollte man berücksichtigen, dass Apple einen Node weiter ist.
Das ist richtig, es gibt ja auch viele weitere Unterschiede an den Systemen, Apple hat auch noch eine knackige GPU drauf bei dem Verbrauch usw...

Finde dennoch, dass man hier das Zeitfenster sehr wohl miteinbeziehen darf.

Wenn man mit Stand März 2022 Möglichkeiten, Verbrauch, Leistung usw vergleicht, dann kommt man schon ins Grübeln. Immerhin sind es die Systeme die jetzt verfügbar sind und somit auch jetzt vergleichbar. Egal was dahinter steckt - das rührt den Enduser ja nicht. Leistung und Stromrechnung allerdings schon.

Warum ein großer Smartphone-Hersteller plötzlich mit eigenem SoC von hinten aufräumt und andere Hersteller beschämt, dürfen uns sonst Intel und AMD erklären - hier war womöglich über Jahre die Konkurrenz nicht gut genug. Apple kostet teils viel mehr, klar, diese stotternden Intel oder schwachen ARM Tablets sind aber auch für Endnutzer oft kaum nutzbar... das wird zum Glück langsam besser.

Würde Intel und AMD nur mehr die Mobile-Reihe überall einsetzten wäre das anders, aber wohl nicht praktikabel oder zu teuer...
 
Zer0Strat schrieb:
Mark my words, AMD will mit "16 Kerne bei 5GHz der Vergeltung" Marketing machen.
Dem will ich nicht widersprechen.

Wieso sonst zeigt Lisa Su am 4. Januar eine Ryzen 7000 Demo und sagt, dass die in 5 GHz allcore läuft?

TSMC stellt mit 5 nm erstmals wieder einen HPC-Prozess zur Verfügung. Diesen verwendet AMD für die CCDs. Der N7 Prozess war nicht auf HPC (hohe Frequenzen) ausgelegt. Wie weit der N5-HPC-Prozess bei hohen Frequenzen gut skaliert, wissen wir nicht. Und genau davon wird die Bewertung "Brechstange" oder "keine Brechstange" abhängen.
 
thebagger schrieb:
Bin gespannt wie sich das Ding kühlen lässt, kleine Fertigung wäre doch mehr Hitze auf kleinerer Fläche, oder irre ich da? Mein 5950X geht unter Wasser ja schon stellenweise auf 71°C.
Hm wie man sieht bringt Wasserkühlung auch nicht immer große Vorteile. Mein 5950x ist mit Luftkühlung betrieben bei 68 Grad . So warm wird er aktuell. Du wirst wohl ebenso nicht übertaktet haben wie ich auch. Welche Wasserkühlung hast du denn ne stärkere oder ne schwächere Wasserkühlung ?
Ja ich weiß deine Kühlung wird leiser sein als meine ,aber bei der Leistung scheint es wohl keine Unterschiede zu machen. Mir sagte auch mein Bruder so groß sein der Vorteil von Wasserkühlung auch nicht. Wenn z.b Luftkühlung schon bei 110 Grad als Beispiel wäre ,dann wird auch die stärkste Wasserkühlung nicht mehr viel noch bewegen können. Also an den Punkt werden wir wohl immer näher kommen.

Es sei denn der Nachfolger kann mit Hitze besser klarkommen. Vielelicht werden ja noch CPUs entwickelt die von großer Hitze mehr Leistung haben werden. Das wäre wohl ne Revolution . Noch existiert allerdings so eine CPU bzw Hardware nicht wo davon profitieren würde.
 
Luxamman schrieb:
Warum ein großer Smartphone-Hersteller plötzlich mit eigenem SoC von hinten aufräumt und andere Hersteller beschämt, dürfen uns sonst Intel und AMD erklären - hier war womöglich über Jahre die Konkurrenz nicht gut genug.
Man macht sehr häufig den Fehler zu denken dass die Kerne von Apple kleine Kerne sind.

Die Firestorm-Kerne sind Monster. Die Firestorm-Kerne sind erheblich breiter als die Golden-Cove- und Zen-3-Kerne. Beim Decode gilt:
  • Firestorm: 8
  • Golden Cove: 5
  • Zen 3: 4
Meiner Meinung nach hat Apple sie auf Taktfrequenzen von etwas ca 3,5 GHz ausgelegt. Der Schwerpunkt ihres Einsatzes sind mobile Geräte und deshalb ist Energie-Effizienz extrem wichtig. Da diese Kerne mit den besten verfügbaren Prozessen hergestellt werden und nur in Premium-Geräten verwendet werden spielt der hohe Verbrauch an teurer Waferfläche für Apple keine Rolle.

Aber das eigentlich entscheidende sind nicht die CPU-Kerne, sondern dass
  • alle Einheiten im SoC optimal ins Betriebssystem eingebunden sind.
  • SoC und System optimal aufeinander abgestimmt sind.
Bei aller Euphorie sollte man nicht vergessen, dass Apple Modularität und Erweiterbarkeit gestrichen hat. Dies finde ich bei Notebooks unproblematisch aber bei vielen Desktopanwendungen ist es problematisch. Ich bin gepannt was Apple mit den Mac Pro macht.

Wir werden sehen wie es bei Apple weitergeht. In den letzten zwei Jahren haben sehr viele CPU-Entwickler Apple verlassen. Wirkt sich dies auf das Tempo der Weiterentwicklung aus oder kann Apple dies kompensieren?

Was die Arm-Konkurrenz angeht werden wir sehen was die ehemaligen Apple-Leute bei Qualcomm auf die Piste bringen.

Was mich aber viel mehr interessiert: Wie wird Phoenix im Vergleich zu den M1... aussehen.
Ergänzung ()

Esenel schrieb:
Ab und an muss man auch ein bisschen Würze in den Tag bringen ;-)
Wenn es eine sachliche Diskussion wäre, hätte es Würze.

So ist es ein sinnloses Gebashe, das die interessanten Beiträge wie z. B. von Zer0Strat und Taxxor schier untergehen lässt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oppagolf
thebagger schrieb:
Bei den aktuellen Strompreisen begrüße ich die Veränderung überhaupt nicht.
Als Einzelperson hat man nach wie vor die Wahl, nicht zu den großen Stromfressern zu greifen oder manuell etwas Leistung gegen Effizienz einzutauschen.
thebagger schrieb:
Bin gespannt wie sich das Ding kühlen lässt, kleine Fertigung wäre doch mehr Hitze auf kleinerer Fläche, oder irre ich da?
Das ist mittlerweile im Design früh mit inbegriffen. Heatspots sind mitunter die neuen großen Herausforderungen beim Chipdesign. (Quelle)

Kleine Anekdote (unbelegt; find die Quelle momentan nicht): Ich glaube es war eine Qualcomm-Mitarbeiterin in einer Präsentation die witzelte, man würde den Kunden bei TSMC nur die Hälfte der Fläche verkaufen, weil der Rest leer bliebe um mehr Kühlfläche zu haben.
 
  • Gefällt mir
Reaktionen: thebagger
Portal501 schrieb:
Glaube ich nicht. Sehr viele im meinen Freundeskreis sind schon auf Konsolen umgestiegen. Die machen das Spiel nicht mehr mit. Ich werde es auch nicht mehr mit machen. Habe erst eine PS 5 gekauft.
Ich kenne keinen der komplett umgestiegen ist, das sind aber auch absolute PC Fans.
Ich habe keinen Bock auf Controller, auch gefallen mir die meisten Spiele nicht. Bei den Konsolen zahlt man sich in meinen Augen zudem über die Spiele dumm und dämlich, ganz unabhängig von den Mikrotransaktionen.
 
GERmaximus schrieb:
Ob die 170watt effizient sind, oder eine 12900 Brechstange sind (wobei hier immer noch Rund 90 Watt 170-260 Differenz mal eben im Raum stehen) werden Tests zeigen müssen.
Der 12900KS hat ne TDP von 241W und der 7950X möglicherweise um die 230W. Das sind 11W Unterschied.
 
Laphonso schrieb:
Ihr kauft doch fast alle wieder eine nächste AMD und Intel CPU, die mehr verbraucht, spätestens in der übernächsten Generation. Hauptsache bis dahin ALLE Threads der neuen GPUs und CPUs bzgl. des Verbrauchs volljammern.
so ein Käse. Schließ nicht von dir auf andere.
Ich hab meine aktuelle CPU bewusst ausgewählt, weil sie 65Watt TDP hat und das maximal 74W werden im Realbetrieb. Zum einen wegen der Abwärme, zum anderen wegen der Effizienz. Bei der GPU ebenfalls auf ein Modell geachtet, das deutlic <200Watt braucht.
 
Ned Flanders schrieb:
Wenn AMD da jetzt auch hingeht, auch wenn es nur die spitzen SKU ist, wäre das imho keine gute Sache, die Spirale wird sich nur weiter drehen... siehe GPUs.
Das ist auch meine Befürchtung und das ist schade. Man muss aber auch sagen, dass "wir" - allgemein gesprochen, also bitte nicht angesprochen fühlen im speziellen - daran auch nicht unschuldig sind.

Wir neigen zu oft dazu, dass wir uns von langen Balken und Awards doch blenden lassen. Für viele ist es nicht entscheidend, wie eine CPU, besser ein Hersteller sein Ergebnis erreicht, sondern oft nur, dass er ein gewisses Ergebnis erreicht hat.

Dazu kann Intel aber auch AMD und NVIDIA damit dann oft auch sehr wirksam werben. "Wir haben die schnellste CPU in allen Lebenslagen."*
*Ja, die CPU, die du hier im rechner kaufst ist nicht die schnellst, dass die schnellste CPU auch quasi den 5-fachen Energiehunger hatte, das erwähnen wir hier auch nicht, nicht zu vergessen, dass die Kühlung hier, selbst wenn das eigentlich die schnellste CPU wäre, das überhaupt nicht schaft.
Wer ließt denn das Kleingedruckte hinter dem Sternchen? Genau so verhält es sich mit den Testergebnissen.

Wir setzten aber allgemein in dem Bereich einer unguten Entwicklung auf - nicht nur im PC-Bereich. Bei Automobilen ist es ja genauso und da wird auch auf eine ähnlich Art agumentiert wie dann hier: Ja, die CPU/GPU sind viel effizienter als vorher. Stimmt, das ist nicht falsch, aber der absolute Verbrauch steigt halt auch an und letzteres ist nicht unbedingt positiv zu bewerten. Muss aber jeder für sich selbst entscheiden.

hahaqp schrieb:
Hier im Forum herrscht im Bezug aufs Gaming eh eine faszinierende "Geilheit" auf CPUs.
Na ja, allgemein ist die Geilheit hier auf gewisse Sachen faszinierend, was Gaming angeht. Da wird dann teilweise auch wegen 10 FPS schon eine neue CPU geholt und Co, weil man ja statt 150 ebene 160 FPS braucht - was dann nicht mal mehr 10 % aus macht. ;)
Luxamman schrieb:
Finds da eher schade, dass die CPUs im Gegensatz zu ARM und eben Apple einfach noch mehr Strom verbrauchen müssen, um weiter Leistung zu bieten. Zumindest wirkt es oft so.
Der Hunger nach mehr Rechenleistung ist hier der entscheidende Punkt und vor diesem Hunger ist auch ARM, RISC-V und jede andere Architektur nicht gefeit. Apple hat aktuell den "Luxus" dass sie sich etwas außerhalb der Konkurrenz bewegen. Intel, AMD, NVIDIA und viele anbieter haben den Luxus nicht.

Dazu werden die Zyklen zwischen den einzelnen Fertigungen immer länger und auch Taktgewinne sind in der Form auch nicht mehr so vorhanden wie früher. Auch die Spannungen können teilweise garnicht mehr so drastisch reduziert werden wie früher.

Schau dir mal die Entwicklungsschritte in den 90er an: Pentium 2, 1997 0,35 µm, 2,8 V. 1998 0,25 µm 2,0 V. Man hat damals es sogar fertig gebracht, dass das neuste schnelle Modell weniger TDP hatte, als das schnellste Modell davor und man trotzdem sogar noch mehr Leistung brachte. (300 MHz bei 43 W TDP gegen 450 W bei 27 W TDP).

Wirklich "böse" war damals eher der Pentium 4, aber auch da war es so, dass man oft schon gut schneller war bei weniger Leistungsaufnahme, wenn dann ein Node-Sprung kam. Es kam Mitte der 90er quasi jedes Jahr ein neuer Node und dann zumindest - bis 2014 - jedes 2 Jahr ein neuer. Wie lange hing Hintel jetzt auf ihren 14nm fest?Jetzt endlich auf ihrem 10nm/Intel 7. Intel 4 wird kommen, aber wann. TSMC hängt aktuell ein Stückweit auch bei N5/N4 und das nun seit 2020 und N3 wird auch erst 2023 wirklich anlaufen.

Die Abstände zwischen den neuen Nodes werden eher noch zunehmen, als abnehmen. Was passiert denn bei Apple, wenn TSMC wirklich N3 vielleicht sogar bis 2026 "nutzen" müssen, weil sie nicht voran kommen? Was macht dann Apple wegen der Leistung?

Apple hat aktuell NOCH den Luxus, dass ihr ARM-Design sehr gut ist, aber die Konkurrenz schläft nicht und anders als so mancher Journalist, denke ich persönlich nicht, dass Apple "noch" Jahre voraus ist, sondern das Intel, AMD, NVIDIA und ebenso Qualcom und Co sehr genau wissen, was sie tun müssen um aufzuholen und sie werden immer näher kommen.
ETI1120 schrieb:
Aber bei Apple vs AMD/Intel nur den Verbrauch zu vergleichen und dabei zu ignorieren was Apple an Die-Fläche aufwendet, ist nicht sinnvoll.
Na ja, ich hab dazu schon mal was geschrieben und andere auch.

Ja, der M1 Pro/Max/Ultra sind sehr groß und auch größer als ein 12900K oder Zen3 und vermutlich auch größer als Zen4 dann, aber der Vergleich funktioniert so nicht, weil im M1 bereits eine CPU mit 1024 Shader sitzt und im M1 Pro mit 2048 - Mittelklasse-GPU - während Max und Ultra mit 4096 und ganzen 8192 Shadern quasi im Highend-Bereich mitspielen.

M1 kommt auf 16 Milliarden Transistoren, der Ryzen 5900HX kommt auf 10 Milliarden. Hier hat man zumindest "ungefähre" Eckdaten, teilweise abgleichen. Beide haben 8-Kerne, beide haben ein Speicherinterface mit 128 Bit, beide sind, was den Cache angeht vergleichbar. Der 5900 HX kommt mit seiner Vega 8 auf ca. 512 Shader, also halbsoviele Shader - und hat keine dedizierte NPU mit 16 Kernen.

Der Ryzen 6900HS kommt auf knapp 13 Milliarden Transistoren für immer noch 8 Kerne und nun 768 Shader und die Eckdaten passen immer noch.

Selbst wenn man jetzt ein Teil der Schaltungen den RT-Kernen und Co zu schreibt und ebenso den notwendige Schaltungen um die Effizient zu steigern, weil man ja Bereiche abklemmt usw: Apple wird für ihre Kerne und die Leistung die diese bringen können, nicht wirklich wahnsinnig viel mehr Transistoren benötigen wie AMD oder Intel.

Der Verweis auf die Die-Fläche oder Anzahl der Transistoren ist zwar schön und gut, aber der Hinweis ist eigentlich nichts weiter als eine Nebelbombe, denn der die bei M1 über alle Klassen hinweg ist teilweise gigantisch, aber es ist ja nicht nur eine CPU, sondern eben ein SoC, der es je nach Ausbaustufe nicht nur mit einer großen CPU aufnimmt, sondern auch mit einer großen Grafikkarte.
ETI1120 schrieb:
Auch sollte man berücksichtigen, dass Apple einen Node weiter ist.
Ja, sie sind ein Node weiter, aber auch dafür habe ich entsprechende Rechnungne angestellt und je nach Szenario das man anlegt und mit den Werten mit denen man dann rechnet, würden selbst ein Zen3 und AlderLake in N5 nicht wirklich mit halten können - wir wollen aber nicht verschweigen, dass in anderen Ausgangslagen AlderLake und Zen 3 auch besser da stehen.

Beide Argumente von dir kann man als Red Herring bezeichnen, weil nur der Verweis auf diese Tatsachen primär ablenkend sind.
 
  • Gefällt mir
Reaktionen: Ned Flanders
DevPandi schrieb:
Ja, sie sind ein Node weiter, aber auch dafür habe ich entsprechende Rechnungne angestellt und je nach Szenario das man anlegt und mit den Werten mit denen man dann rechnet,
Deine Rechnung hat aber nicht das fast doppelte Transistor Budget berücksichtigt. Wenn AMD und Intel den Cache um 50% vergrößern, oder mehr Execution Units einbauen usw. verbessert die Leistung weit außerhalb der "x% mehr Takt bei selben Verbrauch". Zen 2 zu Zen 3 hat es ja eindruckvoll gezeigt -> 30% mehr ST, 10% MT, selber Node, ~10% größerer Die.

Wie wir von Jim Keller gehört bekommen haben, ISA ist nicht so wichtig, das Design spielt eine viel größere Rolle. Heißt es ist egal ob x86 oder ARM, es kommt auf die Zielsetzung an. Entsprechend könnten Intel und AMD selbiges mit vergleichbaren Daten herstellen. Aber beide sehen wohl (noch?) keinen Markt dafür.
 
Zuletzt bearbeitet:
owned139 schrieb:
Der 12900KS hat ne TDP von 241W und der 7950X möglicherweise um die 230W. Das sind 11W Unterschied.
Wo kommen die 230watt für den 7950 her?
Hatte 170watt gelesen?!

Edit: hab’s gefunden
Danke @ensel
 
  • Gefällt mir
Reaktionen: Esenel
Und ein KS liegt bei 150/260
 
Zurück
Oben