News AMD-CPU-Gerüchte: Raphael bleibt bei 16 Kernen, aber bekommt 170 Watt

Mehr Takt wird es mit Sicherheit nicht geben, da geht physikalisch eh nichts mehr. Die Kerne werden eher in die Breite wachsen, was sie auch müssen da sonst die Chiplets bei 5nm zu klein werden. Das alleine wird den Effizienzvorteil von 5nm gegenüber 7nm schon aufbrauchen. Gegenüber Zen 3 wird noch dazu kommen:
1. Gestapelten L3-Cache
2. Integrierte GPU
3. Neuer I/O-Die mit DDR5 und PCIe5 Support

Ohne die Kerne damit einzubremsen muss halt die TDP ein wenig rauf.
 
Zuletzt bearbeitet:
Summerbreeze schrieb:
Dann sollte es auf jeden Fall mehr Kerne per Chiplet als bisher geben. Denn wo wollen sie die Energie sonst reinpumpen?
Naja, bester Vergleich ist doch der 8 und der 16 Kerner, die beide 105W TDP haben. Daber erreicht eben der 8 Kerner zb bis 4.5 oder 4.6Ghz, während der 16 Kerner oft nur auf 3,7-3,8 kommt.
Durch anheben der TDP werden dann halt die Kerne besser ausgenutzt, auch wenn das natürlich ineffizienter ist. Aber das macht ja auch Intel um das letzte bisschen Leistung rauszuholen.
So erreiche ich ja jetzt auch schon beim 5950X bei 4,4Ghz zb die 200W

Ausserdem erhöht das auch den Leistungsabstand zwischen den CPUs. So wäre der 16 Kerner halt wirklich doppelt so schnell wie der 8 Kerner und nicht nur so 70-75% schneller.
 
Ned Flanders schrieb:
Was auch immer da kommt, es wird garantiert nicht günstig. Das Packaging kostet sicherlich Geld. Das macht Sinn und fällt wenig ins Gewicht bei 5900x --> hoch zum Epyc aber ob die das wirklich auch im mittleren Segment bringen zweifel ich noch an.

Andere Seiten sprechen von einem 5600XT und einem 5900XT.

Was mich dabei stört ... ich komm von einem 2700X und da klingt es persönlich unvernünftig wieder auf 6 Kerne zu setzen ... aber damit wäre der 5600XT in Spielen schneller als der 5800X... wobei bei manchen ist schon noch Puffer von 25% ... das dürfte dann den Gewinn von 16% laut Folie genau für ein knappes darunter reichen.

Sehr .... verunsichernd.
 
PietVanOwl schrieb:
Ursache: man will Intel weiter auf Distanz halten bzw. ein Top Produkt anbieten welches nicht unnötig drosselt. Wirkung: der Takt kann höher anliegen = mehr Leistung. Und wo ist da jetzt die Aussage falsch dass der Verbrauch weiter hoch gezogen wird?
Ganz einfach: Du schreibst "fängt man jetzt auch bei AMD an den Verbrauch immer weiter hoch zu ziehen", was impliziert dass eine Erhöhung des Verbrauches das (oder wenigstens ein) Weg zur Zielerreichung wäre. Ist es aber nicht: Der Weg (und damit Ursache) ist die Takterhöhung, welche durch das neue Layout mögflich wird. Der erhöhte Verbrauch ist lediglich eine unerwünschte (Neben)wirkung. ;)
 
begin_prog schrieb:
PCIe 5 kommt erstmal nicht, was auch richtig ist, so lange es nichts bringt, aber mehr Strom frisst.
Ups, da war ich in den Gedanken wohl schon bei Zen 5. 😁
 
Diese immer höheren Verbräuche sind langsam aber sicher doch etwas anstrengend. Bald muss man einen Noctua N-DH 15 und Co oder eine 360er Wakü als Minimum haben, damit man nicht ständig im Temperaturlimit segelt.
Unabhängig davon passt das Ganze irgendwie nicht in die Zeit von wir werden immer sparsamer und effizienter.
 
@ZeroStrat mal sehen, wann und was Intel liefert. Für uns Kunden kann es nicht schlecht sein. Jedoch bezweifelt ich, dass sie so brutal stark werden wie alle hoffen.

@blumentopf es heisst nicht, dass sie mehr brauchen, der Sockel ist aber bis zur TDP von 170 Watt freigegeben!
 
  • Gefällt mir
Reaktionen: Zarlak
Irgendwie scheinen manche Leute die relation zwischen Rechenleistung und elektrischer Leistung nicht so ganz zu verstehen.
Das ist nämlich die Effizienz.
Nicht 16 Kerne oder 5 GHz bei 10W.
Denn diese Werte sagen bis auf die 10W fast nichts aus.
Außerdem solltet ihr euch mal den Stromverbrauch von Hardware über die letzten 25 Jahre ansehen.
 
Und wie soll ich "diese" 170W gescheit mit Luft kühlen?
Ich bin ja jetzt schon bei den 105w 7nm mit dem NHD-15 bei 72° an warmen Tagen - das ganze dann auf 5nm mit 65w mehr und die Hitzespitzen sind gar nicht aufzufangen....
 
begin_prog schrieb:
Wer hat denn angeblich mehr als 16 Kerne für Consumer erwartet? :confused_alt:

Das wirkt ein bisschen konstruiert.
Ja ich habe es,weil ich gehofft hatte das dann mehr leistung gegenüber einem threadripper 3960x am ende rauskommen würde.
Wer weis ob sowas wirklich möglich gewesen wäre, wie auch immer. Vielleicht kommt das ja noch in zukunft wer weis. Soll ja möglichst nah an nem threadripprr 3970x kommen.
Die 15 % wollen ja auch noch erreicht werden oder etwa nicht?
 
Janiii schrieb:
Hier müssen die Hersteller doch mal in die Pflicht genommen werden ihre Produkte sparsam zu designen
Dafür bringt Intel ja die bigLittle-Architektur.

Kann mir vorstellen dass der Idle-Verbrauch für den Rechner auf 10-20 Watt sinken wird. Mein Rechner läuft locker 16h/Tag, das merkt man dann schon auf der Stromrechnung.
 
Aus Gamingsicht bin ich erstmal gespannt, ob das z.B. nächste Battlefield noch besser mit zusätzlichen CPU Kernen skaliert. Oder überhaupt künftige Games.
Die Konsolen sind hier leider das Limit, weil sie nur einmal pro Jahrzehnt mit den PCs (kurz) gleichziehen.
Die PS5 Technik wird direkt wieder alt aussehen gegen RNDA3, Ampere 2 und die nächste Intel und AMD CPU Generation, was die Leistungsdaten betrifft.
Dennoch werden die Games der nächsten 3-5 Jahre im Wesentlichen für die Konsolen designed und der technik, die eine PS5 bietet.

Davon abgesehen habe ich den 5950x habe gekauft, um AMD nach all den Jahren zu unterstützen. Und nicht, weil er in Games mehr so viel mehr bringt als 8 oder 10 Kerner.

Nochmal 16 Kerne würde ich in der nächsten Gen nur kaufen, wenn es wirklich spürbares Tempo in den Games bringt.
EIn 6950x, der auf 16 Kerne bis zu 5 GHZ allcore schiebt, das wäre spannend. Allerdings sind wir dann bei der Frage der Kühlung @Cpt.Willard sehe ich auch so.
 
Zuletzt bearbeitet:
Es steht jedem frei seine CPU runter zu takten. Niemand sagt, dass jede 16 Core CPU zwingend mit 170W betrieben werden muss, aber es gibt die Möglichkeit, wenn der Käufer bzw. System Builder es will.
Ähnlich ist es beim 11900. Dieser verbraucht maximal 65 Watt aber wenn man will, kann man ihn bis auf 300W hoch schrauben. Ob es das wert ist, muss jeder für sich selbst entscheiden.

Dass AMD nicht mehr als 16 Kerne bringt liegt einfach daran, dass dies in den meisten Fällen keinen Vorteil mehr für den Durchschnittsanwender bringt. Im normalen Office Alltag werden derzeit selten mehr als 2-4 Kerne benötigt. Bei Spielen derzeit maximal 8 Kerne, in naher Zukuft vielleicht maximal 12-16 (wobei man SMT hier immer noch nicht nutzt).
Einzig alleine Multimediaanwendungen, mathematische Simulationen etc. skalieren noch sinnvoll mit mehr 16 Kernen. Für diese Zielgruppe ist Threadripper mit bis zu 64 Kernen gedacht.
 
  • Gefällt mir
Reaktionen: bensen und iWeaPonZ
patrickschur schrieb:
Warum ist mein Tweet überhastet oder unüberlegt? Habe ich mich über die TDP aufgeregt oder negativ geäußert? Nein.
Mir is durchaus bewusst das Du mit kurzen und prägnanten Tweets Deine Quellen wahrst. Dank dem nachgelegten Tweet ist das Weltbild für AMD um die "ach so hohe TDP" hoffentlich wiederhergestellt.


Blumentopf1989 schrieb:
Diese immer höheren Verbräuche sind langsam aber sicher doch etwas anstrengend. Bald muss man einen Noctua N-DH 15 und Co oder eine 360er Wakü als Minimum haben, damit man nicht ständig im Temperaturlimit segelt.
Unabhängig davon passt das Ganze irgendwie nicht in die Zeit von wir werden immer sparsamer und effizienter.

Effizienz ist halt auch ein subjektiver Begriff.
Such ich nach knapp 10 Jahren zu Sandybridge einen Ersatz so ist es durchaus möglich eine CPU mit wesentlich weniger Leistungsaufnahme zu holen zu Marktechnisch ähnlichen Preisen. Ich muss halt nicht im Enthusiasten-Bereich danach suchen.

Die Industrie und das Marketing hat uns erzogen das wir stetig mehr Leistung erhalten und diese auch effizienter als je zu vor erhältlich ist. Beide Aussagen sind per se nicht falsch aber sehr wohl irreführend wenn man immer Top End kauft.


Intel wird das auch nur durch Big-Little schaffen, den die 5GHZ Brechstange nutzte deren Konsumenten erst recht nicht wenn man permanent mit Throttle kämpft. ARM hat es vorgemacht mit M1 gibt es einen weiteren Chip der die Laufrichtung angibt.
 
Zuletzt bearbeitet:
Nagilum99 schrieb:
Der soll einen DIE-shrink auf TSMCs 7 nm bekommen - also eher unwahrscheinlich.
In den I/O-Die soll aber noch die iGPU einziehen.
 
Zarlak schrieb:
In den I/O-Die soll aber noch die iGPU einziehen.
Die dürfte aber eher nur zur Bildausgabe da sein? Also 2-3 Work-Units (4-6CU) + Videocodec.
Alles andere täte mich schon wundern. Sonst würden sie ja auch die APUs kannibalisieren.
Im Höchstfall dürfte die auf dem gleichen Niveau wie die APUs landen. Wieviele WUs bekommen die demnächst? bis zu 6?
Beim Betrieb einer Grafikkarte ist das Teil dann ja auch abgeschaltet.
Nach meinem Ermessen sollte sich die Energieaufnahme ohne iGPU min. halbieren. Also ~5-10W
Der iGPU traue ich persönlich auch nicht viel mehr als 20-25W bei Last max. zu.
Ergänzung ()

VelleX schrieb:
So erreiche ich ja jetzt auch schon beim 5950X bei 4,4Ghz zb die 200W
Wie das? PBO On und auch sonst alles auf Anschlag? :D
Die 4,4 GHz sind dann AC?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nagilum99
aha ne integrierte GPU auf welchen Level die wohl sein wird,ist die dann schlechter als ne Intel HD 4000 oder doch besser. Wenn sie weit schlechter wäre,wäre es ja echt Peinlich. Ich brauche wenn dann mindestens ne Leistung einer 8800gtx aber das wird wohl bei diesen Integrierten GPUS wohl niemals im leben erreichen. Vielleicht ja nach weiteren langen 20 Jahre warten. Nun gut das sehen wir dann schon zu was es sich entwickeln wird.
 
Mein 5950x ist aktuell bei 4,5 GHz AllCore OC, da zieht der ebenfalls knapp 200 Watt.

10s ins Bios gehen und schon zieht der maximal 65 Watt wenn man mal keine Leistung benötigt. :daumen:
 
Zurück
Oben