News AMD-CPU-Gerüchte: Raphael bleibt bei 16 Kernen, aber bekommt 170 Watt

latiose88 schrieb:
auf welchen Level die wohl sein wird,ist die dann schlechter als ne Intel HD 4000
Schlechter geht ja wohl kaum. ;)
Selbst eine Vega 8 APU Grafikeinheit hat min. die 4-fache Rechenleistung.
Lt. Techpowerup Datenbank hat eine Vega 8 die 1,5 fache Rechenleistung einer 8800gtx.
Dies dürfte wohl die allerunterste Grenze für die RDNA2 iGPU sein.
Völlig Blamieren wollen sie sich ja schließlich auch nicht. ;)

Edith:
Wenn man sich mal die Fortschritte, ausgehend von Vega bis RDNA2 anschaut, sollte sich selbst bei einer (hypothetischen) 3 WU (6 CU) Konfiguration noch ein Leistungsplus im Vergleich zu VEGA 8 ergeben.
 
Zuletzt bearbeitet: (Ergänzt)
  • Gefällt mir
Reaktionen: SaschaHa, Nagilum99 und Colindo
S.Kara schrieb:
Dafür bringt Intel ja die bigLittle-Architektur.

Kann mir vorstellen dass der Idle-Verbrauch für den Rechner auf 10-20 Watt sinken wird. Mein Rechner läuft locker 16h/Tag, das merkt man dann schon auf der Stromrechnung.
Die 20 Watt erreichen ja meine Pumpe mit den Lüftern schon :/

Ganz verstehe ich den Fokus auf den CPU Idle Verbrauch nicht, denn die schlucken eh kaum was. Die Board Wahl hat deutlich mehr Einfluss. Im Bios CEC19 und ACPI an spart meist mehr, als die CPU ansich im Idle verbraucht...
 
  • Gefällt mir
Reaktionen: begin_prog, Nagilum99 und jemandanders
Dann müssen sich die Leute, die für Ampere aufgerüstet haben, schon wieder ein neues Netzteil kaufen. :daumen:
 
  • Gefällt mir
Reaktionen: Laphonso
16 Kerne bei 5,0 Ghz, 5nm und bis zu 40% Mehrleistung zu Zen 3? Da seien die 170W aber sowas von gegönnt! :)
 
  • Gefällt mir
Reaktionen: danyundsahne
Ohne endlich regelmäßige unterstützung von Thunderbolt in den Mainboards, wirds bei mir leider kein AMD...
 
Ich halte die angepeilten Watt-Werte einfach für nicht mehr tauglich bzw. zielführend. Strom wird immer teurer, ich bin mit meinem 3700X mit seinen 65W sehr zufrieden, ich möchte keine CPU die 170 Watt zieht. Auf Teufel komm rauf die Core-Leistung hoch zu prügeln und dafür 170W ist irgendwie fragwürdig. Nur meine Meinung. Ich bin wirklich sehr zufrieden mit den Entwicklungen bei AMD, aber sie sollten nicht Intel imitieren
 
  • Gefällt mir
Reaktionen: Blende Up
@1lluminate23 dann stell selbst die PPT runter. Hocke hier auch auf 100W (also 100W max) mit UV und erreiche Stock Leistungswerte mit meinem 5950X.
Man hat ja die wahl, wie bei den GPUs. 30x0 und 6x00 kann man manuell auch drosseln, ohne groß Leistung zu verlieren

@Summerbreeze Mit DDR5 muss auch die Bandbreite zwischen dem IOD und dem CCD verdoppeln werden, sonst kommt vom RAM nichts an. Das wird trotz 7nm IOD ordentlich Watt kosten. IGP mit 2 oder 3 Navi CUs und nochmals 5-10W.
 
  • Gefällt mir
Reaktionen: Zarlak
Banned schrieb:
Dann müssen sich die Leute, die für Ampere aufgerüstet haben, schon wieder ein neues Netzteil kaufen. :daumen:
1626288907525.png


1250W Titanium Enermax = Jahr 2022/2023 ready, 4090/7900XT und Raphael dürfen kommen :D

Im Januar hatten meine Kollegen noch Scherze gemacht, dass ich mein Netzteil, das letzten Herbst mit den Lastspitzen der 3090 Probleme hatte, "zu op" aufgerüstet habe.
"1250 Watt lol, völlig übertrieben, wozu Titanium, und Du hast doch nicht mal nvlink und der 5950x ist sparsam!"
Ich sagte da schon, wir wissen nicht, was wir in 2-3 Jahren brauchen für die stärkste Gaming GPU und CPU Kombo, ich kaufe hier mit Absicht bereits jetzt ein High End Netzteil für das Nachfolgesystem.

Genau "da" zu sparen, wenn man ansonsten High End verbaut, ist gaga imo.
 
bad_sign schrieb:
Die 20 Watt erreichen ja meine Pumpe mit den Lüftern schon :/

Ganz verstehe ich den Fokus auf den CPU Idle Verbrauch nicht, denn die schlucken eh kaum was. Die Board Wahl hat deutlich mehr Einfluss. Im Bios CEC19 und ACPI an spart meist mehr, als die CPU ansich im Idle verbraucht...
Mein Rechner schluckt im Idle schon 60 Watt. Meistens läuft halt noch Youtube, oder ich arbeite. Da brauche ich nicht viel Leistung, aber 120 Watt liegen Minimum an.

Sagen wir im Mittel 80 Watt bei 16h/Tag macht 144€/Jahr. Mit bigLittle könnten es 40 Watt sein, 72€ / Jahr gespart.
Rechne mit 5 Jahre pro CPU und du bist bei 360€.

Manch einer macht den Rechner nur an um zu zocken und fährt ihn dann wieder runter, da interessieren solche Werte natürlich nicht. Aber für mich persönlich rechnet sich das schon. Und wenn kaum etwas verbraucht wird, muss sich auch kein Lüfter drehen.

Daher bin ich auch nicht sicher welche CPU es bei mir nächstes Jahr wird, wollte eigentlich einen 16-Kerner von AMD, aber der Verbrauch sollte passen.
 
Summerbreeze schrieb:
Völlig Blamieren wollen sie sich ja schließlich auch nicht.
Kommt ganz darauf an, was man will. Ich gehe davon aus, dass es weiterhin richtige APUs geben wird, und dazu CPUs, die zumindest ein Bild ausgeben können. Die CPUs mit einer "halbgaren" Lösung auszustatten, die von jeder APU gekillt wird, macht IMHO wenig Sinn. Es sei denn, es gäbe gar keine eigenen APUs mehr, aber daran glaube ich nicht.

Laphonso schrieb:
Bei übertriebenen Netzteilen gehe ich nicht mit, schon wegen der Effizienz. Die Grafikkarte wird nach dem Netzteil ausgesucht. Und wenn es dann wirklich mal raus müsste, ist das Netzteil so eine typische Komponente, die in mehreren (anderen) Rechnern mal wieder ersetzt werden könnte / müsste. Also kein Verlust.

S.Kara schrieb:
Daher bin ich auch nicht sicher welche CPU es bei mir nächstes Jahr wird,
Da bietet sich Rembrandt an. Wenn der noch nicht verfügbar ist, ein Cezanne 8-Kerner (Ryzen 5700G im Test bei Toms Hardware). Je nach Mainboard bist du mit 7 W im idle dabei, z. B. im DeskMini X300.
 
Zuletzt bearbeitet:
latiose88 schrieb:
aha ne integrierte GPU auf welchen Level die wohl sein wird,ist die dann schlechter als ne Intel HD 4000 oder doch besser.
HD4000? Die ist von 2012, natürlich ist jede denkbare iGPU deutlich stärker als das.
Selbst die Vega3 aus einem 60€ Athlon 200GE, AMDs schwächste iGPU von 2019, ist fast dreimal so stark.
Screenshot 2021-07-14 215451.png


Der G4560 hat die Intel HD 610, welche ihrerseits ca 50% schneller als die HD 4000 ist, die stünde hier also mit ca 66% im Ranking, der Athlon somit bei ~280%.


latiose88 schrieb:
Ich brauche wenn dann mindestens ne Leistung einer 8800gtx aber das wird wohl bei diesen Integrierten GPUS wohl niemals im leben erreichen. Vielleicht ja nach weiteren langen 20 Jahre warten.

Hier ein Ausschnitt aus dem damaligen Test der 8800GTX
Screenshot 2021-07-14 220222.png


49,3FPS hat eine 8800GTX in der Szene aus dem Screenshot oben in 1280x1024 mit 4xAA und 16xAF gepackt.

Und was sagt mein 4650G in1280x1024 mit allem auf max, was geht?
Screenshot 2021-07-14 224558.png



Okay, dass er stärker als die 8800GTX ist war mir klar, dass er mehr als dreimal stark ist, überrascht dann aber selbst mich ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn, McFritte, Smartbomb und 3 andere
Ned Flanders schrieb:
Von 7nm auf 5nm und dabei die TDP erhöhen klingt aber schon, als ob sie Intel ernst nehmen.
Oder man denkt sich, bevor der halb totgeprügelte (Technologisch) Mitbewerber vom Boden aufsteht, gleich nochmal auf die Umme drauf und zwar so heftig, dass diesmal gleich ganz schicht im Schacht ist :lol: (nicht zu ernst nehmen).
PietVanOwl schrieb:
Na gut dann wird beim nächsten Rechner Upgrade wohl auch ein neues Netzteil fällig.
Sehr schön. Ich bin bereit. Die Wakü und das Netzteil langweilen sich schon. xD
maximus_hertus schrieb:
24 Kerne werden für Spiele irrelevant sein, aber AMD möchte den AM5 eben nicht nur als reinen Gaming-Sockel vermarkten, sondern auch für kleinere Workstations. Kreative, Grafiker, etc.
Macht Sinn und klingt plausibel, aber am Ende kanibalisieren sie sich ihr eigenes Portfolio Richtung Threadripper. Bin mal gespannt, was man sich noch außer Quad-Channel und mehr PCIe Lanes und IO überlegt, denn diese 3 Sachen rechtfertigen nicht komplett so viel höhere Ausgaben.
v_ossi schrieb:
Ne, Spaß bei Seite. Das der Sockel das hergibt oder eine CPU sich die 170 Watt gönnen kann, sagt erst mal noch nicht so viel aus.
Korrekt, eigentlich kann der 5950X, wenn ich All-Out gehe mitm OC Switcher krieg ich den Stable auf 4,78 Ghz Allcore und wenn ich dann AVX Workload draugebe, brennt die CPU mit >240W fast ab :daumen:
Im Gamingbetrieb hat die kaum ihre 80W verbrauch....
 
begin_prog schrieb:
Kommt ganz darauf an, was man will. Ich gehe davon aus, dass es weiterhin richtige APUs geben wird, und dazu CPUs, die zumindest ein Bild ausgeben können.
Bisher habe ich auch eher eine "Bildausgabe" auf dem Schirm gehabt. APUs wird es natürlich weiterhin geben. Schon aus Effizienzgründen.
Vorhin hat einer beim Planet 3D Now mal eine "dicke" APU mit 170W in die Diskussion geworfen.
Hätte auch ihren Reiz, wenn man da noch irgendwie Grafikspeicher drauf bekäme..
 
  • Gefällt mir
Reaktionen: begin_prog
Frühe Gerüchte vom Anfang des Jahres sprechen von etwa 29% höherem IPC gegenüber Zen 3. Da bereits Zen 3+ alleine durch den neuen Cache durchschnittlich 12% zulegen soll, sind die restlichen 17% Zuwachs also absolut denkbar, da dank 5 nm und größerem Sockel ja auch noch viel mehr Fläche zur Verfügung steht. Durch die höhere TDP dürften dann am Ende problemlos 40-45% Mehrleistung gegenüber Zen 3 auf dem Papier stehen, was schon ein gigantischer Sprung ist, wenn man beachtet, dass die Kernanzahl nicht erhöht wird.

Skeptisch bin ich aber vor allem noch bei den 170 Watt TDP. Diese Angabe halte ich eher für den neuen Turbo der ~120 Watt TDP-Klasse. Möglicherweise ändert man auch einfach das Turbo-Verhalten, wodurch dieser auch ohne große Umwege dauerhaft anliegen darf, was dann quasi einer 170 Watt TDP-Klasse gleichkäme.

Etwas schade, dass man bei 16 Kernen bleibt, aber natürlich absolut verständlich im Hinblick auf Threadripper. Dass wir überhaupt 16 Kerne im Mainstream sehen, ist ja schon ein gewaltiger Fortschritt gewesen.
 
Averomoe schrieb:
Yield-Rate steigern & Verbreitung von DDR5 abwarten, nehme ich an.
Ich weiß ja nicht wie der TSMC Mann das so sieht, aber bei 8% Kapazitätsvolumen und steigender Nachfrage im SoC Segment dürfte die Entscheidung wohl klar sein; AMD muß halt warten müssen.

Und wenn dann wartet AMD auf PCIe 6.0 wie Intel. Letztenendes ist es die kommenden 2 Jahre egal wer wie was fährt (wird sich wohl im CPU Segment zwischen i9 12XXX und Zen4 12Core bewegen) hauptsache beide mischen 2024 ordentlich mit!
 
Zarlak schrieb:
In den I/O-Die soll aber noch die iGPU einziehen.
Das mag sein allerdings wird die iGPU in der Praxis selten gleichzeitig mit 32 Threads der 16 Kerne aktiv sein. Entweder man rendert, dann wird die GPU schlafen bzw. nur das Bild anzeigen oder man spielt ein sehr einfaches Spiel oder schaut 4K Videos, dann werden aber kaum 16 Kerne belastet. Falls tatsächlich beides gleichzeitig passiert, dass muss halt um ein paar MHz runter getaktet werden. Davon wird die Welt nicht einstürzen.
Summerbreeze schrieb:
Schlechter geht ja wohl kaum. ;)
Selbst eine Vega 8 APU Grafikeinheit hat min. die 4-fache Rechenleistung.
Lt. Techpowerup Datenbank hat eine Vega 8 die 1,5 fache Rechenleistung einer 8800gtx.
Dies dürfte wohl die allerunterste Grenze für die RDNA2 iGPU sein.
Völlig Blamieren wollen sie sich ja schließlich auch nicht. ;)

Edith:
Wenn man sich mal die Fortschritte, ausgehend von Vega bis RDNA2 anschaut, sollte sich selbst bei einer (hypothetischen) 3 WU (6 CU) Konfiguration noch ein Leistungsplus im Vergleich zu VEGA 8 ergeben.
Für 95% der Anwender ist selbst das maßlos übertrieben. Man muss einen 4K Monitor damit mit 60Hz betreiben können und das Ding muss einen Decoder für die Videowiedergabe haben. Alles andere ist Luxus. Wer Spielen will, der muss sich eben eine echte GPU holen aber vor allem in Büro PCs ist das sowieso unerwünscht. Da geht es nur um stabile Treiber und ein Bild am Schirm. Meiner Meinung nach verschwendet Intel hier im Desktopbereich viel zu viel Chipfläche.
1lluminate23 schrieb:
Ich halte die angepeilten Watt-Werte einfach für nicht mehr tauglich bzw. zielführend. Strom wird immer teurer, ich bin mit meinem 3700X mit seinen 65W sehr zufrieden, ich möchte keine CPU die 170 Watt zieht. Auf Teufel komm rauf die Core-Leistung hoch zu prügeln und dafür 170W ist irgendwie fragwürdig. Nur meine Meinung. Ich bin wirklich sehr zufrieden mit den Entwicklungen bei AMD, aber sie sollten nicht Intel imitieren
Und deine CPU läuft 24/7 mit allen 16 Kernen bzw. 32 Threads voll ausgelastet?
Das sind ja alles Spitzenangaben bei Maximallast und selbst das ist optional. Es wird wie immer Modelle mit weniger Verlustleistung geben, genauso wird es möglich sein die Verlustleistung zu reduzieren.

Leider wollen viele die eierlegende Wollmilchsau: 40% mehr Performance pro Kern, 50% mehr Kerne und das Ganze dann mit 50 Watt und billiger als der Vorgänger. Das wird es leider nicht spielen. Zeit aufzuwachen. Moores Law ist tot und 5nm ist kein Full Node Shrink zu 7nm mehr, wo sich alles verdoppelt.
 
eastcoast_pete schrieb:
Wenn Intel tatsächlich mit CPUs rauskommt, die ihre neueste Core Architektur auf TSMC's 3 nm Node haben, wird's für AMD uU doch wieder Mal eng. Ich denke auch, daß diese höheren TdPs für den Fall der Fälle vorgesehen sind.
Das geht aber sehr in Richtung Spekulatius. Wenn Intel die Produkte in TSMCs N3 bekommt, ist es 2023, und es wird garantiert kein Hochtaktdesign à la CPU sein. Das wird vielleicht eine Servergrafikkarte; irgendetwas margenträchtiges, dass man nicht in allzugroßer Stückzahl braucht. Für alles andere ist so eine frühe Produktion gar nicht zu gebrauchen. Ich denke Zen4 ist vor Intels 3-nm-CPU erstmal sicher.
 
  • Gefällt mir
Reaktionen: bensen
andr_gin schrieb:
Leider wollen viele die eierlegende Wollmilchsau: 40% mehr Performance pro Kern, 50% mehr Kerne und das Ganze dann mit 50 Watt und billiger als der Vorgänger. Das wird es leider nicht spielen. Zeit aufzuwachen. Moores Law ist tot und 5nm ist kein Full Node Shrink zu 7nm mehr, wo sich alles verdoppelt.
Warum sollte 7nm nen Full Node sein,ist doch genauso wenig Full wie die anderen auch. Du meinst wohl 5 nm hat weniger Mehrleistung zu bieten als 7 nm.ALso je kleiner desto weniger Mehrleistung kann man erwarten oder was willst du uns damit so sagen?

Und der rest den ich abgekührzt habe.Warum sollte das nicht funktionieren. DIe Onbaord GPU zum reinen Zocken und die CPU Kerne alle zum Umwandeln und schwups hat man alles auf einmal gleichmäßig ausgelastet. Ob es dann Leistung kostet oder nicht kann ich eben nicht genau sagen. Ich überlege ja irgendwann die gtx 750 Ti gegen ne Onbaord GPU zu tauschen,denn je sparsamer desto besser. Bei mir fallen alle RTX 2xxx sowie bisher auch 3xxx durch weil die mir alle zu Stromhungrig sind. Leider geht ja der Trend zu immer stromhungrigen GPUS. Da wird irgendwann wohl nur noch Onbaord GPUS hier übrig bleiben. Bei den Games bleibt es wohl so wie es ist. DIe Games die ich habe werden immer Älter und ja im Grunde genommen täte es sogar eigentlich ne 9600gt von der Rohleistung her. Ich habe auch nie mehr vor 4k oder wqhd sondern auf Full HD zu bleiben. Die Onbard Intel HD 4000 ist mir dafür zu schwach. Und ich gehe mal davon aus das dieser Pc wohl auch nicht ewig leben wird. Ich erhoffe mir somit ganau einen guten Ersatz dank der neueste Onbaord GPU. Ich Wandle um und zocke nebenbei gleichzeitig. Ich zähle zu den Mischtypen. Auf dem Laptop wird die daran enthaltene Seperate GPU abgeschaltet und nur noch die Onbaord verwendet. Leider gibt es halt keine Laptops mit Ryzen 9 5800H 17 " mit nur Onbaord GPU zum kaufen.Sonst hätte ich da schon zu gegriffen.
Am Pc wird es diese ja geben. Ich erhoffe mir also ne Fette CPU mit 16 und mehr Kernen + ner Onbard GPU mit eben jender Leistung die ich genannt hatte .Habe ja gelesen ne Vega 8 dürfte es defnitiv auf dem Level sein. Das würde mir also schon völlig reichen. ALso gehen tut es sehr wohl.


Achja ich finde es nur schade das es nicht mehr Kerne geben wird.Und auch das das meiste durch den Cache an mehrleistung kommen wird. Der Rest wird dann wohl das übliche sein,wohl wieder mal 10 % und im durschnitt werden es wieder 15 %+ sein bei allen Anwendung. Und sehe auch ob es dann wirklich mehr Leistung werden. Werde das hargenau dann testen. Habe ja gute vergleiche und nagele die Zen 4 ebenso wieder wie die anderen auf 4 ghz fest. Mir geht es also auf die reale Mehrleistung. Man kann es ja dennoch testen auch wenn man es nicht kaufen wird. Habe ich ja auch bei den Threadripper gemacht. Irgendwann wird sich auch mal bei den Threadripper CPUS sich was ändern. Und dann sehen wir im unteren Bereich auch ne Steigerung bei den Kernen. Spätestens wenn Intel 32 kleine Kerne als Mainstream macht wird sich hier ohnhin ne Menge verändern.Wie es weiter gehen wird,das sehen wir dann schon noch. Erwarte großes. Aber mir klar das wir hier nicht 40 % und mehr von ausgehend Ryzen 9 5950x zur Zen 4 sehen werden,weil das wäre zu viel des guten.Einfach zu unrealistisch und einfach nur eine Träumerei.

Und wenn sich einer gut mit VIdeoumwaneln auskennt,der meldet sich bitte bei mir Per PM oder sagt hier bescheid,denen sende ich meine Bilder mit den Einstellung zu.Will wissen warum meine Umwandlung bei Filmen nur 5 Kerne verwendet und bei Serien nicht obwohl die settings die selben sind. Wusste nicht das es da einen riesigen Unterschied zwischen FIlme und Serien gibt.
Und das wenige Filme länger brauchen als viele mehr Serien Folgen obwohl diese ja um ein VIelfaches mehr sind. Danke schon mal dafür,für die Hilfe.
 
andr_gin schrieb:
Und deine CPU läuft 24/7 mit allen 16 Kernen bzw. 32 Threads voll ausgelastet?

Zwar nicht ausgelastet rund um die Uhr, dafür aber 24/7 Abends Streams, YouTube, tagsüber Gaming, Office, Bilderbearbeitung
 
S.Kara schrieb:
Daher bin ich auch nicht sicher welche CPU es bei mir nächstes Jahr wird, wollte eigentlich einen 16-Kerner von AMD, aber der Verbrauch sollte passen.
Ich liege bei 53W Idle
5950X, 6800XT, 10Gbit Eth PCIe Karte, GA B550 Aorus Pro, D5 Wasserpumpe und 5 Silent Wings 140mm @550rpm, 2 Noctua NFP 140mm @500rpm, und 4 Silverstone Air Penetrator 200mm @300rpm
2 SSDs und 1 Samsung Evo+ NVMe.
Trotz viel ist wenig Verbrauch drin (wenn man es richtig einstellt)
Ich muss mal den PC strippen und schauen ob die 30W möglich sind.

Vor der RDNA2 hatte ich eine 1080ti mit 2 UHD mit unterschiedlicher HZ, Resultat 68W auf der 1080ti (100W ganzes System Idle) Habe mir dann zum surfen meinen Deskmini geholt ~ 10W Idle und etwa 30W mit Youtube und Hintergrundlast.

Am Ende laufen fast immer beide, da ich doch ständig rendere oder noch das Mining laufen lasse.

Der Mini wird sich zwar niemals amortisieren aber es geht ja auch ums Basteln und ums Gewissen :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: S.Kara
Zurück
Oben