Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD-CPU-Gerüchte: Raphael bleibt bei 16 Kernen, aber bekommt 170 Watt
Die großen und einfach arreichbaren Sprünge sind sicherlich passé, aber dass nur noch mehr Energie hilft sehe ich anders. Gerade AMD hat gezeigt, dass auch in der Architektur noch viel Potenzial steckt (besonders wenn man die zuvor so verkackt hat wie bei Bulldozer ). Sowohl bei CPUs als auch GPUs. Dass die Fertigungsstufen aufwändiger zu erreichen sind ist zwar richtig, aber dass die Schritte kleiner werden sehe ich anders. Absolut gesehen stimmt das zwar, relativ gesehen jedoch nicht. Von 5nm auf 3nm (wenn man die Zahlen mal so nimmt wie sie sind und nicht als reine Marketingnamen) haben wir den Faktor 0,6. 65nm auf 45nm waren "nur" 0,69. Von 14nm auf 10nm waren es 0,71, genau wie von 7 auf 5. Wir bewegen uns immer zwischen 0,6 und ca. 0,72 zwischen jedem Schritt.
Das ist irgendwie genau das, was ich nicht so prickelnd finde. Höhere TDP kann jeder. Der Vorteil von AMD lag ja gerade bei vielen Kernen und relativ geringem Verbrauch. Vor allem ggü. den Brechstange-CPUs von Intel. Ich hoffe die höhere TDP betrifft nur spezielle CPUs am oberen Ende des Portfolios und der Rest legt durch andere Optimierungen massiv zu.
Der alte am4 Sockel kann 140W in Spitze leisten. Und das ist selbst beim 5950X zu wenig. Deswegen ist es richtig und wichtig, auch in Blick auf bigLittle hier sich Reserve zu schaffen
Das ist irgendwie genau das, was ich nicht so prickelnd finde. Höhere TDP kann jeder. Der Vorteil von AMD lag ja gerade bei vielen Kernen und relativ geringem Verbrauch. Vor allem ggü. den Brechstange-CPUs von Intel. Ich hoffe die höhere TDP betrifft nur spezielle CPUs am oberen Ende des Portfolios und der Rest legt durch andere Optimierungen massiv zu.
Es gibt aber auch Anwendungen, die eine hohe single thread performance benötigen. Vielleicht deshalb.
Ansonsten bin ich ganz Deiner Meinung, man sollten an der Stelle den besten Kompromiss finden.
Wäre schön, mal wieder Systeme betreiben zu können, bei denen die CPUen nicht heißer als 38-65° heiß werden. Auch bei GPUen sollten nicht heißer als 40-68°C werden.
Dann könnte man solche "CPU (+ GPU) Leistungsmonster" auch wieder gut ohne höhere Aufwände (Gehäuse/Kühlung) silent betreiben
Also gegen 5Ghz spricht halt ganz klar die Heat Density auf noch kleineren Strukturen. Noch kleiner, noch mehr Komplexität, noch mehr Hitze auf noch weniger Raum und das soll dann höheren Takt ermöglichen ?
Der höhere Takt wird durch den Shrink ermöglicht. Dabei entsteht gleich viel Hitze auf weniger Raum, was zwar nicht gut ist, aber nicht so dramatisch wie du beschreibst. Die erhöhten TDPs gibt es ja wahrscheinlich eh nur für die CPUs mit 2 Chiplets, da ist es mit dem Raum nicht so dramatisch. Problematisch bezüglich Temperatur war bisher nur der 5800X mit einem Chiplet und dabei 105W TDP.
Aber gerade bei Single-Thread liegt der Verbrauch erheblich niedriger. Wenn ein einzelner Kern 170W verbrät, dann wird der gegrillt
bitheat schrieb:
Wäre schön, mal wieder Systeme betreiben zu können, bei denen die CPUen nicht heißer als 38-65° heiß werden. Auch bei GPUen sollten nicht heißer als 40-68°C werden.
Das ist aber nicht (allein) durch den Verbrauch bedingt. Auch bei geringem Verbrauch kann der Temperatur sehr hoch liegen. Das hängt auch mit der Struktur und der Fläche zusammen. Von sehr niedrigen Temperaturen wird man sich wohl langfristig verabschieden müssen, da die Strukturbreite weiter sinken wird. Aber hohe Temperaturen bedeuten nicht gleichzeitig hohe Wärmeabgabe oder hohen Verbrauch.
Sind es nicht 15% und das nur in Spielen sowie beim Code-Compiling? Ist ja nicht das Gleiche wie ein genereller IPC-Gewinn (Durchschnitt über viele Anwendungen).
So so wird also in zukunft spannend werden wie man da noch weitere steigerung hinkriegen will. Langfristig wird man ja eh um mehr kerne nicht drum rum kommen. Ja ich weis mehr Kerne erfordern mehr transistoren. Und diese wiederum erzeugen mehr stromverbrauch ubd auch ne höhere temperatur. Mehr takt aber erzeugt jedoch noch viel mehr Abwärme sowie nen höheren strom. Das heist die cpus werden in zukunft nur noch noch breiter werden als ohne hin. Ne andere große Option sehe ich hier eben nicht mehr leider. Das problem lässt sich also nicht mehr anderst zu lösen sein.
Streams und Youtube werden wohl ca. 1 Kern nicht einmal zur Hälfte auslasten. Das dürften bei 170W dann um die 5 Watt mehr als im Idle sein.
Gaming nutzt selbst wenn man mit einer High End GPU in 1080 spielt im Schnitt um die 6 Threads von 32 aus. Das dürften dann um die 40-50W mehr als im Idle sein.
Bildbearbeitung saugt dann in der Zeit, wo du wirklich auf das System wartest bei Effekten, die auch wirklich so stark Multi Core optimiert sind dann wirklich 170W. Das System ist dann aber falls die geleakten 40% stimmen auch 3 Mal so schnell fertig, verbraucht also für die selbe Arbeit weniger als deine aktuelle CPU also wo ist das Problem?
Abgesehen davon: Die 170W dürften nur für eine Special Edition vorgesehen sein (möglicherweise auch nur die Reserve falls man doch einen 24 Kerner bringen will). Für die normalen Modelle sind es 120W.
Ergänzung ()
latiose88 schrieb:
Warum sollte 7nm nen Full Node sein,ist doch genauso wenig Full wie die anderen auch. Du meinst wohl 5 nm hat weniger Mehrleistung zu bieten als 7 nm.ALso je kleiner desto weniger Mehrleistung kann man erwarten oder was willst du uns damit so sagen?
Vor 28nm wurde bei den nm Angaben noch die physikalische Gate Länge eines Transistors für die Bezeichnung verwendet. Zu dieser Zeit gab es folgende Bezeichnungen:
.) Full Node Shrink: Reduzierung der Gate Länge auf ca. 70% z.B. von 65nm auf 45nm. Dies bedeutet einer Verdopplung der Anzahl an Transistoren/Fläche.
.) Half Node Shrink: Reduzierung der Gate Länge auf ca. 85% z.B. von 55nm auf 45nm. Dies bedeutet einer Erhöhung der Anzahl an Transistoren/Fläche um ca. 40% bzw. eben ein halber Schritt
Unter 28nm ist die Gate Länge nicht mehr aussagekräftig, weshalb die Hersteller nun Angaben erfinden (z.B. 22nm hat zwar keine 22nm, soll sich aber angeblich so wie ein hypothetischer 22nm Transistor verhalten). In der Praxis werden die nm Angaben jedoch maßlos übertrieben.
Der Wechsel von 7nm auf 5nm bei TSMC würde vom Namen her ein Full Node Shrink sein (Verdopplung der Transistoranzahl/Fläche, was lange Zeit auch einer Halbierung des Energieverbrauchs nahe kam). In der Praxis ist es jedoch bestenfalls ein Half Node Shrink und da muss man schon ein Auge zu drücken.
latiose88 schrieb:
Und der rest den ich abgekührzt habe.Warum sollte das nicht funktionieren. DIe Onbaord GPU zum reinen Zocken und die CPU Kerne alle zum Umwandeln und schwups hat man alles auf einmal gleichmäßig ausgelastet. Ob es dann Leistung kostet oder nicht kann ich eben nicht genau sagen. Ich überlege ja irgendwann die gtx 750 Ti gegen ne Onbaord GPU zu tauschen,denn je sparsamer desto besser. Bei mir fallen alle RTX 2xxx sowie bisher auch 3xxx durch weil die mir alle zu Stromhungrig sind. Leider geht ja der Trend zu immer stromhungrigen GPUS. Da wird irgendwann wohl nur noch Onbaord GPUS hier übrig bleiben. Bei den Games bleibt es wohl so wie es ist. DIe Games die ich habe werden immer Älter und ja im Grunde genommen täte es sogar eigentlich ne 9600gt von der Rohleistung her. Ich habe auch nie mehr vor 4k oder wqhd sondern auf Full HD zu bleiben. Die Onbard Intel HD 4000 ist mir dafür zu schwach. Und ich gehe mal davon aus das dieser Pc wohl auch nicht ewig leben wird. Ich erhoffe mir somit ganau einen guten Ersatz dank der neueste Onbaord GPU. Ich Wandle um und zocke nebenbei gleichzeitig. Ich zähle zu den Mischtypen. Auf dem Laptop wird die daran enthaltene Seperate GPU abgeschaltet und nur noch die Onbaord verwendet. Leider gibt es halt keine Laptops mit Ryzen 9 5800H 17 " mit nur Onbaord GPU zum kaufen.Sonst hätte ich da schon zu gegriffen.
Am Pc wird es diese ja geben. Ich erhoffe mir also ne Fette CPU mit 16 und mehr Kernen + ner Onbard GPU mit eben jender Leistung die ich genannt hatte .Habe ja gelesen ne Vega 8 dürfte es defnitiv auf dem Level sein. Das würde mir also schon völlig reichen. ALso gehen tut es sehr wohl.
Wir reden hier von einem 16 Kern/32 Thread Zen 4, der angeblich auf Zen 3 noch einmal 40% Leistung pro Kern drauf legen soll. Der wird dich auslachen, wenn du ihm außer einem alten Spiel und dem Codieren eines 1080p Video nichts zu tun gibst.
Gleichzeitig würde ich mir da nicht zu viel von der Onboard Grafik erwarten. Würde mich stark wundern, wenn da mehr Leistung als bei deiner 750 Ti raus kommen würde.
Um ehrlich zu sein: Für deine Anwendung wäre eine APU ideal. Derzeit sieht das Angebot bei AMD hier zwar eher mager aus allerdings ändert sich das gerade.
P.S.: Auch bei den RTX 2000/3000er Karten gilt: Niemand zwingt dich, diese komplett am Anschlag zu betreiben. Wenn es nicht nicht um das letzte Prozent Leistung geht, so kann man hier auch einfach das Power Limit reduzieren.
Auch sagt keiner, dass du unbedingt das Topmodell kaufen musst, wenn du es nicht brauchst. Die GTX 1650 braucht nicht mal die Hälfte deiner 750 Ti und ist ca. doppelt so schnell. Bei der 3000er Serie wird es auch kleinere Modelle geben. Die werden aber erst später nachgelegt aber im Moment macht es so wieso keinen Sinn eine GPU zu kaufen, wenn man nicht gerade einen Hardwareschaden hat und dringend Ersatz braucht.
latiose88 schrieb:
Achja ich finde es nur schade das es nicht mehr Kerne geben wird.Und auch das das meiste durch den Cache an mehrleistung kommen wird. Der Rest wird dann wohl das übliche sein,wohl wieder mal 10 % und im durschnitt werden es wieder 15 %+ sein bei allen Anwendung. Und sehe auch ob es dann wirklich mehr Leistung werden. Werde das hargenau dann testen. Habe ja gute vergleiche und nagele die Zen 4 ebenso wieder wie die anderen auf 4 ghz fest. Mir geht es also auf die reale Mehrleistung. Man kann es ja dennoch testen auch wenn man es nicht kaufen wird. Habe ich ja auch bei den Threadripper gemacht. Irgendwann wird sich auch mal bei den Threadripper CPUS sich was ändern. Und dann sehen wir im unteren Bereich auch ne Steigerung bei den Kernen. Spätestens wenn Intel 32 kleine Kerne als Mainstream macht wird sich hier ohnhin ne Menge verändern.Wie es weiter gehen wird,das sehen wir dann schon noch. Erwarte großes. Aber mir klar das wir hier nicht 40 % und mehr von ausgehend Ryzen 9 5950x zur Zen 4 sehen werden,weil das wäre zu viel des guten.Einfach zu unrealistisch und einfach nur eine Träumerei.
Also laut Leaks liegt das Ziel bei ca. 40% pro Kern. 10-15% bringt alleine schon mal der 3D Cache (ich gehe einmal davon aus, dass Zen 4 den auch beim Topmodell haben wird). Das schöne daran: Dieser kostet zwar einiges in der Produktion, erhöht aber die Verlustleistung so gut wie nicht.
Dann dürften verglichen mit dem 5950X noch einmal 10-15% mehr Takt dazu kommen durch das Erhöhen der TDP bzw. die Einsparungen beim 5nm Prozess. Der 5950X muss ja auf Grund der TDP schon auf ca. 4GHz runter takten.
Dann kann AMD die durch 5nm gesteigerte Transistoranzahl bei gleicher Kernanzahl natürlich auch nutzen, um die Leistung pro Kern weiter zu steigern. Mindestens 10% sollten hier schon drin sein.
Ah ok das fände ich schön.Durch sowas kann man also auch Vielmerkerner schlagen. Und ja ich gebe zu der 3970x hat auch mehr Transtoren. Die Entscheiden freilich auch über die Leistung einer CPU.Hat also nichts mit alleine nur den Kernen zu tuen. Da bin ich ja mal gespannt ob das stimmt. Die 10-15 durch 3D Cache kann ich schon mal vergessen,wenn nämlich die Anwendung nicht davon Profitieren wird. Allerdings der rest ja sehr wohl. Und ja Takt,Transistoren und Verbesserungen machen hier am Ende die Leistung aus. Mal sehen ob das stimmt. Ich teste gerne auf einem diese neuen CPUS.
Und ich gebe zu ja das bringt wirklich was. Ich weis ja noch das ein Ryzen 9 5900x die selbe Leistung die einer 3950x erreicht hatte. ALso 12 Kerner schlägt einen vorgänger 16 Kerner und zwar indem es die gleiche Leistung erreicht hatte. So wird dies ja wieder geschehen.So denke ich mal wird der 6900x mit seinen 12 Kerner den 5950x wohl dann wieder mindestens die selbe Leistung haben,wenn nicht sogar mehr aufgrund des Shrinks von 7 auf 5 nm. Sobald ich dies testen darf,werde ich schon ganz schöne Überraschung Erleben,da bin ich mir sicher.
Und freilich würde ich nun den 5950x auf 5 ghz haben,dann käme ich dem ganz schön nahe dem 3970x.
Und wenn man nun fair ist und sagt man hat ja den 5950x nicht Übertaktet also zum fairen Vergleich auch am besten den 3970x nicht OC zu betreiben dann wäre der bei 3,7 anstatt 4 ghz und schwupps wären das mindestens 3 % weniger Leistung.Bei manchen wären es wohl mehr wenn man ihn so richtig Auslasten würde.
So fair muss ich schon sein,dann wären es keine 15 sondern 12 % Leistungsunterschied.Wenn man testet dann muss es fair und unter selben Bedingungen sein,sonst macht es halt keinen sinn mehr.Wie auch immer.
Ich zähle jetzt mal 1 und 1 zusammen: Wenn man einen 96Kerner mit Zen 4 anbieten möchte, dann MUSS man doch stark an der Performance / Watt gearbeitet haben.
Wenn sich die CPU im Desktop dann gleichzeitig mehr gönnen dürfen, dann können wir uns auf richtig geilen Hardwareporn freuen.
Ich zähle jetzt mal 1 und 1 zusammen: Wenn man einen 96Kerner mit Zen 4 anbieten möchte, dann MUSS man doch stark an der Performance / Watt gearbeitet haben.
Wenn sich die CPU im Desktop dann gleichzeitig mehr gönnen dürfen, dann können wir uns auf richtig geilen Hardwareporn freuen.
Ich frage mich wie man da nochmal vier zusätzliche CCDs unterbringen will. Thermisch wird das dann spannend weil ganz schön eng. Ausser man fertigt evtl. CCDs mit höherem Core-Count.
Und mehr gönnen dürfen sich die Desktop CPUs auch jetzt schon. Und schon jetzt kriegst du die Hitze kaum abgeführt auf so engem Raum.
Artikel-Update: Nachdem es zwischendurch Zweifel an den 170 Watt für Sockel AM5 gab, gibt AMDs Support-Dokument, welches durch den Gigabyte-Datenleak in die Öffentlichkeit gelangte, Auskunft. Dort wird auch die Halterung des neuen Sockels erneut bestätigt, die ein wenig an die LGA-Arretierungen von Intels CPUs erinnern – eine wirklich andere Möglichkeit gibt es hier schlichtweg auch nicht. In gewissem Maße könnte nun Kompatibilität zu bisherigen AM4-Kühlern erzielt werden, sofern entsprechende Parameter stimmen.
[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
Kompatibilität der Kühlermontage fände ich sehr gut.
Wird mich zwar nicht betreffen, da ich meinen 3600 auf B550 in 1-2 Jahren wohl erst mal gegen einen 5900X tausche, und ob ich mir danach mit Mitte/Ende 50 nochmal ein Sys zusammendengle steht ohnehin auf einem andern Blatt, aber für die auf-/umrüstwilligen wärs eine feine Sache, gerade bei vorhandenen hochpreisigeren Kühllösungen.
Von vernünftigen Herstellern gabs allerdings beim Wechsel von AM3 auf AM4 auch meist ein Umrüstset, zum Teil sogar kostenlos.
Irgendwie gefällt mir die Entwicklung nicht. Trotz Wechsel zu 5nm und gleicher Kernanzahl soll der Verbrauch also deutlich steigen. Da kann ich nur hoffen, dass AMD wirklich massiv was am IPC gedreht hat, und nicht nur an der Taktschraube. Andernfalls wird das wohl ein gewaltiger Hitzkopf.
Größerer Sockel erlaubt halt mehr TDP, die Entwicklung gibt es ja auch seit Jahren im Serverbereich, rate mal wo es da noch hingeht, 400 watt usw., aber hast ja auch Fläche ohne Ende. Sich blind auf den Zahlenwert zu versteifen bringt einen nicht weiter. Es wird da keine Probleme geben.
Mir wärs lieber, wenn die Pins auf der CPU bleiben und die nur ne Halterung aufs Mainboard machen, damit die Leute die CPU mit dem Kühler nicht mehr abreissen.
Naja @Volker, es gibt ja einmal die Heatspreader-Fläche, und aber auch die DIE-Fläche. Wenn die DIE-Fläche nicht entsprechend wächst - und das erhoffe ich mir mit einem anwachsenden IPC ja -, wird es ein Hitzkopf werden. Denk doch alleine mal an die Temperatur-Unterschiede zwischen 5800X und 5950X. Beides gleicher Sockel und folglich gleicher Heatspreader, aber der 5950X erzeugt die Abwärme eben auf einer viel größeren DIE-Fläche. Wenn bei Zen 4 also die Anzahl der Kerne nicht erhöht wird, sollte man doch hoffen, dass die Kerne auch wirklich deutlich komplexer werden, ansonsten wird die DIE-Fläche bei 5 nm wohl kaum anwachsen können, größerer Sockel hin oder her.
Höhere TDP kann jeder. Der Vorteil von AMD lag ja gerade bei vielen Kernen und relativ geringem Verbrauch. Vor allem ggü. den Brechstange-CPUs von Intel.
Irgendwo hat jede Technologie seine Limits und es scheint so, als wäre das bei AMD jetzt der Fall. Also bleibt nur noch mehr Saft für mehr Kraft.
Bis zur nächsten technologischen Innovation zumindest.
ohne hier intel vs amd fass aufzumachen, möchte ich hinzufügen, das es bei intels neuer alder lake noch schlimmer aussieht laut pc magazin:
Den größten Abstrich wird man bei Alder Lake bei der Energiesparsamkeit machen müssen. Wie ein geleaktes Dokument bescheinigt, sollen die Empfehlungen bei der TDP mit Alder Lake steigen. Bis zu 165 W TDP und eine Spitzenleistung von 540 W wird für das Topmodell angegeben. Wer mit einem neuen Prozessor der 12. Generation zum Jahresende plant, dürfte sich in einigen Fällen damit auch gleich nach einem neuen Netzteil umschauen.
Dass die TDP bei intel und amd nicht ganz die gleiche bedeutung hat, wissen wir ja.
Auch bei GPUs soll der verbeauch steigen bei nvidia..
das wird Greta sehr ärgern
Irgendwo hat jede Technologie seine Limits und es scheint so, als wäre das bei AMD jetzt der Fall. Also bleibt nur noch mehr Saft für mehr Kraft.
Bis zur nächsten technologischen Innovation zumindest.
Ich finde ~170 Watt Leistungsaufnahme für 16 schnelle Kerne jetzt nicht unbedingt als übertrieben viel.
Was hatte der 3700 noch mal, also ohne X, das waren 65 Watt TDP oder? Wenn man aus der nächsten Generation dann einfach eine sparsame und dennoch sehr schnelle 8c/16t CPU kauft, ist man als Allerweltsanwender und Spieler weiterhin bestens aufgestellt.
Es muss doch kein 6950X sein und damit sind die 170 Watt für die große Mehrheit der Privatkunden eh kein Thema.