News Zen 4c „Bergamo“: AMDs 16-Kern-CCD benötigt nur 9,6 % mehr Fläche als 8 Kerne

Tom_111 schrieb:
NVIDIA Fanboys sind wie immer schlecht informiert.
Ergänzung ()


Du erzählst ziemlich viel Unsinn.
Der Gaming-Bereich liegt bei NVIDA immer noch an zweiter Stelle.
Dir ist aber schon klar, das es in diesem Artikel um CPU und NICHT UM GPU geht oder. :rolleyes:
Aber wenn man mit derartig großen NV Scheuklappen rumläuft.... no more comment.
 
ETI1120 schrieb:
Das ist nicht richtig.

AMD hat bei der offiziellen Vorstellung Cherrypicking betrieben und nur die Benchmarks vorgestellt bei denen RDNA 3 funktioniert. Die Erwartung nach der Vorstellung war die 7900XTX ist deutlich vor der RXT4080 bei der 7900XT wirds es eng. Als die unabhängigen Benchmarks herausgekommen sind war klar dass die 7090XT abgeschlagen ist und die 7090XTX so ziemlich gleichauf mit der RTX4080 ist.
Na ja AMD hat gesagt die 4080 kommt ins Sandwich... Und da ist sie auch.
Das bei einer Werbeveranstaltung der Best Case im Zweifel gezeigt wird - sollte inzwischen angekommen sein.
Wie sagte Arnold - it s all about Business - und beim Verkaufen wird auch Bullshit Bingo dann gemacht.
Wobei ich nicht sehe wo da AMD zu sehr übers Ziel geschossen ist. Das war bei Vega ne andere Nummer.
Nein was AMD hätte bleiben lassen sollen war der Schuss gegen den neuen Stecker... Kann ich zwar auch verstehen wenn man den aufs Korn nimmt - nur selbst dann Chambers Quali technisch selbst en "Scheiss" abliefern ist dann halt blöd...
 
ETI1120 schrieb:
Viele deiner Beiträge glänzen durch Kompetenz und Fachwissen.

Aber leider versuchst Du AMD auch bei Dingen zu verteidigen, die nicht zu verteidigen sind.
Danke. Ebenso. Wenn du nicht ständig in ellenlangen Texten jeden noch so kleinen Negativpunkt aufzudröseln müsstes um Argumente zu haben.

Zudem stützt sich deine Argumentation zum Beispiel zum Thema CU auf Leaks, Gerüchte zu nicht veröffentlichten Produkten und Vermutungen deinerseits.

Fakt ist abgesehen von der 4090 sind die AMD Konkurrenzfähig je nachdem worauf der Käufer wert legt. RT, Rasterleistung, Vram, Features. Da kannst du aufzählen und Argumente bringen was du möchtest.

Das ist Hersteller Präsentationen Cherrypicking genutzt wird ist doch bekannt und Markt üblich. Macht die Konkurrenz doch nicht anders deren Performancevorsprung mit DLSS3 und FG zu untermauern und hervorzuheben.

Ich kann dir versichern (beruflich) das AMD RDNA3 nicht als völligen Fail ansieht.
"Mehr" wünscht sich jeder Hersteller in dem Bereich von seinen neuen Produkten zu erreichen und natürlich ist man sich Defiziten bewusst.

Aber gerade alle Karten ab der 4070Ti und darunter sind absolut Diskussionswürdig im Vergleich zu den Konkurrenten.

Ich verteidige AMD? Habe aber niedrigere Raytracing Leistung, schlechtere Effizienz und das fehlen vom Fake Frame Feature genannt.
Also keine Ahnung worauf du die Aussage begründest.

Und Natürlich ist die Performance immer Spieleabhängig je nachdem worauf optimiert wurde. Deshalb war bei mir und in den Tests von Durchschnitt die Rede.
Ergänzung ()

bad_sign schrieb:
RDNA3 kann man nur als Fail bezeichnen.
Kann man...kann aber lassen...

Ein Fail wäre ein Produkt, das in keinem Bereich Konkurrenzfähig ist, was aber nunmal nicht der Fall ist.

Ja die Karten haben Defizite/Kritikpunkte.
Das haben die Konkurrenzprodukte auch besonders abseits vom absoluten Highend.
Kein Produkt ist ohne Kritikpunkte.
 
Zuletzt bearbeitet von einem Moderator:
Novasun schrieb:
Na ja AMD hat gesagt die 4080 kommt ins Sandwich... Und da ist sie auch.
Ein Sandwich hat normalerweise 2 gleich dicke Scheiben.

Bei diesem Sandwich ist die obere sehr dünn.
Novasun schrieb:
Das bei einer Werbeveranstaltung der Best Case im Zweifel gezeigt wird - sollte inzwischen angekommen sein.
AMD hat in den letzten Jahren bei der Vorstellung immer realistische Zahlen genannt.
Die Vorstellung von Navi 31 hat mit dieser Tradition gebrochen.

Novasun schrieb:
Das war bei Vega ne andere Nummer.

Die Performance von 7900XT vs RTX4080 im Vergleich zur Performance von Vega vs 1080 besser.
Auch die Relation beim Verbrauch ist besser. Insofern hast Du recht.

Aber RDNA 3 ist im Vergleich zu RDNA 2 nur ein sehr kleiner Schritt. Da aber Nvidia mit RTX 4000 in die vollen gegangen ist, ist RDNA im Vergleich ein Rückschritt.

Bei den CPUs hat AMD seit Zen immer geliefert. Aber hier war der Konkurrent aber auch Intel und nicht Nvidia.

Novasun schrieb:
Nein was AMD hätte bleiben lassen sollen war der Schuss gegen den neuen Stecker...
Gegen den Stecker zu wettern kann man machen, weil es ein Scheiß Design ist.
Daraus ein Werbekampagne gegen Nvidia zu machen war kurzsichtig. So wie bei der Speicherbestückung gegen Nvidia zu lästern, wenn man 14 Tage später eine Karte mit 8 GB VRAM rausbringt.

Ein Stecker, von dem man weiß dass er von Laien eingesteckt wird, hat vollen Kontakt oder keinen Kontakt. Wenn er nicht korrekt eingesteckt ist, muss es auch für den Laien offensichtlich sein.

Es sind zwar nur 12 V aber 600 W. D. h. über die Leitungen fließen große Ströme.

Das vermurkste Design hat aber nicht Nvidia zu verantworten, sondern das Normungsgremium.

Novasun schrieb:
Kann ich zwar auch verstehen wenn man den aufs Korn nimmt - nur selbst dann Chambers Quali technisch selbst en "Scheiss" abliefern ist dann halt blöd...
Es ist auffallend still um das Thema geworden. Es hätte mich schon interessiert was da genau schief lief. Flüssigkeitsmengen genau dosiert einzufüllen ist Standard. Entweder macht man das Befüllen sicher oder wiegt vor und nach dem Befüllen. Im Nachgang die Füllmenge zu prüfen, ist erheblich aufwändiger.

Das Problem bei den Vakuum Chambers war in erster Linie kein AMD Problem, sondern Sache des Herstellers. Der darf keine fehlerhaften Produkte aus, und in dem Ausmaß schon gar nicht.

Aber da AMD den eignen Namen drauf klebt, ist AMD den Kunden gegenüber verantwortlich. deshalb sollte sich AMD schon ansehen wie die Zulieferer arbeiten.
 
Novasun schrieb:
Na ja AMD hat gesagt die 4080 kommt ins Sandwich... Und da ist sie auch.
AMD hat >70% mehr Performance gegenüber dem vorigen Flaggschiff versprochen. Rausgekommen sind +35%.
Ergänzung ()

Taurus104 schrieb:
Das ist Hersteller Präsentationen Cherrypicking genutzt wird ist doch bekannt und Markt üblich.
Also bei den bisherigen RDNA Generationen und auch bei den CPUs konnte man die Angaben auf den AMD Slides genau so in Tests wiederfinden.
Sicher stellt jeder seine Produkte möglichst gut dar, aber sowas extremes hat es lange nicht gegeben. Hatte schon "poor Volta" Niveau.
 
bensen schrieb:
AMD hat >70% mehr Performance gegenüber dem vorigen Flaggschiff versprochen. Rausgekommen sind +35%.
Wo soll das gewesen sein? Bitte mit Quelle.
Gerüchte gab es vielleicht.. Vielleicht auch wegen der fast 4 GHZ die ja auch in der Gerüchte Küche rum waberten...
Wäre ja vielleicht sogar möglich gewesen wenn der Node geliefert hätte oder der "Bug" nicht wäre... WHO knows...
Aber das AMD selbst das so behauptet hat glaube ich erst wenn ich es sehe.
Seid Lisa am Ruder ist und Kuduri gehen musste waren AMDs Zahlen "seriös" - wobei da der wahre Schlimmfinger Intel ist und nicht NV
Ergänzung ()

@ETI1120
Das alles zu zitieren ist mir zu viel.

Bei Vega wurden im Vorfeld ganz klar Erwartungen geschürt und Funktionen versprochen die nie eingehalten werden konnten bzw. nie kamen. Vermutlich auch wegen nem Bug im Design den sie nicht mehr fixen konnten.

Bezüglich deinem Vergleich zu NV. Du sagst es war ein Rückschritt. Ich sag nein. NV hat den besseren Move gemacht. Und vermutlich war einer der Besten recht spät noch mal auf nen anderen Node bei TSMC zu wechseln. Zumindest ging das damals ja durch die Gerüchte Küche...

Was man auch nicht vergessen darf. AMD hat technologisch einen riesen Schritt mit ihrem Chiplet Design bei GPUs gemacht. Und das obwohl es noch nicht eine echte multi GPU Chiplet GPU ist.
Da steckt immer mehr Risiko auch drin...
NV ist ja auch klar monolithisch geht es nicht mehr so viel weiter.

RDNA 3 ist nicht so schlecht wie du es darstellst.
NVs 4090 ist nur so viel besser. Das ist sie aber auch gegenüber dem restlichen Portfolio von NV... Auch ein 4080 sieht da kein Land mehr..

Im Kern sind die Architekturen auf Augenhöhe (außer RT) - nur NV hat eine konkrete Version hinbekommen die jenseits von allen guten Geistern ist. Und das hat geklappt. Muss ich neidlos anerkennen.
Hätte AMDs 4 GhZ RDNA 3 geklappt hätten sie aber das mit anderen Mitteln auch erreicht.
Da merkt man halt schlussendlich die unterschiedlichen Forschungsbudgets noch.

AMD gibt dieses Jahr 5 Milliarden aus - die in GPU und CPU fließen.. NV hat 2015 bereits über 4 Milliarden ausgegeben (und das eben fast nur für GPUs)..
 
Zuletzt bearbeitet:
MrHeisenberg schrieb:
Ich sprach bei Intel auch von den CPUs ;)


Vielleicht solltest du mal den Post lesen, auf den ich antwortete.
Es ging um Intel CPUs und warum AMD so viel besser ist. Als Gegenbeispiel wurde Nvidia angeführt.
Ich wüßte nicht, dass Intel seine CPUs bei TSMC fertigen lässt.
Schön den Ursprungspost verändern, ganz toll slop clap (Zuletzt bearbeitet: Heute um 09:13 Uhr). Im urspsprünglichen hattest du "(CPU)" noch nicht drin wie man sehen kann:
https://www.computerbase.de/forum/t...eche-als-8-kerne.2146978/page-3#post-28280276
Also einfach mal selbst genau lesen was man schreibt.
 
Dai6oro schrieb:
Schön den Ursprungspost verändern, ganz toll slop clap (Zuletzt bearbeitet: Heute um 09:13 Uhr). Im urspsprünglichen hattest du "(CPU)" noch nicht drin wie man sehen kann:
Nein, ich hatte es aber gemeint und genau das hatte ich dir und einigen anderen auch mehrfach erläutert.
Scheinbar war es nicht deutlich genug, deswegen habe ich den Post angepasst.
Was ist dein Problem? Willste nur trollen?
 
Wenn du dich missverständlich ausdrückst kann ich nix für wäre an sich aber kein Problem , kann man ja sagen. Aber mir und anderen dann vorwerfen nicht richtig zu lesen ist ein schlechter Stil. Das ist mein Problem.
 
Taurus104 schrieb:
Wenn du nicht ständig in ellenlangen Texten jeden noch so kleinen Negativpunkt aufzudröseln müsstes um Argumente zu haben.
Das ist leider notwendig.
Taurus104 schrieb:
Zudem stützt sich deine Argumentation zum Beispiel zum Thema CU auf Leaks, Gerüchte zu nicht veröffentlichten Produkten und Vermutungen deinerseits.
Der Leak von Angstronomics hatte bisher einen Fehler. Angstronomics hatte wie alle nicht erkannt, was es mit Dual Issue auf sich hat.

Angstronomics hat eine Variante von Navy 31 mit 192 MByte Infinity Cache erwähnt. Die gibt es nicht. Da es bisher keinen genauen Dieshots der MDCs gibt, kann man es nicht ausschließen, dass die Option besteht aber von AMD nicht genutzt wird.

Alle anderen Angaben zu Navi 31 und Navi 33 passen zu den Zahlen die AMD genannt hat. Deshalb gehe ich wie die meisten davon aus, dass die Angaben von Angstronomics zu Navi 32 stimmen.

Bei den Namen der Grafikkarten geht es nur um Nuancen, da die 7900er und die 7600 draußen sind.

Taurus104 schrieb:
Fakt ist abgesehen von der 4090 sind die AMD Konkurrenzfähig je nachdem worauf der Käufer wert legt. RT, Rasterleistung, Vram, Features. Da kannst du aufzählen und Argumente bringen was du möchtest.

Da Du keine Argument willst, machen wir es eben plakativ.

Du gehst mit dem Wort konkurrenzfähig sehr leichtsinnig um.

AMD hat mit den GPUs seit Jahren einen sehr schweren Stand. Selbst mit den guten RDNA 2 hat AMD nur ca. 20 % Marktanteil gehabt. Die Masse der Käufer hält AMD nicht für konkurrenzfähig.

Da Navi 31 in Punkto Rasterperformance deutlich an Konkurrenzfähigkeit eingebüßt hat, wird es für AMD nicht einfacher als konkurrenzfähig wahrgenommen zu werden.

Taurus104 schrieb:
Das ist Hersteller Präsentationen Cherrypicking genutzt wird ist doch bekannt und Markt üblich. Macht die Konkurrenz doch nicht anders deren Performancevorsprung mit DLSS3 und FG zu untermauern und hervorzuheben.
AMD war in der letzten Zeit bei der Vorstellung ehrlich und das hat AMD bei vielen Leuten Bonuspunkte eingebracht.

Es ist immer ein ganz schlechtes Argument Fehlverhalten der einen Seite durch Fehlverhalten der anderen Seite zu entschuldigen. Und dass Du versuchst das Cherrypicking bei der Vorstellung von RDNA 3 zu verteidigen, ist genau das was ich gemeint habe.

Taurus104 schrieb:
Ich kann dir versichern (beruflich) das AMD RDNA3 nicht als völligen Fail ansieht.

Was willst Du mit "völligem Fail"?

AMD hat eine Effizienzsteigerung zu RDNA 2 von mehr als 50 % angekündigt und bei der Vorstellung wider besseren Wissens behauptet 54 % erreicht zu haben.

Wo sind die 54 %?

RDNA 3 hat die Zielvorgaben nicht erreicht. Man kann es nun schönreden oder als das bezeichnen was es ist: Fehlschlag. Natürlich wird AMD "Fehlschlag" niemals nach außen kommunizieren, aber dies intern schön zureden wäre für die Zukunft von AMD fatal.

Was ich mich frage ist
  • Warum hat AMD das unbefriedigende Taktverhalten der Navi 31 nicht in den Simulationen erkannt?
  • Warum hat AMD den geringen Effekt von Dual Issue nicht in den Simulationen erkannt?
Taurus104 schrieb:
"Mehr" wünscht sich jeder Hersteller in dem Bereich von seinen neuen Produkten zu erreichen und natürlich ist man sich Defiziten bewusst.
Vom Wünschen alleine werden die Produkte nicht besser. Man muss etwas dafür tun.

Taurus104 schrieb:
Aber gerade alle Karten ab der 4070Ti und darunter sind absolut Diskussionswürdig im Vergleich zu den Konkurrenten.
Das sehe ich etwas anders. Die 4090 wird auch im professionellen Umfeld eingesetzt und angesichts der Leistung kann man den Preis rechtfertigen. Und dann gibt es eben die Enthusiasten die für Spitzenleistung Premiumpreise bezahlen. Premium heißt, der Preis steigt überproportional zur Leistung.

Die 4080 ist IMO im Vergleich zur 4090 zu teuer.

Ich finde dass die 7900XTX zu teuer ist, aber viele akzeptieren den Preis. Generell wird kritisiert, dass die 7900XT im Vergleich zur 7900XTX zu teuer ist.

Die 4070TI schägt sich mit der 7900XT, was sehr viel über die Namensvergabe von AMD aussagt.

Welche Konkurrenten haben die 4070 und die 4060Ti?

AMD und Nvidia haben beide das Problem, dass es keine 3 GB oder 4 GB GDDR6 RAM Chips gibt. Damit sind bei einer 128 bit Speicheranbindung standardmäßig maximal 8 GByte möglich. Mehr Speicher geht nur mit aufwändigerem Board oder breiterer Speicheranbindung.

Diskussionen um die Nvidia-Karten gibt es vor allem, weil Nvidia an der Preisschraube gedreht hat. Dass die kleinen RTX4000 sich nur wenig von den jeweiligen RTX3000 absetzen können, wäre eigentlich die Chance für AMD gewesen.
 
Novasun schrieb:
Seid Lisa am Ruder ist und Kuduri gehen musste waren AMDs Zahlen "seriös" -
1686275894917.png

Offizielle Vorstellung von Navi 31, von Hardwareluxx

Der Mittelwert von dem was AMD zeigt ist 55 %

In den unabhängigen Tests beim Release waren es im Schnitt nur 37 %

Seriös ist etwas anderes.

Novasun schrieb:
Bei Vega wurden im Vorfeld ganz klar Erwartungen geschürt und Funktionen versprochen die nie eingehalten werden konnten bzw. nie kamen. Vermutlich auch wegen nem Bug im Design den sie nicht mehr fixen konnten.
Das war bei RDNA 3 keinen Deut besser. AMD lies den Hypetrain munter laufen, der aufgrund der hohen Shaderzahlen loslief.

In mehreren Interviews hat AMD behauptet sie wären effizienter als Nvidia. Bei der Vorstellung von Navi 31 ist AMD lang und breit auf der ach so tollen Energie Effizienz herum geritten.

In den unabhängigen Tests hat die Navi 31 in Punkto Effizienz gegen die 4090 und die 4080 ziemlich alt ausgesehen. Die 54 % Effizienzsteigerung zu Navi 21 wird heute noch gesucht.

Hätte die RX7900XTX die bei der offiziellen Vorstellung angedeuteten 55% auf die RTX6950 tatsächlich gebracht, dann wäre sie ca 16 % vor der 4080 und die 4090 wäre nur 11 % schneller.

RX6000 war bei der Rasterperformance ganz nahe an der RTX3000.
Bei RX7000 ist der Rückstand zur RTX4000 deutlich größer geworden.
 
Das das ganze hier gekapert würde um über GPU zu streiten, obwohl es im Artikel um CPU's geht, zeigt mir wieder wie sehr die meisten doch auch hier bei CB in ihrer Blase leben, und nicht über den Tellerrand sehen können. :rolleyes:
(Auch einer der Gründe warum sich viele nicht von Windows lösen können)

Und das ist ja nicht nur in diesem Thema hier so.

Da macht Diskutieren keinen Sinn, ich bin dann raus.
Schau und schönen Tag noch.
 
ETI1120 schrieb:
Anhang anzeigen 1365013
Offizielle Vorstellung von Navi 31, von Hardwareluxx

Der Mittelwert von dem was AMD zeigt ist 55 %

In den unabhängigen Tests beim Release waren es im Schnitt nur 37 %

Seriös ist etwas anderes.

Sorry, aber a) haben damals die Zahlen darauf vermutlich gestimmt. Nur war damals bei der Folie doch klar das das absolute Best-Case Szenarien sind. Ich hatte bei der Diskussion um die Folie schon gesagt wenn wir im Schnitt die 50% sehen ist es gut.

https://tech4gamers.com/rx-7900-xtx-vs-radeon-rx-6950-xt/
Da ist Cyberpunk auf der 790XTX genau 1,653 mal schneller was mathematisch exakt gerundet die 1,7 sind

Hier sind es +40% weil GTA V z.B. sich null bewegt. Zwar sind 10% noch immer viel... Aber nichts weltbewegendes.

Und nimmst du das - hat AMD selbst mit deutlich niedrigeren Zahlen (auch) operiert:

https://www.igorslab.de/en/familien...hneller-als-rx-6950-xt-kostet-aber-28-mehr-2/

b) Darfst so von so Folien nicht zu sehr verallgemeiner. Vor allem wenn die Stichprobe so klein ist...
Ergänzung ()

@MonteDrago Ich wollte nichts kapern. Das du das so empfindest tut mir leid. Ich werde wieder backtoTopic kommen.
 
PS828 schrieb:
Können sie und man würde nichtmal Features verlieren wie bei intel P zu E core. Hat viele Vorteile da die ZenC kerne nicht wirklich "little" sind
Die P-Core Zen4 haben per Maximaltakt und größeren L3 Vorteile.
Beim Basetakt, besonders wenn man an 65-95 Watt Lösungen denkt, sinkt der Vorteil im Vergleich zum Zen4.
Im Mobilbereich schrumpfen die Unterschiede besonders stark durch niedrigen Basetakt.
Ich denke dass wir bis 2024 ein kompaktes Zen4/4c Kombi-DIE in 4nm sehen werden mit je 4x Zen4 und Zen4c.
Kombiniert mit neuen I/O Chiplet und 3 CU RDNA 3.5. Damit könnte AMD Einstiegs 'G' Desktop der 65W und 'G' Notebooks der 35W Klasse liefern.
Auch die normalen 4nm Zen5 Chiplets oder gleich Kombi Zen5/5c würden dazu passen (Herbst 2024?)
 
MrHeisenberg schrieb:
Möglicherweise ist TSMCs Verfahren besser als Intels?
Noch ist dem so, aber das Blatt könnte sich schon in 1-2 Jahren wenden. Wer weiß, vielleicht kauft AMD dann bei Intel die Chips ein. :)
 
Vielleicht Mittelklasse - Produkte?
Dann wäre der Socket AM6 in einigen Jahren vereint, wie früher Sockel 7?!
 
MonteDrago schrieb:
Das das ganze hier gekapert würde um über GPU zu streiten, obwohl es im Artikel um CPU's geht, zeigt mir wieder wie sehr die meisten doch auch hier bei CB in ihrer Blase leben, und nicht über den Tellerrand sehen können. :rolleyes:
Sorry, wenn dich die Abschweifung gestört hat.

Für mich war es nicht Off Topic:
  1. AMD hat sich in den letzten Jahren die Reputation erworben, bei der Präsentation von Produkten ein realistisches Bild zu zeigen. Diese Reputation wurde durch die offizielle Vorstellung von Navi 31 ramponiert.
  2. Bergamo wird nächste Woche vorgestellt, und leider muss man alle Zahlen die AMD präsentiert unter Vorbehalt stellen.
  3. RDNA 3 und Zen 4c haben eine Gemeinsamkeit: Kompaktes Design, das ist bei Zen 4c vs Zen 4 natürlich extremer als bei RDNA 3 vs RDNA 2. Aber trotzdem hat es Auswirkungen auch bei RDNA 3 auf das Taktverhalten.
  4. Die Leaks zu RDNA3 und Bergamo/Zen4c kommen aus derselben Ecke. Dylan Patel (SemiAnalytics) und die Person hinter Angstronomics kennen sich und Dylan Patel hat das RDNA 3 Leak heftig beworben.
RKCPU schrieb:
Die P-Core Zen4 haben per Maximaltakt und größeren L3 Vorteile.
Beim Basetakt, besonders wenn man an 65-95 Watt Lösungen denkt, sinkt der Vorteil im Vergleich zum Zen4.
Wenn man sich die Zahlen die für Bergamo zirkulieren anschaut, dann ist der Basistakt vergleichbar mit der 96 Kern-Variante von Genoa. Liegt aber beim Turbo mit 3.2 GHz um 500 MHz niedriger.

So wie ich die Sache verstehe hat sich AMD eine Zielfrequenz ausgesucht und den Kern so layoutet, dass er diese Zielfrequenz erreicht und dabei wenig Power benötigt und eine kleine Fläche belegt.

AFAIK sind solche High Density Designs im Sweetspot deutlich sparsamer als High Power Desings. Wenn man die Taktfrequenz erhöht dann steigt die Power dieser High Density Designs sehr steil an. Bei höheren Frequenzen verbrauchen diese High Density Designs dann mehr als High Power Designs und richtig hohe Frequenzen können sie gar nicht erreichen.

Mit diesen Dingen im Kopf erwarte ich diese Kerne in Hybrid-CPUs für Low Power Mobilanwendungen und im Desktop für MediacenterPCs und vergleichbares. Im Embedded Markt kann ich mir einen breiten bedarf vorstelle. Ich bin skeptisch, ob sich eine Hybrid-CPU aus einem P- und einem E-CCD tatsächlich lohnt

Bei allen Ideen zu Hybriddesigns sollte man nicht außer acht lassen, dass AMD aktuell CCX aus 8 Cores aufbaut. Jeweils ein E und ein P-CCX zusammenzupacken belegt viel Fläche. Ich bin Mal gespannt wie das Layout von Phoenix 2 aussieht: 2 P + 4 E.

Dass Hybrid CPUs kommen hat Mark Papermaster gegenüber Toms Hardware ausdrücklich bestätigt.
 
Interessant, dass sich hier soviele die C Kerne für den Desktop wünschen. Das hier im Artikel liest sich zwar alles sehr toll, aber es gibt ein riesiges Problem, was auch mMn einen Einsatz im Desktop unwahrscheinlich macht. Deswegen hier mal zum Vergleich von Intel E-Kern und AMD C-Kern:

Intel E Kern:
- IPC etwa 30% niedriger
- Takt etwa 25% niedriger*
- Leistung damit etwa 50-55% niedriger als der. P-Kern mit HT -> P Kern ist gut doppelt so stark
- ABER der E-Kern belegt nur etwa 25-30% der. Fläche eines P-Kerns
Fazit: Intels E-Kern ist in allen Belangen schwächer als der P-Kern, ist aber soviel kleiner, dass er umgerechnet auf gleiche Fläche etwa die doppelte Leistung besitzt.

AMD c Kern:
- IPC gleich (bis auf L3 kritische Anwendungen)
- Takt 45% niedriger*
- Leistung damit etwa 45% niedriger als der normale Kern -> etwas mehr als halb so. stark wie der normale Kern
- ABER der C-Kern benötigt immernoch mehr als die Hälfte der Fläche des normalen. Kerns.
Fazit: AMDs c Kern mag auf den ersten Blick stärker als Intels Pendant wirken, ist es aber am Ende gar nicht wirklich und braucht dazu noch auf dieselbe Leistung bezogen die gleiche Fläche wie der normale Kern.

Mit diesen Daten im Kopf würde eine potenzielle AM5 CPU mit einem normalen und einem c Kern CCD bei ca. 5% mehr Leistung landen (trotz 50% mehr Kernen) und dabei auch ca. 5% mehr Die Fläche belegen. Hört sich nicht sehr sinnvoll an, oder?


* ich rechne bei Intel mit dem gegebenen Takt (5.8 GHz P-Kern 4.3 GHz E-Kern)
Bei AMD muss ich in der Hinsicht leider spekulieren. Da es aber eigentlich keinen Sinn für AMD ergibt, den Boosttakt von Bergamo künstlich zu beschneiden, gehe ich davon aus, dass die 3.1GHz das vernünftige Maximum von ZEN4c sind. Nicht vergessen: Kompakte HD Libraries tendieren dazu, bei höherem Takt (für den sie nicht gedacht sind) zu saufen. Dementsprechend habe ich den Takt in meiner Rechnung auch bei der potenziellen Desktop Version bei 3.1GHz gelassen. (5.7GHz bei den normalen Kernen).
 
Zuletzt bearbeitet:
@Philste kommt in deiner Rechnung auch das SMT für den Bergamo Kern vor? Intels E-Kern bietet ja nunmal kein HT.

Dazu gehst du bei deiner Berechnung von einem linearen leistungsverlust aus beim Takt. Das kann für manch ein Programm passen für andere aber nicht was AVG kein linearer Leistungsverlust darstellen wird.
 
Zuletzt bearbeitet:
@Northstar2710 ist natürlich nicht alles 100% genau, aber Takt skaliert ja meistens doch recht gut. Speziell bei ZEN4 vs ZEN4c mit eigentlich identischer Architektur. Klar, oben raus wirds immer enger mit dem Scaling. An der Tendenz, dass ZEN4c im Desktop, wo die normalen Kerne "freidrehen" können, eher wenig Sinn macht, sollte das alles nichts ändern. Bei Servern oder Laptop CPUs mit niedriger TDP (zusammengefasst CPUs, bei denen die normalen Kerne ihren Takt nicht ausspielen können) sollte das ganze aber eine gute und vor allem kostengünstige Lösung sein.
 
Zurück
Oben