News Zen 4c „Bergamo“: AMDs 16-Kern-CCD benötigt nur 9,6 % mehr Fläche als 8 Kerne

Matthias B. V. schrieb:
Intels GPUs sollten doch ebenso bei TSMC laufen…
Ich sprach bei Intel auch von den CPUs ;)

Dai6oro schrieb:
Stimmt nur nicht. Intel nutzt für arc TSMCs n6.
Vielleicht solltest du mal den Post lesen, auf den ich antwortete.
Es ging um Intel CPUs und warum AMD so viel besser ist. Als Gegenbeispiel wurde Nvidia angeführt.
Ich wüßte nicht, dass Intel seine CPUs bei TSMC fertigen lässt.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Zen 4c sollte so ungefähr dieselbe IPC wie Zen 4 haben. Der halbe L3-Cache je Kern und das kompakte Design sorgen für Abweichungen. Sobald ausgiebige unabhängige Benchmarks vorliegen wissen wir es genau.
Zen 4c hat die gleiche RTL wie Zen 4, Latenz und Durchsatz der einzelnen Befehle dürften daher identisch sein.
 
Bunny_Joe schrieb:
Richtig, das ganze zielt nicht auf "Heim" Anwender, sondern auf den Pro Bereich.
Da wird das Geld verdient, nicht mit dem "kleinen Gamer" zu Hause.
Besonders in RZ wird durch die neuen Gesetze in der EU, Performance bei Effizienz immer wichtiger.
ThePlayer schrieb:
Ja dem "normale" Heimanwender reichen 8 Kerne, der braucht keine 16 Kerne. :rolleyes:
Das ist hier bei Heimanwendern wieder der "Balken" Vergleich.;) (Ich habe aber mehr ...)

Selbst ich benötige die 8 Kerne die ich habe nicht wirklich.
Meist dübeln die bei ca. 25 bis 30% Auslastung rum.
Nur wenn ich mal bei einem meine Bilder mit mehr als 60 Ebenen einen Filter per Batch über alle Ebenen laufen lasse, komme ich mal auf knapp 70% Last der Kerne.

Daher macht es für AMD und Co. auch nicht wirklich Sinn im Heimbereich mehr als 16Kerne anzubieten.
In der nächsten Gen. kommen höchstens 32Kerne, weil das die Produktion vereinfacht (Abfall von der Produktion der 64 und mehr Kerne)

Seht es ein, wir "Heim" Anwender sind für die Firmen nur noch eine nette Beigabe, aber nicht mehr wirklich wichtig.
 
Zuletzt bearbeitet von einem Moderator:
Northstar2710 schrieb:
Kann man jetzt sehen wie man will. Wenn man meteorlake als Ganzes nimmt, kommt der Großteil von Tsmc. Wenn man die tiles aufschlüsselt ist der CPU Part selbst von Intel. Wohin gegen i/o, gpu, Soc Elemente von Tsmc stammen. https://www.computerbase.de/2022-08/meteor-lake-tsmc-baut-mehr-chips-als-intel-fuer-next-gen-cpu/
Raptor Lake: Intel 7
https://de.wikipedia.org/wiki/Intel-Raptor-Lake-Mikroarchitektur

Alder Lake: Intel 7
https://de.wikipedia.org/wiki/Intel-Alder-Lake-Mikroarchitektur
Wo TSMC?

Meteor Lake kommt ja noch und die Frage drehte sich um die aktuelle Situation und nicht um die Zukunft.
 
MrHeisenberg schrieb:
Vielleicht solltest du mal den Post lesen, auf den ich antwortete.
Es ging um Intel CPUs und warum AMD so viel besser ist. Als Gegenbeispiel wurde Nvidia angeführt.
Ich wüßte nicht, dass Intel seine CPUs bei TSMC fertigen lässt.

Irgendwelche Atoms hat Intel mal bei TSMC fertigen lassen.
 
@MrHeisenberg ich habe auch nur Meteorlake erwähnt. Von Raptors/Alderlake war garkeine Rede. Weiß nicht wie du da auf kommst.
 
7H0M45 schrieb:
Der Artikel liest sich für mich eigentlich so als kommt die Wesentliche Magie hier von TSMC und AMD hat grob gesagt ein bisschen Tetris gespielt.
Wenn das so wäre, hätte Intel bereits ähnliche Produkte am Markt.
Doch alle Chiplet Designs haben Verzögerungen gehabt und kommen erst.
Und dieser Ansatz, den wir hier sehen, haben sie schon mit Bulldozer einmal gemacht. Intel könnte selbst sowas machen, haben aber offensichtlich bei weiten noch nicht das "GPU" Know-How, wie AMD.
AMD hat zwei Konkurrenten, Intel und NV. Das wurde hier im Thread schon einige male gesagt.
Trotzdem ist es AMD, der von allen drei, beide Komponenten bisher am besten kombinieren kann. Das gilt auch technologisch.
Einfach zu sagen TSMC bietet das an, ist einfach lächerlich. Sie bieten ein Bibliothek an. Der Rest ist AMD.
Intel nimmt den Ansatz, eine Core (-P) Architektur, für High Performance, eine Core (-E) Architektur für low power.
AMD nimmt den Ansatz. Eine Core mit der Biblothek von CPU für High Performance und eine Biblothek für Low Power, GPU ect für Low Power und lässt die Architektur selbst bestehen.
Das muss nicht mal zwangsweise bei TSMC passieren sondern geht durchaus bei Samsung auch, bei denen AMD bereits GPU hat fertigen lassen.
Sprich AMD ändert das Bias der Fertigung, auf Eigenschaften, dass die Cores durch andere Libs kompakter werden (da sie umsotiert werden) und nehmen in Kauf, dass diese dann nicht mehr so hoch takten können.
Der Offset wandert aber in einen niedrigeren Bereich, wo vllt Schwellenspannungen und co geringer sind. Was folgt, geringere Verbrauch, logisch oder ?
Dass TSMC das alleine macht, ist schon sehr naiv, wie gesagt. Die profitieren durchaus auch von AMD, weil die ihren neusten Scheiß ausprobieren und deren Feedback geben. TSMC kann also auch nur durch Kunden wie AMD , Apple oder NV sich weiterentwickeln. Deshalb tut sich Intel auch so schwer, weil deren Feedback bisher immer noch aus der eigenen Abteilung kam. Deshalb ist deren Fertigung auch so sehr an Intel Architektur gebunden und umgekehrt.
Übrigens das selbe könnte man vllt auch mal bei GPUs sehen (aber vermutlich dort sinnbefreit). Denn AMD könnte HPC GPU auf CPU Libs vllt auch bauen.

PS. Intel hat vermutlich ähnliches noch nicht geliefert, weil sie bis Datum kaum GPUs hergestellt haben. Bisher waren es IGPs. Deshalb lassen sie auch ihre großen GPUs bei TSMC fertigen. Intel steht im Endeffekt dort, wo AMD damals ihre Fabs verkauft haben und einen Weg finden musste, wo sie am Ende ihre GPUs fertigen lassen.
Am Ende war scheinbar TSMC der beste Partner und die beste Wette die aufgegangen ist. Kann auch daran liegen dass sie bei GF ihre GPUs ja nach einem Samsung Prozess haben Fertigen lassen.
 
Zuletzt bearbeitet:
Matthias B. V. schrieb:
Interessant wäre es ob man irgendwann das platzsparende Design in Kombination mit TSVs hinbekommt und den L3 Cache „ohne größere“ Leistungseinschränkungen komplett auf eine andere Ebene verlegen kann. Dies würde dann richtig abgehen… Evtl. den L2 Cache im Gegenzug

Preise für Wafer?
https://www.siliconexpert.com/de/blog/tsmc-3nm-wafer/
6nm EUV kostet eher etwas über $10.000 je Wafer.

Infinity Cache in 6nm a 32 Bit und 32 MB hat AMD ja schon ausgelagert in Verwendung.
 
Northstar2710 schrieb:
@MrHeisenberg ich habe auch nur Meteorlake erwähnt. Von Raptors/Alderlake war garkeine Rede. Weiß nicht wie du da auf kommst.
Wie ich darauf komme? Lest ihr eigentlich, bevor ihr postet?
Lies doch mal bitte, wem ich geantwortet habe und was diese Person schrieb.

Die Aussage war, dass sie bei den GPUs hinterherhinken, obwohl CPU so gut läuft.
Die GPUs von Nvidia und AMD werden bei TSMC gefertigt, Intel fertigt seine CPUs aber selbst und AMD greift hier ebenfalls auf TSMC zurück. Möglicherweise ist TSMCs Fertigungsprozess viel besser als Intel7?
Darauf wollte ich hinaus! Meteor Lake spielt hier gar keine Rolle, weil das Zukunftsmusik ist.
 
Zuletzt bearbeitet:
MrHeisenberg schrieb:
Lest ihr eigentlich, bevor ihr postet?

Wenn, dann greife die Person, persönlich an.

kA was momentan los ist, irgend etwas scheint aber im Trinkwasser oder in der Luft zu sein.

Ich musste mich gestern zu den Wahnsinnigen stellen, um die Stimmung nicht kippen zu lassen und wir haben bis zum bitteren Ende geklatscht, gesungen und unsere Jungs angefeuert.

Und Sonntag ist Rückspiel.

Seid nett zu einander. Ein bisschen grain of salt gehört dazu, aber keine Salzberge. :heilig:

btt:

Das, womit Intel sein Geld verdient, wird nicht von TSMC gebaut. Von TSMC lässt Intel Zeug für Daddelkids bauen und es ist "Zubrot".

mfg
 
  • Gefällt mir
Reaktionen: MrHeisenberg
@Taurus104 RDNA3 kann man nur als Fail bezeichnen. AMDs Ziel kann niemals nur 8% mehr Leistung je WGP als Ziel gehabt haben (doppelte FP Einheiten) und auch ihre Folien sprechen eine andere Sprache.
3 zieht viel zu viel Strom.
Der Fette Navi31 ist fast doppelt so groß, wie GA103 und leicht flotter bei 100W mehr Verbrauch und erheblich langsamer in RT
Die 50% Effizienzvorteil waren bei RDNA1 zu 2 das Minimum, bei 2 zu 3 war es der Bestcase, im Mittel 43% nach CB

RDNA3 ist nicht ganz Vega fail, aber näher an Vega als an jeden GCN oder RDNA Erfolg
 
  • Gefällt mir
Reaktionen: bensen
bad_sign schrieb:
@Taurus104 RDNA3 kann man nur als Fail bezeichnen. AMDs Ziel kann niemals nur 8% mehr Leistung je WGP als Ziel gehabt haben (doppelte FP Einheiten) und auch ihre Folien sprechen eine andere Sprache.
3 zieht viel zu viel Strom.
Die beiden Punkte hängen eng miteinander zusammen. Durch die doppelte FP Einheit hat man sehr viele LVT Transistoren die meistens nichts machen, aber konstant Strom ziehen. (Tausende male Power Gating zu implementieren ist auch keine Lösung)
 
MrHeisenberg schrieb:
Wie ich darauf komme? Lest ihr eigentlich, bevor ihr postet?
Lies doch mal bitte, wem ich geantwortet habe und was diese Person schrieb.

Habe ich, er hat auch nicht von Alderlake/Raptorlake gesprochen. außerdem hasst du mich zitiert bezüglich meteorlake, und dort Intels CPUs Aufgelistet. Und darauf hab ich dann wieder geantwortet. Vielleicht solltest du auch mal die Texte lesen bevor du Antwortest.

Und jetzt komm mal wieder runter.
 
Novasun schrieb:
@ETI1120 Sorry aber RDNA3 mit Vegavibes zu vergleichen... Geht gar nicht.

Wo konnte denn deine Erwartung enttäuscht werden? AMD hatte vorher offiziell nichts angegeben... Ja in den Gerüchten
Das ist nicht richtig.

AMD hat bei der offiziellen Vorstellung Cherrypicking betrieben und nur die Benchmarks vorgestellt bei denen RDNA 3 funktioniert. Die Erwartung nach der Vorstellung war die 7900XTX ist deutlich vor der RXT4080 bei der 7900XT wirds es eng. Als die unabhängigen Benchmarks herausgekommen sind war klar dass die 7090XT abgeschlagen ist und die 7090XTX so ziemlich gleichauf mit der RTX4080 ist.

AMD hat den Hypetrain bei Zen 4 entgleisen lassen. Bei RDNA 3 haben sie in munter laufen lassen. Und sogar noch angeheizt. In einigen Interviews hat AMD behauptet, dass sie effizienter als Nvidia sind.

Das Problem mit den Gerüchten war, dass niemand verstanden hat, dass die hohe Shaderanzahl durch das Dual Issue zustande kommt. Alle haben die hohe Effizienz der RDNA 2 Shader als Vergleichsbasis herangezogen.
 
RKCPU schrieb:
https://www.siliconexpert.com/de/blog/tsmc-3nm-wafer/
6nm EUV kostet eher etwas über $10.000 je Wafer.

Infinity Cache in 6nm a 32 Bit und 32 MB hat AMD ja schon ausgelagert in Verwendung.
Preise für Wafer war eine rhetorische Frage auf das zitierte Kommentar. Als Grund sind die Preise zu nennen… Aber danke :)

Ja aber bisher ist ein Teil L3 auf der CPU und ein weiterer gestapelt. Evtl. könnte man es langfristig komplett aus der CPU und neusten Nodes auslagern und L3 komplett auf ein Layer darunter legen…

Denke Intel Adamant wird in die Richtung gehen. Auch wenn es zuerst als L4 getestet wird…
 
MonteDrago schrieb:
Richtig, das ganze zielt nicht auf "Heim" Anwender, sondern auf den Pro Bereich.
Da wird das Geld verdient, nicht mit dem "kleinen Gamer" zu Hause.
...

Ja dem "normale" Heimanwender reichen 8 Kerne, der braucht keine 16 Kerne. :rolleyes:
Das ist hier bei Heimanwendern wieder der "Balken" Vergleich.;) (Ich habe aber mehr ...)

....

Seht es ein, wir "Heim" Anwender sind für die Firmen nur noch eine nette Beigabe, aber nicht mehr wirklich wichtig.
Auch die CPU's mit kleiner GPU für Client's in Firmen werden anspruchslos bleiben.

Vielleicht isoliert AMD (auch) für den Desktop ein Chiplet mit 2* Zen4 und 8 MB - L3,
dazu 4* Zen4c auch mit 8 MB - L3 als Hexacore für Office, Home Office und einfach Desktop?
(die im Artikel gezeigten Chiplets auf 2 statt 4 Reihen verkürzt und vermischt)

Gerade der A620 Chipsatz benötigt nun kostengünstige CPU's zwischen $100 und $200.
Hier wird man zudem eh nur Single-Channel DDR5 verbauen
https://www.computerbase.de/2023-04/amd-chipsatz-die-neue-a620-einsteigerloesung-im-detail/#bilder
 
Taurus104 schrieb:
Dann hast du wohl andere Tests gelesen als der Rest der Menschheit gesehen oder legst es dir schlicht so zurecht das in in deine Argumetation passt.

Gerade bezogen auf die Raster-Performance ist deine Aussage schlicht fasch.
NVIDIA Fanboys sind wie immer schlecht informiert.
Ergänzung ()

MonteDrago schrieb:
Richtig, das ganze zielt nicht auf "Heim" Anwender, sondern auf den Pro Bereich.
Da wird das Geld verdient, nicht mit dem "kleinen Gamer" zu Hause.
Besonders in RZ wird durch die neuen Gesetze in der EU, Performance bei Effizienz immer wichtiger.
Du erzählst ziemlich viel Unsinn.
Der Gaming-Bereich liegt bei NVIDA immer noch an zweiter Stelle.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
Taurus104 schrieb:
Eine 7900XTX hat ist Durchschnittlich 3-5% schneller in der Rasterleistung als ihr Konkurrenzprodukt RTX4080.
Eine 7900XT ist 12% schneller als eine 4070 Ti. (Angaben lt Computerbase und PCGH)
Vergleiche doch mit der 4060, dann stehen die noch besser da.
Es war ein technischer Vergleich. Kein Vergleich Preis/Performance.
Für den breiten Chip, ist die Performance einfach richtig schlecht. Dass AMD den preislich gegen einen deutlich schmaleren Chip stellt, macht ihn ja nicht besser. Auch wenn es interessant für die Kunden ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Humbertus und ETI1120
Zurück
Oben