Smartbomb schrieb:
Genau genommen natürlich schon - schon klar
Wenn bei diesem IO DIE schon der Stromverbrauch mit kleinerer Fertigung kaum sinkt, wird da das Packaging (aka wie die Einzelnen Teile zusammengeklebt sind) noch weniger Einfluss drauf haben.
Das siehst Du falsch. Beim IOD wirkt sich der Wechsel des nodes nicht sonderlich auf die Analogschaltkreise aus, d. h. sie skalieren nur sehr wenig. Das war ja der Grund warum bei Zen 2 die IO auf den 14 nm Die verlagert wurde.
Die Packaging Technologie wirkt sich relativ je Bit ziemlich massiv aus.
aus Advancing Efficiency – An AMD Overview RTC4AO Conference, Garching, 6 November 2023
- On Package ist was AMD bei Ryzen/EPYC seit Zen 2 verwendet,
- Advanced Packaging ist Fanout/Silicon Interposer (RDNA 3 MCD -> GCD, MI300 HBM -> IOD) per Micro Bumps und 3D Stacked
- Hybrid Bonding (3D V-Cache, MI300 IOD->XCD)
Wie gesagt wird on-package mit 2 pJ/bit angegeben, Fanout mit 0,5 pJ/bit. Zu Erinnerung Pico sind 10
-12 das heißt solange man keine TByte verschiebt wirkt sich das absolut nicht sonderlich aus. Deshalb ist AMD bisher mit den CPU die bei ein paar hundert GByte/s sind auf dem Substrat geblieben. Aber bei RDNA und und MI200/300 mit TByte/s auf Advanded Packaging gewechselt.
Worauf ich raus wollte im Idle schiebst Du keine Daten, und deshalb ist es in diesem Betriebspunkt eigentlich vollkommen egal welche Technik Du einsetzt. Du musst allerdings ungenutzte Transistoren und Verbindungen ausschalten oder massiv heruntertakten. Und ich habe meine Zweifel, ob dies beim IOD in allen möglichen Belangen passiert. AMD hat sich um die Effizienz bei Volllast gekümmert, ...
Smartbomb schrieb:
Wartma mal wie es bei Zen 6 dann kommt und ob die mobilen Chips weiterhin Monolithen bleiben (außer der Speerspitze die einfach gebinte Desktop CPUs mit geringerer TDP sind).
Ich bin mir ziemlich sicher, dass der Wechsel der Packaging Technologie andere Gründe hat.
Optionen
- Einen GCD oder einen XCD einzubinden, erhöht den Bedarf an Bandbreite massiv.
- Die Substrate sind an der Grenze dessen was an Verbindungen möglich ist. Mit Fanout geht auf der selben Fläche erheblich mehr. Dann kann man auch die CCDs und IOD direkt nebeneinander plazieren (Gap = 0,1 mm)
Was der Unterschied ausmacht hat AMD bei RDNA 3 gezeigt.
Die Beschriftung High Perf Fanout ist verrutscht, sie gehört zum kleinen Bild rechts.+
beide Grafiken aus AMD RDNA 3 Deep Dive Foliensatz
Die zweite geht noch einmal explizit auf den höheren Bandbreitebedarf der GPU ein
Smartbomb schrieb:
Ich weiß es auch nicht. Ich kenne ja die Infos von AMD, TSMC, den Herstellern und den Verträgen nicht.
TSMC 5 nm hatte die ganze Zeit freie Kapazitäten. TSMC hat gesagt, dass sie prüfen in wie weit sie Equipment von 5nm zur Unterstützung von 3 nm verwenden können. Die Auswertung der Waferumsätze zeigt es dass der Umsatz von 5 nm zurückgefallen ist.
Ich gehe nicht davon aus, dass 5 nm in Q4 voll ausgelastet war. Ich gehe von vergleichbarer Kapazität von 7 nm und 5 nm aus und dann sollten 100 % bei 5 nm irgendwo bei 7 Mrd liegen und nicht bei 6 Mrd.
Smartbomb schrieb:
AMD hat da bisher nur einen Fuß in die Tür bekommen, wenn sie den Herstellern möglichst wenig Arbeit gemacht haben, sprich: alles auf die bestehende Plattform samt Kühlung etc angepasst haben und natürlich auch gute Preise dafür boten, dass man ne Serie mit AMD aufgelegt wurde.
Die Hersteller bekommen von Intel eine Referenzplattform und das erwarten sie auch von AMD.
Im Vergleich zu Intel ist die Plattform eine Schwäche von AMD.
Auf der anderen Seite muss AMD die Unternehmenskunden überzeugen dass Notebooks mit AMD-Prozessoren ein gute Wahl sind. Diesen Job kann AMD nicht den Notebookherstellern überlassen. Die wollen nur Notebooks raushauen.
Was allerdings auffällt, dass viele Hersteller gar kein Phoenix anbieten.
Smartbomb schrieb:
Dabei wurden gefühlt(!) viele Geräte mit mobile Ryzen 5000 verkauft. man denke an die ganzen Zen 9 Notebooks mit 5600U, 5800U. Dann noch ein paar H und dann die 5625er und 5825er etc.
dann war lange nix - leider.
Es kann aber auch sein, dass es zu viele waren. Vielleicht weil AMD die Chips nicht beibrachte, vielleicht weil die Notebooks doch nicht so gut gingen. Viele IT-Abteilungen kaufen eben nur Intel.
Smartbomb schrieb:
Und jetzt halt die Namensänderung dass alle Ryzen 7000 heißen, aber die 7x20er noch Zen 2 sind, die 7x30er Zen 3 ...
Käufer müssen halt echt aufpassen.
Bei welchen Produkten muss man das nicht?
Ich finde diese ganze Diskussion langsam nervend. Ja es wäre schön, wenn man die Chips nicht umbenennen würde. Aber gerade die sich nicht wirklich auskennen, erkennen nicht, dass das Notebook mit dem Chip vom letzten Jahr für deutlich weniger Geld, der für sie viel bessere Kauf ist. Ihnen wurde gesagt es muss unbedingt die "13" sein alles andere ist alt.
Ich halte das neue Schema für einerseits fair, weil es wirklich aufschlüsselt was drin steckt andererseits für sau dumm, weil Produktnamen Produktnamen sind und keine Produktschlüssel. Wer wirklich wissen will was drin steckt muss sich die Datenblätter anschauen. Dafür sind sie da. Und dies gilt für alle Produkte. Ich habe noch keine Seite in irgend einem Katalog oder Webshop gesehen wo nur der Produktnamen und Preis angezeigt wurde.
Und wer die Datenblätter bzw. Produktbeschreibungen im Webshop nicht versteht, versteht einen Produktschlüssel noch viel weniger.
Smartbomb schrieb:
Schon klar. Aber es verdichten sich die Anzeichen schon sehr und die Info dazu, dass die Architektur einen relativ großen grundsätzlichen Umbau erfahren hat. Das passt natürlich alles zusammen.
Theoretisch würde die Ausweitung der ALUs eine 50% höhere Performance ermöglichen. In der Realität muss man es schaffen die neuen ALUs erst einmal adäquat zu beschäftigen. Und das ist nicht trivial.
Deshalb ist ein massiver Umbau auch nötig um überhaupt von der Erweiterung zu profitieren.
40 % mehr IPC würde bedeuten dass die Erweiterung der Integereinheiten zu 80 % durchschlägt. Nee.
Smartbomb schrieb:
Natürlich kann es sein, dass nur in speziellen Benchmarks diese vorab geleakten Zahlen erreicht werden und der Schnitt weit darunter liegt und wie immer, manche Berechnungen dabei sind, die fast gar nicht profitieren.
Darum wie immer: Warten auf Tests von kaufbaren Produkten
SpecInt ist eigentlich ein guter Benchmark. Aber MultiThread ist MultiThread und SingleThread ist SingleThread. Das sollte Leuten, die sich SiliconGang nennen eigentlich klar sein.
Und wie gesagt es ist HörenSagen was die SiliconGang als ultimative Weisheit verkauft.
Smartbomb schrieb:
Zu den AI Programmen: Interessant. mal sehen wie das in Zukunft wird. macht das die KI so viel besser als ein stumpfer Google Übersetzer?
Was meinst Du was Google da im Hintergrund verwendet? Die AI von DeepL ist halt besser als die von Google.
Smartbomb schrieb:
Und rechtschreibung und Grammatik auch so viel besser als 0815 Word?
https://www.congree.com
Wenn das System die Terminologie gelernt hat kommen halt auch sehr gute Korrekturvorschläge. Außerdem kannst Du Regeln für die Texte definieren.
Du kannst natürlich Deine Texte auch durch eine KI jagen damit die verbessert werden.
https://www.deepl.com/write
Das ist wie gesagt folgerichtig, weil die automatische Übersetzung neben fehlender Terminologie an schlechten Texten scheitert.
Die Frage Antwortspiele mit ChatGPT sind doch nur die Oberfläche. Durch AI kannst du Texte klassifizieren und Informationen strukturiert extrahieren. Die Möglichkeit der AI Programm-Code zu generieren bedeutet dass man auch Programmcode analysieren kann, inklusive automatsicher Dokumentation des Codes, ...
Meine Kollegen hatten ein Projekt bei dem sie Ausschreibungen durch eine AI gejagt haben um sie zu klassifizieren und die Kerninformationen rauszuholen. Wenn Dir die AIE eine genau Zusammenfassung der relevaten Daten aus der Ausschreibung gibt sparst Du halt jede Menge Zeit. Und es passiert auch nicht dass man 10 nicht relevante Ausschreibungen durch ackert und die eine voll passende fällt hinten runter.
Bei der Überwachung von Maschinen erkennt man durch die Abweichung von Daten, dass etwas im Argen liegt. Natürlich muss man zuvor einiges an klassifizierten Datensätze trainieren ...
Aktuell wird mit AI-Wettermodellen gespielt und die Kombination AI und klassische Numerik wird die Vorhersagegenauigkeit wieder ein bisschen steigern, oder das gleich gute Ergebnis schneller liefern.
...
AI ist aktuell ein Hype, aber in dem Sinne wie Computer Mal ein Hype war. Als Eltern ihren Sprösslingen einen Computer gekauft haben, damit die besser in der Schule werden, ...
Wenn der Hype durch ist, wird sich zeigen was funktioniert und was (noch) nicht funktioniert. Aber dann wird die AI so richtig durchstarten.
PS:
Bei AMD war ja das erste Jahr AIE nicht sonderlich prikelnd, wie zu befürchten.
https://riallto.ai/3_2_Ryzenai_capabilities.html
Kennst Du etwas zur Programmierung der GPU in den APUs von vergleichbarer Qualität?
PSS:
Es ist übrigens ein weiteren Grund warum ich von diesen Pseudoschlaumeiern von der Silicongang so wenig halte. Die lassen absolut unqualifizierte Dumpfbackensprüpche über AI und die AI-Engines in den PCs raus. IT-Kenner sollten es besser wissen.
Und das was die über die Prozesse von TSMC erzählen, zeugt davon dass sie keine Ahnung haben. Enten zu liken, dass N3 eingestellt und gleich durch N3E ersetzt wird (Kepler Herbst 2022).
Die glauben tatsächlich dass man mit zwei verschiedene Prozesse mit zwei Werten vergleichen kann (Performance-Zuwachs bei Isopower und Power-Einsparung). Die haben nicht verstanden dass diese Werte bei unterschiedlichen Betriebspunkte anders ausfallen und dass man durch variieren der tatsächlichen Dichte eines Designs andere Kennlinien erhält.