Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsHot Chips: Riesige Chips von IBM & Intel und ein Monster von Cerebras
Groß und noch größer heißt es zur Konferenz Hot Chips. IBMs Power 9 AIO sowie Spring Crest von Intel finden dabei aber ihren Meister in einem für Künstliche Intelligenz entwickelten Produkt, das den größten bisher gefertigten Chip hervorbringt, der die Größe eines iPads aufweisen soll.
Die technischen Werte lesen sich ja erst mal ganz gut, was dabei aber auf der Straße ankommt muss sich zeigen. Kann mir aber vorstellen, dass die hohe Integration vom Speicher und den architektischen Konzept sowas alles bisherige in Grund und Boden stampft (absolute Leistung sowie relativ zum Verbrauch)
Auf jedenfall spannend zu sehen dass bei sowas richtig Gas gegeben wird. In 10 Jahren gibt's dann vergleichbare KI Leistung im Smartphone.
Da kommt Nostalgie hoch als Japan Speerspitze der technischen Entwicklung darstellte.
Eine japanische Delegation wird nach Besuch der DDR nach ihren Eindrücken gefragt. Als höfliche Asiaten antworten sie "die Museen haben uns beeindruckt. Pergamon, Bode, Robotron..."
BTT:
Wie geht man bei so einem riesigen Chip mit Fehlern um? Ein Eckchen kaputt und die ganze CPU ist Ausschuss?
Schafft man es denn überhaupt über die ganze Scheibe fehlerfrei zu sein?
Man kann davon ausgehen, dass es immer eine gewissen Grad an Teildeaktivierung gibt.
So ein Chip in der Auflösung zu fertigen bedeutet quasi automatisch, dass nicht alle Transistoren perfekt angebunden sind. Ich werd jetzt mal eine maximale Belichtungsqualität von 99, 7% ( oder jeden anderen fiktiven Wert einsetzen) in den Raum. Die 0,3% werden demnach immer defekt sein.
Solange es jedoch kein kritischer Pfad ist kann der Chip ja benutzt werden. Aber eine Teildeaktivierung wird immer stattfinden und kann mit Redundanz von Bereichen vorgebeugt werden
Vermutlich sind die vorhandenen Defekte Teil der Lernphase von der darauf laufenden KI - nichts anderes macht man ja heute bereits mit Festplatten SSDs etc. ....
Aber Ur-gewaltig ist so ein Die in jeden Fall - die entstehende Verlustwärme im Betrieb kann vermutlich bei der Fläche ein Haus heizen ..
Vermutlich sind die vorhandenen Defekte Teil der Lernphase von der darauf laufenden KI - nichts anderes macht man ja heute bereits mit Festplatten SSDs etc. ....
Bei HDDs und SSDs hast du in der Regel mehr Kapazität als angegeben damit du gewisse reserve Sektoren hast Bei CPUs ist ist es eher der Fall, da wird die CPU dann aber in einer anderen Kategorie verkauft.
Man kann davon ausgehen, dass es immer eine gewissen Grad an Teildeaktivierung gibt.
So ein Chip in der Auflösung zu fertigen bedeutet quasi automatisch, dass nicht alle Transistoren perfekt angebunden sind. Ich werd jetzt mal eine maximale Belichtungsqualität von 99, 7% ( oder jeden anderen fiktiven Wert einsetzen) in den Raum. Die 0,3% werden demnach immer defekt sein.
Solange es jedoch kein kritischer Pfad ist kann der Chip ja benutzt werden. Aber eine Teildeaktivierung wird immer stattfinden und kann mit Redundanz von Bereichen vorgebeugt werden
Wenn ich da jetzt keinen Tippfehler gemacht habe, dann sind das nach deiner Fehlerquote 36.000.000.000 Defekte Transistoren. Unglaublich
Das können die nicht bringen.
Wie hoch ist denn üblicherweise die Fehlerquote? Ich hätte jetzt mal auf Vielleicht 0,001% geschätzt. Was ja eigentlich auch noch viel ist.
Wenn ich da jetzt keinen Tippfehler gemacht habe, dann sind das nach deiner Fehlerquote 36.000.000.000 Defekte Transistoren. Unglaublich
Das können die nicht bringen.
Wie hoch ist denn üblicherweise die Fehlerquote? Ich hätte jetzt mal auf Vielleicht 0,001% geschätzt. Was ja eigentlich auch noch viel ist.
Naja, die DDR war leider auf einem ganz anderen Level festgebunden.
Der 1 MBIT Chip, den die Honecker gezeigt hatten war ja auch kein echter oder ein defekter (Schade das man keine bei ebay findet ).
Solange es jedoch kein kritischer Pfad ist kann der Chip ja benutzt werden. Aber eine Teildeaktivierung wird immer stattfinden und kann mit Redundanz von Bereichen vorgebeugt werden
Das sind also 400.000 Blöcke mit lokalem oder globalen SRAM die in der Mesh Topologie verbunden sind - ähnlich Skylake SP . 400.000 einfachere CPU Cores im Vergleich zu komplizierteren Prozessor-Cores.
Weitere sinnvolle Annahmen : die Interconnects sind weniger anfällig für Fehler als die AI-Cores. Die Mesh Konfiguration erfolgt nach dem Hardwaretest vermutlich durch FUSE-Bits oder durch Laser-Trennung von Leiterbahnen (histor. Beispiel) .
Außerdem wird von 16nm Fertigung geschrieben = bewährte Technik - und die Interconnects zB größer als auf dem Ryzen IO-Die.
Der Mesh zwischen den Cores kann ja so verdrahtet sein, dass defekte Cores nur "wenig mehr" funktionierende Cores lahmlegen.
Jepp.
Das geht ja heutzutage fast schon als Grobmotorik durch
Wenn ich da 8,6 Kerne per mm² habe, ist das für den Laien eine ganze Menge. Ich denke auch, die werden das sicher im Design eingebaut haben, das bis zu einer bestimmten Fehlermenge bzw Quote einfach Einheiten deaktiviert werden und gut ist.