Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNetSpeed: Intel kauft Spezialisten für Inter-Chip-Kommunikation
Mit der Übernahme des US-amerikanischen Unternehmens NetSpeed hat Intel nach eigenen Aussagen einen Spezialisten auf dem Bereich der SoC-Entwicklung erworben. Von besonderem Interesse sind dabei offensichtlich die Patente, die das Leitungsgewebe (engl. Fabric) zur Kommunikationen der SoC-Bestandteile untereinander betreffen.
"Was kümmert mich mein Geschwätz von Gestern"
Aber war ja irgendwie klar. Neue (Ver-ver-ver-verspätete) Fertigung mit niedrigen yields lässt sich mit großen Chips nicht wirtschaftlich umsetzen. Auch Intel muss aufs Geld gucken.
Interessant dabei ist doch die Frage wie lange die Neuentwicklung des Multi-Chip-Designs dauert.
2, 3, 4 Jahre?
Könnte eine lange Durststrecke für Intel werden :-)
Und ich wünsche es ihnen so!
Ergänzung ()
pipip schrieb:
Desweiteren erwarte ich, dass wir auch Intel HPC APUs sehen werden.
Bin ich bei dir!
Dass Microsoft nicht mehr Berechnungen auf einer leistungsfähige GPU anstatt einer CPU durchführt ist doch nur der Klüngelei mit Intel geschuldet. Und der Tatsache dass Intel bisher schlicht nichts hat.
Spätestens nachdem AMD mal eben 32 Kerne aus dem Hut gezaubert hat war klar das Multi-Chip-Design das Ding für die Zukunft wird. Von daher ein richtiger und konsequenter Schritt von Intel. Das dann auch APU kommen dürfte ausgemachte Sache sein.
Nice... Also ich meine der erste Gedanke, den ich bei dieser Meldung hatte war: CCX und AMD...
Das ist definitiv ein vollständiger Triumpf, für die deutlich kleinere Chipschmiede AMD.
@Wattwanderer
Du hast scheinbar nichts verstanden oder?
Wo warst du seit 2017?
Ist es besser, 1x 600mm² aus einem 12 Zoll Wafer zu schneiden, wo plötzlich 30mm² kaputt sind und 600mm² weggeworfen werden müssen
oder ist es besser 3x 200mm² aus einem 12 Zoll Wafer zu schneiden, wo plötzlich bei einem der 200mm² 30mm² kaputt sind und dieser eine weggeworfen werde muss, 2 aber noch Funktionieren?
Hier geht es primär nicht um den Preis, sondern schlicht um die Realisierbarkeit.
Einen Monolith in der von Intel geplanten Größe/Komplexität herzustellen, scheint gescheitert zu sein.
Nach meinem Verständnis ist das schlicht falsch, da die Verbindung zwischen GPU und Speicher so direkt wie möglich ist und die IF zwischen Vega und HBM2 somit nur stören würde. Liege ich falsch?
Zum einen ist bei einem Sockel die Packdichte des Systems größer (du kannst ja auch zwei Sockel mit MCMs bestücken, dann sind wieder doppelt soviele), zum anderen ist ein Interconnect zwischen Zwei Sockeln Performanceseitig nicht das gleiche wie innerhalb eines MCMs.
Nach meinem Verständnis ist das schlicht falsch, da die Verbindung zwischen GPU und Speicher so direkt wie möglich ist und die IF zwischen Vega und HBM2 somit nur stören würde. Liege ich falsch?
In “Vega” 10, Infinity Fabric links the graphics core and the other main logic blocks on the chip, including the memory controller, the PCI Express controller, the display engine, and the video acceleration blocks.
Denke der Aufwand 2 Die zu koppeln ist gering und geht sogar ganz ohne Designanpassung, ist ja auch über Sockel hinweg möglich.
Schwieriger ist die ganze Sache skalierbar zu machen und denke das ist erst längerfristig Intels Ziel, ggf über die aktuell 8 Die bei Intel und AMD die maximal verbunden werden hinaus zu gehen.