Weil ASUSTeK, Azure, Broadcom, Cisco, CTuning, Dell, Fujitsu, Giga Computing, Google, Hewlett Packard Enterprise, Intel, Intel Habana Labs, Juniper Networks, Krai, Lenovo, NVIDIA, Oracle, Qualcomm Technologies, Inc., Quanta Cloud Technology, Red Hat, Supermicro, SiMa, und Wiwynn dabei sind mit tausenden Ergebnissen und unzähligen Hardware-Kombos, Epyc-CPUs sogar dabei, Googles TPUs, sogar Qualcomms AI-Beschleuniger und mehr.
Und der, der eigentlich Nvidia herausfordern will und natürlich auch Intel: Nicht.
Und nachdem sie zuletzt auf dem AI Event im Dezember 2023 und der Vorstellung von MI300 gesagt haben, sie machen mit: Nix.
Es ist leider bei AMD noch immer ein Trauerspiel was Software und Optimierung angeht, das sieht man bei solchen Sachen dann immer wieder. Auf Events wird die ganze Zeit geredet wie geil alles ist und wird. Aber irgendwie landet man immer wieder hier, hier weigert sich AMD standhaft irgend ein Instinct-Produkt in den Ergebnissen darzulegen und Partner dürfen es auch nicht.
Der Chef von MLCommons beschreibt es schön, das es nicht einfach ist. Aber schaffbar:
“Submitting to MLPerf is quite challenging and a real accomplishment. Due to the complex nature of machine-learning workloads, each submitter must ensure that both their hardware and software stacks are capable, stable, and performant for running these types of ML workloads. This is a considerable undertaking. In that spirit, we celebrate the hard work and dedication of Juniper Networks, Red Hat, and Wiwynn, who are all first-time submitters for the MLPerf Inference benchmark.”