News Knights Mill: Intel stellt Xeon Phi mit Blick auf Xe endgültig ein

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
16.021
  • Gefällt mir
Reaktionen: mightyplow
yummycandy schrieb:
Eventuell später

Die bekommen eher eine Gewinnwarnung aufgetischt ;)

Wobei selbst ich mir das bei Intel nur schwer vorstellen kann.
Die sind ja genauso wie VW: scheiße bauen und trotzdem absahnen
 
  • Gefällt mir
Reaktionen: Fritzler, Dittsche, Coeckchen und eine weitere Person
Jo war nie der Burner, ich hab mir mal ne Karte in die Sammlung gelegt.

Dafür gabs einige modifizerte Pentium P54c CPUs auf einer Karte :-)

Bilder von einer Xeon Karte gibts hier, bitte Bild ignorieren da noch nicht wirklich Retro.
Wird dann 2028 Retro sein.....



https://www.computerbase.de/forum/threads/der-retro-hardware-bilderthread.1830571/post-22400597


Einfach einstecken und los legen war halt auch nicht. Die Boards und CPU vom Host System mußten gewissen Anforderungen erfüllen. Danach kam noch die Software....
 
Nun, ich bin 'mal gespannt, wie gut die voraussichtlich in Intels 10nm Fertigung hergestellten Xe GPUs von Intel dann sein werden bzw. ob sie mit den Konkurrenten werden mithalten koennen und zu welchem veranschlagten Preis (eines Newcomers im dGPU-Bereich immerhin).

Da kommt neben der hauseigenen Fertigung, der Architektur und der eingefuehrten Features sowie unterstuetzter Standards/Tiers ja einiges zum tragen und es auch relativ undurchsichtig inwieweit Intel mit Microsoft etwa bzgl. DX12, DXR, usw. fuer den Consumer-Sektor zusammenarbeitet.

Mit den Leuten, angefangen bei Keller bis hin zu Koduri, die Intel mittlerweile an Bord hat, sollte man schon damit rechnen, dass das Intel "Imperium" massiv zurueck schlagen wird und insbesondere fuer AMD(/RTG) ist derzeit wohl geboten noch vorher - in dieser relativen Schwaechephase Intels - so viel Boden gut zu machen oder gar Vorsprung heraus zu holen wie moeglich.
 
estros schrieb:
Nvidia ist der Konkurrent, AMD wenn überhaupt der Partner von Intel.


Das Energieministerium der Vereinigten Staaten (DOE) plant mit Frontier aber noch einen weiteren Exascale-Supercomputer. Dessen Hardware kommt von AMD.


Demnach ja nicht, auch wenn das erst ein Anfang bzgl. AMDs im Hinblick auf die Ausstattung von Supercomputer nur mit eigener Hardware ist und was die dGPUs angeht, muss Intel ja dann erst einmal erfolgreich einsteigen mit den eigenen Xe Modellen.

nVidia ist Konkurrent (zusammen mit IBM) fuer die Supercomputer, aber ob das auch fuer die dGPUs gelten wird, da muessen sich die Intel Loesungen erst einmal etablieren gegen die Loesungen von AMD oder nVidia und das wird evt. nicht allzu einfach werden (natuerlich besonders im Hinblick auf nVidia, das ist schon richtig).
 
Nach Itanium die nächste Intel Erfolgsgeschichte...:D
 
  • Gefällt mir
Reaktionen: Hayda Ministral
Oberst08 schrieb:
Nach Itanium die nächste Intel Erfolgsgeschichte...

Aus technischer Sicht waren Itanium und Larabee sehr interessant (*) - aber das entscheidet eben nicht allein über wirtschaftlichen Erfolg, dazu gehören - wie bei Itanium, der x86 zu Grabe tragen sollte - auch Faktoren, die sich nur schwer beeinflussen lassen.

(*) Und das sollte man nüchtern ohne die Intel, AMD, Nvidia... oder was auch immer Brille.
 
  • Gefällt mir
Reaktionen: DaniLt, Transistor 22 und Rockstar85
konkretor schrieb:
Jo war nie der Burner, ich hab mir mal ne Karte in die Sammlung gelegt.
Larrabee nie der Burner? Das ist ne Fette Untertreibung. Larrabee ist DAS Produkt, wenn es im HPC und Supercomputer geht. Man schaue sich hierzu die Liste an, wie viel Federn Nvidia hier lassen musste seit Larrabee

Das Ding war eben kein GamerChip, aber Computing kann das Ding wie Hölle

Aber es war klar, dass mit Xe dann Larrabee geht.
 
calluna schrieb:
Aus technischer Sicht waren Itanium und Larabee sehr interessant
Naja, der Ansatz von Itanium mit VLIW war bei AMD ja durchaus auch im Einsatz und nicht gerade unerfolgreich (in Grafikkarten bis zur HD6970). Aber es war halt etwas weltfremd von Intel, keine vernünftige Kompatibilität zu x86 zu bieten... Und bei Larabee hatte man zwar ein sehr flexibles Produkt, aber Verbrauch und Leistung waren durch die Flexibilität einfach nicht konkurrenzfähig. Interessant ist sicherlich vieles, aber es ist schon faszinierend, wie stark Intel hier bei diesen beiden Zukunftsprojekten (damals waren das ja Zukunftsprojekte, um neben x86 zu expandieren) gescheitert ist. Ich bin gespannt auf den Nachfolger der Core Architektur...
Rockstar85 schrieb:
Larrabee nie der Burner? Das ist ne Fette Untertreibung. Larrabee ist DAS Produkt, wenn es im HPC und Supercomputer geht. Man schaue sich hierzu die Liste an, wie viel Federn Nvidia hier lassen musste seit Larrabee
Das Ding war eben kein GamerChip, aber Computing kann das Ding wie Hölle
Hast du dazu auch zahlen? Aber von einem am Markt erfolgreichen Produkt kann man auch nicht darauf schließen, dass es auch ein gutes Produkt war. Ich sag da nur Athlon64 und Pentium 4... AMD GPUs können auch Compute, werden aber bei weitem nicht so eingesetzt wie NVidia. Bei Larabee war in erster Linie wohl die Flexibilität und das Paket aus CPU, Chipsatz und Beschleuniger-Karte von einem Hersteller das Argument.
 
Chismon schrieb:
Demnach ja nicht, auch wenn das erst ein Anfang bzgl. AMDs im Hinblick auf die Ausstattung von Supercomputer nur mit eigener Hardware ist und was die dGPUs angeht, muss Intel ja dann erst einmal erfolgreich einsteigen mit den eigenen Xe Modellen.
Wegen einem geplanten System, ist AMD mit Sicherheit kein Konkurrent. Steht doch alles in der CB News. Und dass Intel seine GPU Architektur erfolgreich anbieten konnte, ebenso. Die werden nicht ohne Perspektive die alten einstellen.
 
Schön, mein Prof behauptet schon seit Jahren, die Zukunft wäre eher bei Architekturen wie Phi als bei den GPUs und ich war für GPUs. Tja, Chef... :evillol:
 
Das ist insofern nur logisch, dass die Produkte ggü. "klassichen" GPUs zur damaligen Zeit einfach Vorteile hatten. Ein Marktanteil von startend bei 0% kann nur nach oben gehen - es finden sich immer Käufer, fast egal wie gut oder schlecht das Produkt ist. Zudem war es halt x86 based und ließ damit auch alle möglichen Spielereien und teils massive Vereinfachungen (bspw. keine CPU mehr notwendig um die GPUs zu betreiben) zu.

Das heist aber lange nicht, dass das auf Dauer die Ablöse hätte sein müssen von klassichen GPUs als Compute Beschleuniger oder gar das Ende dieser. Von DAS Projekt im Compute Bereich ganz zu schweigen. Auch die Konkurrenz entwickelt sich weiter und so wie es aktuell ausschaut hat Intel die Reißleine schon 2017 oder eher gezogen indem man die aktuellen Modelle ausschließlich gesockelt anbot (keine PCIe Beschleuniger) und den Nachfolger auch seit Monaten schon gestrichen ist.
Ich meine sogar was von zu geringe Leistung für den Verbrauch trotz (damals noch) neuster Fertigungstechnologie bei Intel im Kopf zu haben. Das war noch als 14nm gerade taufrisch am Markt waren und NV/AMD mit ihren GPUs noch bei 28nm waren bzw. gerade Polaris/Pascal vorbereiteten.
Fehlende 10nm und dessen Ableger ist wohl auch ein Grund für das scheitern dieses Projektes.
 
Zurück
Oben