News Tachyum Prodigy: Neue CPU arbeitet mit x86-, ARM- und RISC-V-Software

[wege]mini schrieb:
...
Irgend eine Lizenz werden sie wohl auftreiben müssen/aufgetrieben haben.

von MMX über SSE bis zu AVX hat ja noch keiner gesprochen :D

mfg

VIA?
Und ist der Schutz für x86 nicht schon ausgelaufen? Jedenfalls für die 32Bit Version?


wannabe_nerd schrieb:
...
Jetzt zwei Jahre später haben sie immer noch kein Tape-Out aber immer noch große Ankündigungen....

Siehe Bitboys
Ergänzung ()

Herdware schrieb:
Die x86-Lizenz von VIA wird gerade fleißig von einem chinesischen Jointventure genutzt...
Ich bin nicht sicher, ob man eine einzelne Lizenz so "melken" könnte, dass gleich mehrere, unabhängige Unternehmen sie für ihre Produkte nutzen können.

Nein, VIA ist aber in einem Joint Venture mit Zhaoxin, so das diese ganz offiziell x86 nutzen dürfen.

Hat AMD auch gemacht, da gab es dann stark abgewandelte Ryzen Kerne.
 
  • Gefällt mir
Reaktionen: konkretor
andi_sco schrieb:
Und ist der Schutz für x86 nicht schon ausgelaufen? Jedenfalls für die 32Bit Version?


Wie ich schon verlinkt habe...sogar SSE1 und SSE2 sind theoretisch ausgelaufen. Wenn du jetzt aber irgend wo mal eine Lizenz für irgend etwas höheres möchtest, wirst du wohl wenigstens die billigste Lösung mit Intel gemeinsam finden müssen oder irgend einem anderen, wenn du "mehr" haben möchtest.

Wenn das funktioniert, werden wir in kleiner Form davon Dinge in beiden Mainstream Versionen der heutigen CPUs sehen, da ein "kleiner" FPGA zusätzlich mit nativen big Cores und noch einmal stromsparenden little Cores einfach der "feuchte" Traum eines jeden Designers ist.

Ob man das theoretisch Mögliche einfach in einen Topf werfen kann und am Ende funktioniert das auch, ist äußerst schwer zu sagen, daher wollte bisher auch noch keiner im gut funktionierenden PC Markt, solch ein teures Risiko eingehen.

Selbst bei AMD war es sinnvoller, am alten Ansatz festzuhalten, da er ja dank McM und kleiner Fertigung wirklich immer noch gut performed.

mfg
 
400 GBit LAN????
 
  • Gefällt mir
Reaktionen: LamaTux, Hayda Ministral und Klassikfan
aid0nex schrieb:
Also es ist x86, ARM und RISC-V Archtitektur gleichzeitig, schneller als alles auf dem Markt, energieeffiziennter als alles auf dem Markt und zugleich spottbillig?! o.O Ah ja...
Im Grunde ja kein Widerspruch..
Aktuelle x86 Prozessoren sind im Grunde RISC-Systeme mit x86-Front-end. Die alten u. neuen CISC-Befehle werden - vereinfacht gesagt- zerlegt, auf gleiche Länge umgerechnet, in Einzelinstruktionen umgrwandelt, paralisiert und von den nativen Funktionseinheiten verarbeitet.
Ob das Frontend nun x86, RISC-V, ARM oder CHIP-8 verarbeitet, kann den nativen Einheiten gleich sein.

Ich kann mich irren, aber das Prinzip scheint Ähnlichkeit mit Windows NT zu haben.
Da gibt es auch eine Native-API auf der Win32, OS/2 und Posix - Subsysteme aufbauen. Im Fall von .NET, Wow geht das sogar noch eine Ebene höher (bauen auf Win32 auf).
Ergänzung ()

Atkatla schrieb:
Die entsprechende TaskForce für die Erweiterung des Standards auf verschiedene 400 GBit-Umsetzungen gibt es schon seit 6 Jahren. 2017 wurde der Standard veröffentlicht. Im Grunde ist es vier mal 100 GBit über mehr Wellenlängen oder Fasern.
https://de.wikipedia.org/wiki/Ethernet#200-Gbit/s-_und_400-Gbit/s-Ethernet
Find ich interessant. Hoffentlich geht das ganze dann ohne Kupferkabel..
 
  • Gefällt mir
Reaktionen: konkretor
Nun ich finde das ebenso interessant. Die könnten das ja so ähnlich wie amd machen mit chipletsbzw mcm. Dadurch haben sie dann am Ende ne sehr sparsame CPU. Der Rest dann noch geschickt konstriktionieren. Auch was ich so hier gelesen habe, bis SSE2 können sie ohne Lizenzen konstutionieren. Auch MMX ist ja ebenso möglich.
Es wird also interessant werden.

Klar ist auch das sie irgendwann mal dieses Ziel erreichen könnten. Zuerst können sie allerdings nur klein anfangen. Man könnte also sich zuerst im lowend Markt sich erst mal aufbauen. Also in kleinen Servern und so. Da sehe ich gute Chancen, denn sparsame Systeme wo die CPU auch extrem sparsam ist oder auch in Laptops da sehe ich gute chancen für diese firma. Klar ist die Konkurrenz da sehr stark vertreten. Irgendwo müssen sie aber anfangen, wenn sie größer werden wollen. Also kleine Server, mini computer, laptops oder auch für workstation computer. Warum nicht. Mit der Zeit steigen dann die Kernzahl und wird somit immer größer.
Klar ist dann auch, daß egal was die normalen User so machen, die CPU nie 100 % ausgelastet sein wird, weil immer ein Teil schlafen wird. Dadurch spart man ebenso an strom. Und das Thema mit avx, nun ja nicht viele Anwendungen verwenden insgesamt gesehen diese befehlsatzerweiterung. Also so schlimm sehe ich das eben nicht.
Also nur die Zeit wird zeigen, was an Ende wirklich dabei rum kommt. Niemals die Hoffnung aufgeben. Es ist ja schließlich noch alles offen. Mal sehen,villeicht kommt ja ne gute Überraschung dabei raus, wer weiß.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Naja, der Wunderchip der alle kann und billiger is. Die frage is jedoch ob AMD und Intel nicht künstlich alle ihre CPUS beschneiden und Preise hoch halten. Ich glaube zwar nicht so ganz an diesen chip aber hey, evtl. zeigen die halt was eigentlich möglich is zu diesem preis. Wenn da mal n Sample kommt der das dann doch alles kann wie versprochen wird man ja sehen was plötzlich so alles machbar is. Würde mich zumindest nicht wundern wenn dann aus heiterem Himmel AMD und Intel ihre wunder Folien bringen mit gleichwertigem. Wobei... Intel wohl weniger aktuell :D
 
Steht auf deren Kalender heute der 1. April??
 
latiose88 schrieb:
Zuerst können sie allerdings nur klein anfangen. Man könnte also sich zuerst im lowend Markt sich erst mal aufbauen. Also in kleinen Servern und so.
Nein. Erstkunde ist die "Slovak Academy of Science" in Bratislava. Für die soll ab 2021 ein auf dem Tachyum-Referenzdesign basierender Supercomputer entstehen.

Die News ist wirklich schlecht recherchiert, und einige Formulierungen lassen Zweifel aufkommen, ob der Autor alles so richtig versteht:
... denn erst später in diesem Jahr soll ein voll funktionsfähiger FPGA-Prototyp bei TSMC vom Band laufen ...
Das FPGA stammt vermutlich von Xilinx, wurde irgendwann mal von TSMC für Xilinx produziert, und man nutzt es für Prototyping, da "läuft nichts vom Band".

Was hier manche so raushauen, ist unter aller Sau: reines Ablästern von offensichtlich Dunning-Kruger-Geplagten.

Radoslav Danilak hat mehrere erfolgreiche Unternehmen (Sandforce, Skyera) gegründet und anschließend verkauft.
Und ein Steve Furber würde sich bestimmt nicht als Berater für irgendeinen Scheiß hergeben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus und LamaTux
Diese kleinen Startups haben in der Regel meist nur ein Ziel. Mit irgendwas vermeintlich Innovativem das Interesse großer Konzerne zu Wecken und sich dann für viel Geld "Schlucken" zu lassen. Ich stehe diesen Startups immer sehr skeptisch gegenüber auch wenn schon so manch tolle Sache dabei hervorgekommen ist.
Längerfristige Arbeitsverhältnisse kommen meist bei solch kleinen Unternehmen nicht heraus bzw. sind nicht das Hauptziel.
 
lanse schrieb:
Das FPGA stammt vermutlich von Xilinx, wurde irgendwann mal von TSMC für Xilinx produziert, und man nutzt es für Prototyping, da "läuft nichts vom Band".

Wenigstens einem fällt das auf. Allein die Aussage mit dem fpga ist natürlich vollkommener Unsinn. Der muss nirgends vom Band laufen, den kauft man sich einfach im Laden. Allerdings gibt es keinen fpga der so ein CPU Design auch nur ansatzweise von der Größe her aufnehmen kann. Evtl. verwenden sie ein Cluster aus FPGAs, aber bei der Menge die man für so ein Design bräuchte wird das kaum machbar sein, weil das Ding am Ende nur noch mit ein paar 100khz taktet wenn überhaupt.

Auch der ganze Rest ist absurd. Eine 6stufige integer pipeline, die schneller ist als ein aktueller Xeon? Ich wundere mich wirklich wie sowas bei CB landet, wo ihr doch sonst bei Gerüchten sehr zurückhaltend seid.
 
szerox schrieb:
Ich wundere mich wirklich wie sowas bei CB landet, wo ihr doch sonst bei Gerüchten sehr zurückhaltend seid.
Naja... der Kupferschwammkühler ist auch hier als News gelandet... und "Sandforce" würd ich jetzt auch nicht wirklich Erfolgreich nennen, außer in dem Punkt das er es geschafft hat die Butze an Seagate zu verkaufen. Aber von deren "Wundercontroller" für SSDs blieb nach einigen Erfahrungen damit (abseits von Benchmarks) vor allem ne dicke Warnung das Ding nicht zu kaufen übrig... ok, zumindest haben sie was geliefert, was ich in dem Fall hier doch recht stark bezweifel.

Ich mein das Ding verspricht der schnellste x86, ARM und RiscV CPU zu sein und dabei deutlich weniger Strom zu verbrauchen und das noch mit z.B. nem 400GBit Ethernet... wenn man sich allein schon die Kühler auf 10GBit Karten anschaut müssen die CPU Cores ja Strom erzeugen damit die Gesamtsumme passt...

Das was die da versprechen ist derart over the Top und ein reines Bullshitbingo der aktuellste Technologien. Wenn etwas zu schön ist um wahr zu sein dann ist es auch nicht wahr. Und ja: da wett ich auch drauf, und zwar um meinen üblichen Einsatz: ein K20 (ne Kiste gutes Bier). Wer hält dagegen?
 
  • Gefällt mir
Reaktionen: Hayda Ministral
joshy337 schrieb:
Find ich interessant. Hoffentlich geht das ganze dann ohne Kupferkabel..
Für 200G und 400G sind im von mir verlinkten Material nur LWL-basierte Standards aufgeführt. Der schnellste Kupfer-basierte EthernetStandard ist 100G über Twinax-Kabel.

@Jesterfox: Also dass die das, was die da beschreiben, irgendwann mal in eine CPU gießen, ist schon möglich. Die Frage ist nur: wann? In 10 Jahren z.B. wäre das alles nix besonders mehr. Die gesetzten Ziele klingen sehr ambitioniert, nach dem Motte "was könnte möglich sein" -> "A,B undC" (als isolierte Komponenten) -> "mal schauen ob wir das in einen Komplex packen können" und die dabei gesteckten Zeitziele werden dann wegen ungelöster oder unvorhergesehener Probleme das Projekt immer weiter nach hinten schieben, wie z.B. das für das Prodigy Datacenter, was in der News von 2018 eigentlich schon für 2020 anvisiert war. Das Bullshitbingo würde ich daher eher auf der Zeitachse sehen.
 
Erinnert mich irgendwie an Transmeta 😅
 
Discovery_1 schrieb:
Diese kleinen Startups haben in der Regel meist nur ein Ziel. Mit irgendwas vermeintlich Innovativem das Interesse großer Konzerne zu Wecken und sich dann für viel Geld "Schlucken" zu lassen.
Hier dürften sie vermutlich (zunächst mal) andere Ziele verfolgen: EU-Fördermittel und Investorengelder erhalten

Das Unternehmen nimmt nämlich am "Open Euro High Performance Computing Project" (OEUHPC) teil - auch ein Punkt, der in einer gut recherchierten News Erwähnung hätte finden können.
Da sind eigentlich nur europäische Unis und Startups am Start.
Der alte Kontinent kann im HPC-Bereich bisher ja nur auf amerikanische und japanische Hardware zurückgreifen.
Insofern begrüße ich jedes Engagement auf dem Gebiet.

Um Geld von staatlichen Institutionen und sonstigen Investoren einzutreiben, muss man sich bei Ankündigungen halt weit aus dem Fenster lehnen. So funktioniert das Spiel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus, LamaTux und konkretor
"Prodigy outperforms the fastest Xeon processors at 10x lower power on data center workloads, as well as outperforming NVIDIA’s fastest GPU on HPC, AI training and inference. The 125 HPC Prodigy racks can deliver a 32 tensor EXAFLOPS. Prodigy’s 3X lower cost per MIPS and 10X lower power translates to a 4X lower data center Total Cost of Ownership (TCO)"

Wenn die das auch nur zur Hälfte schaffen dann wurden wir aber von Intel und AMD seit Anbeginn ganz schön verarscht.
 
Entwickelt intel nicht seit 10 Jahren oder so einen x86/ARM Hybriden? Der Angeblich in 2-3 Jahren Marktreif ist?

Und die hier können noch mehr?
 
Der Thread ist ein schönes Beispiel für "schlecht geschriebene, weil irreführende News trifft auf Leute, die nicht genau lesen und vieles hineininterpretieren".

Wo steht geschrieben, dass die CPU bei der Emulation x86 schlagen soll? (Das soll sie nur mit ARM & RISC-V tun.)
Die soll selbstverständlich im nativen Modus einen Xeon "Kern-für-Kern" schlagen.

Das Teil ist für HPC optimiert mit der Zweitverwendung Emulation, wo es in erster Linie auf Effizienz und nicht so sehr auf absolute Performance ankommt.
IMHO eine Super-Idee, Ressourcen flexibel zu nutzen!

Realistische Performance-Ziele? … wird sich zeigen.

Ein SiFive U84 ist im selben 7-nm-Node bei geringerem Verbrauch und kleinerer Chipfläche fast doppelt so schnell wie ein Cortex-A55 mit einem Binary-File-Size-Nachteil von - nur - 7% (weil RISC-V noch etwas "RISCier" ist als ARM). Wer hätte das mal gedacht?

Heutzutage bringt's die Architektur, Takt und Node verlieren an Bedeutung.
Oder warum können es die mittelmäßigen AMD-Architekturen Zen & RDNA selbst mit Node-Shrink-Vorteil noch immer kaum bis gar nicht mit Intel und Nvidia aufnehmen?
… wenigstens gibt's "Kerne satt" … ist ja auch nicht schlecht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus
Zurück
Oben