News Tachyum Prodigy: Slowakei finanziert F&E-Zentrum für die Zukunfts-CPU

Die "Eierlegende Wollmilchsau" kommt mir da irgendwie in den Sinn.
 
NightSun schrieb:
Ich traue dem ganzen nicht. Wenn sowas möglich wäre, hätte Intel es schon längst rausgebracht

Intel bringt raus was möglichst wenig kostet und viel einbringt. Ohne Zen hätten wir beim i5 heute immer noch 4 Kerne ohne Multithreading, bissl mehr Takt jedes Jahr hat ja gereicht für Umsätze.

Heisst nicht dass das nicht Fake ist oder dass die nicht an ihrem Newcomerstatus scheitern, jetzt wo Intel wegen Amd Kerne drauflegt und in Anbetracht der Tatsache dass die bisher Null Chips produziert haben würd ich stark davon ausgehen dass denen die erste Generation erst ein Jahr zu spät gelingt und dass ihnen die Kohle ausgeht vor der zweiten Generation. Das ist nur so ein Bauchgefühl aber wenn die sich nicht erstmal irgendeine Niesche suchen wie supercomputing und da erstmal Kohle machen seh ich da ein bissl schwarz...
 
Die CPU wirds dann im Bundle mit Half Live 3 geben :-D

Wäre schön, mal so einen Sprung in der Entwicklung zu sehen. Aber klingt dann doch etwas zu schön um wahr zu sein.
 
Z_E_R_O schrieb:
Und welchen Grund hätte Intel haben sollen das rauszubringen?

Vermutlich hat Intel wenig Interesse.

Erinnert mich an die Pharmakonzerne - warum eine Impfung entwickeln, wenn ich jahrzehntelang Medikamente (Refresh) verkaufen kann.
 
  • Gefällt mir
Reaktionen: Hd5m
Simon schrieb:
Ein kleines Startup mit 17 Mio Budget schafft etwas, dass Intel, AMD, IBM, Fujitsu/Oracle (SPARC) oder andere mit einem Milliarden-Entwicklungsbudget nicht schaffen?

https://www.computerbase.de/news/pc-systeme/teraflops-linux-server-supercomputer-iss.66903/

"Die drei IT-Systeme auf der ISS, die jeweils rund 8 Millionen US-Dollar gekostet haben und 10 Jahre Entwicklungszeit verschlungen haben, "

nur für den "fertigen" chip bis zum tapeout sind 17mio gar nicht so wenig. intel steckt auch nur auf dem papier milliarden in die reine forschung.

für eine aussenstelle in europa, gesponsort von einer regierung mit absoluter politischer unterstützung und jede menge kostenloser werbung, ist das der sprichwörtliche geschenkte gaul.

natürlich werden dafür keine werke gebaut. braucht man ja auch nicht, die auftragsfertiger hungern quasi nach dem neuen "smartphone".

wir werden sehen, wer in diesem brückenmarkt die meisten ressourcen reinpumpt. keiner kann realistisch sagen wann die quantencomputer so weit sind. bis dahin müssen halt neuronale netzwerke (gerne auch in einer "cpu") herhalten. :evillol:

aber die "klassischen semiconductor" die nur viele relais, widerstände und kondensatoren in kleiner bauform sind haben ausgedient.

mfg

p.s.

das IoT kann als "smart home" tatsächlich eine interessante zukunft sein. natürlich nicht mit chips, die dumm sind wie bohnenstroh. aber wäre doch nicht schlecht, wenn dein home ein wenig mehr brain bekommt, weil du eine kaffee maschine kaufst.

erste interessante anwendung kommt dann aus asien. dein char in deinem game verhungert und während du den fütterst, füttert dein home dich. sonst verhungerst du :heilig:


p.s.s.

wenn dein kühlschrank weis, dass du eine neue freundin hast und dir tips für das betrügen deiner frau gibt, dann sind wir im 21ten jahrhundert angekommen....

die kaffee maschine macht dann den termin für deine frau mit dem anwalt klar ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: s0UL1
Roche schrieb:
So wie sie die 6 und 8 Kern CPUs im Mainstream Desktop zu bezahlbaren Preisen "längst" rausgebracht hatten, bevor AMD auch nur auf die Idee kam? Ähm... Moment...

Intel ist ein elendig fauler Riese geworden, der schon längst nicht mehr vorlegt, sondern nur noch hinterher hinkt.
Beides sind es faule Riesen. Im Grunde immer das gleiche Design, was auch nicht verwundert, wenn die jahrelang die gleichen Experten voneinander abwerben.

Bei intel hat man nach dem P3 einmal versucht neue Wege zu gehen. Netburst hat dann aber nicht die gewünschten Taktraten erreicht und war aber pro Takt langsamer als der Vorgänger. Dann ist man wieder zu dem 20 Jahre alten Design zurück und hat hier stückweise Takt, Caches und Cores vergrößert.

Bei AMD kam nach dem Athlon der Steamroller mit diesen Modulen mit geteilter FPU. Da ging es aber auch nur darum, Transistoren einzusparen, auch wenn man Leistung verliert. Dann ist man wieder zum alten Design zurückgekehrt und hat gleich mal 8 Cores und große Caches bereitgestellt und natürlich auch am Takt gedreht.

Ob Tachyum-CPU im Server-Markt einschlägt sei mal dahingestellt. Da braucht man auch Fürsprecher. Nichtmal IBM hat seine Power-CPU durchdrücken können und die Sparc-CPUs sind nun auch weg, obwohl Oracle das gekauft hat und die Chance gehabt hätte, die in die Exadata-Server zu verbauen.
 
Kowa schrieb:
Beides sind es faule Riesen


beide warten eigentlich nur. AMD hätte sich beinahe kaputt gelegen und intel melkt halt kühe.

selbst raytraycing gab es schon vor 20 jahren. leider fällt die technik, mit der man seine wünsche gerne bauen würde, nicht vom himmel.

https://en.wikipedia.org/wiki/180_nanometer

"This was the first technology using a gate length shorter than that of light " ← die alte schallmauer in semi conductor fertigung.

war vor 20 jahren der geilste shice. 2039 haben wir noch nicht mal die hälfte bis zum nächsten century erreicht. wir jammern hier auf hohem niveau. klar "hemmt" der kapitalismus ein wenig, er wird aber grundsätzlich immer wachsen wollen.

anders als z.B. die kirche im mittelalter zu zeiten der inquisition. :evillol:

mfg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: s0UL1
Obwohl die Wahrscheinlichkeit, dass das eintritt, was da propagiert wird, gleich Null ist, gibt es einen ganz bestimmten Grund, weshalb Intel und Co. sowas bisher nicht auf den Markt gebracht haben. Und der ist übrigend der gleiche, wie in allen anderen Sektoren der Privatwirtschaft.

Solange sich mit einer bestimmten Technik Geld verdienen lässt, wird das auch gemacht. Deshalb fahren auf der Welt auch noch 99% aller KFZ mit fossilen Brennstoffen. Andernfalls würden wir uns schon längst mit Hilfe von Brennstoffzellen fortbewegen. Solange es noch Öl gibt, das verkauft werden kann, wird sich daran auch nichts ändern. Analog dazu die Halbleiterindustrie.
 
icetom schrieb:
wäre gut für uns Kunden.
ich bezweifle, dass "wir kunden" die zielgruppe dieser cpu sind. das wird ein nischenprodukt im servermarkt. ein wichtiger name ist hier ja schon gefallen: itanium. das ist vermutlich der markt, den die cpu adressieren dürfte.
in den gamer-markt kann die cpu gar nicht kommen, weil tachyum sicherlich gar nicht über die erforderlichen x86 und a64 lizenzen verfügt um entsprechend kompatibel zu sein.
 
Vangart schrieb:
Analog dazu die Halbleiterindustrie.

da haben die staaten in europa und amerika mit ihrem protektionismus halt nicht mit rechnen können. schöner wortwitz beim thema KI ^^

als korea mit irrwitzigen subventionen firmen wie samsung oder tsmc ende der 80er jahre subventioniert hat, konnte man halt nichts sagen, weil das doof gelaufen wäre mit ihrer damaligen politik.

jetzt müssen sie beide zu schauen, wie china dazu kommt, da die "halbleiterindustrie" zu 99% davon abhängt, was du baust.

wir sind an einer schwelle angekommen, wo selbst staaten wie nordkorea mit mitteln, die weniger kosten als eine atombombe dinge bauen können, die gefährlicher sind als atombomben. so lange miner die graka´s gekauft haben und nicht irgend ein durchgeknallter dicktator ← (gewollt) , bin ich zu frieden.

mfg

p.s.

alu hut aufsetz

ich lache mich tot, wenn venezuela und ihr stromausfall nicht die amis oder der venezuela typ waren sondern ein neuer player, der einfach mal "hallo ich bin da" gesagt hat. :evillol:
 
Zuletzt bearbeitet:
32 MB Cache für 64 Kerne. Aber sie wollen schneller sein als ein aktueller Xeon. Da weiß man ja schon was für nichtssagende Benchmarks die mit einem mini-Dataset gefahren haben.
Wieviel cache hat AMDs Epyc2 nochmal?
 
bensen schrieb:

https://www.computerbase.de/news/prozessoren/intel-loihi-test-board-chip.62684/

"Damit würde die Anzahl der sogenannten Neuromorphic Cores auf 512 steigen (vier Mal 128), insgesamt wären es demnach dann 524.288 „Neuronen“, die über ein Mesh-Netzwerk kommunizieren. Zum Vergleich: Das menschliche Gehirn beherbergt rund 86 Milliarden Nervenzellen. "

https://www.computerbase.de/news/prozessoren/tachyum-prodigy-startup-cpu.63598/

"Der Hinweis von Tachyum, dass es sich auch um einen AI-Chip handelt, also künstliche Intelligenz, sowie die Roadmap, die sich auf die Eigenschaften von tierischen und menschlichen Gehirnen auf Basis von Neuronen bezieht, lassen die Einordnung zum Teil zu. "

ich würde mich weder an "cache" noch "kerne" noch "benchmarks" aufhängen....baut das ding, findet jmd. der das bauen bezahlt und schaut ob ihr jmd. findet der es danach kauft. :evillol:

mMn geht da die nähere zukunft hin. warum nicht ein silicon valley startup mit zweitem sitz in der slowakei? schaden kann es nie....:heilig:

mfg

p.s.

wenn man intel ihr projekt mal weiter verfolgt....4 mal 128 kerne....hätten wir hier 64 mal 128 kerne, kämen wir auf 8192 kerne oder auf 16 x 524.288 "neuronen" = 8.388.608.

davon 1k stück in einer server farm und wir hätten einen "menschen" im vollausbau ohne die brach liegenden regionen im gehirn :D

ich bin auf jeden fall gespannt.
 
Zuletzt bearbeitet:
Klingt nach einem Scam um Fördergelder abzugreifen. Sobald es funktionierende Chips gibt, lasse ich mich gerne eines anderen behleren. Das dahin erwarte ich das Schlimmste und hoffe das Beste.

Gehen die wirklich davon aus, dass ihr erster Prototyp einwandfrei funktionieren wird? Bei einer grundneuen µArchitektur? Wird nicht passieren. Irgendwas ist immer.

So gerne ich eine performante CPU aus Europa sehen würde. Das klingt einfach unglaubwürdig.
 
Zuletzt bearbeitet: (erweitert)
[wege]mini schrieb:
https://www.computerbase.de/news/prozessoren/intel-loihi-test-board-chip.62684/

"Damit würde die Anzahl der sogenannten Neuromorphic Cores auf 512 steigen (vier Mal 128), insgesamt wären es demnach dann 524.288 „Neuronen“, die über ein Mesh-Netzwerk kommunizieren. Zum Vergleich: Das menschliche Gehirn beherbergt rund 86 Milliarden Nervenzellen. "

https://www.computerbase.de/news/prozessoren/tachyum-prodigy-startup-cpu.63598/

"Der Hinweis von Tachyum, dass es sich auch um einen AI-Chip handelt, also künstliche Intelligenz, sowie die Roadmap, die sich auf die Eigenschaften von tierischen und menschlichen Gehirnen auf Basis von Neuronen bezieht, lassen die Einordnung zum Teil zu. "

ich würde mich weder an "cache" noch "kerne" noch "benchmarks" aufhängen....baut das ding, findet jmd. der das bauen bezahlt und schaut ob ihr jmd. findet der es danach kauft. :evillol:

mMn geht da die nähere zukunft hin. warum nicht ein silicon valley startup mit zweitem sitz in der slowakei? schaden kann es nie....:heilig:

mfg
Naja, heutzutage kann man alles als KI bezeichnen. Bisher wurde nichts veröffentlicht, was das Ding jetzt für neuronale Netze auszeichnen soll. Klassische ARM-Cores taugen dafür nicht. Und auch in Zukunft wird man auch ganz "normale" CPU-Kerne brauchen.
Die sollen erstmal fertig werden und verkaufen dann kann man weiter sehen. An Zauberei glaube ich aber nunmal nicht. Das Ding kann sicher gut sein und in manchen Gebieten auch verdammt schnell. Aber deren Fabelbenchmarks gibts nur in auserwählten Tests.
 
  • Gefällt mir
Reaktionen: [wege]mini
bensen schrieb:
Aber deren Fabelbenchmarks gibts nur in auserwählten Tests.

und dann auch nur von ihnen.

mich würde trotzdem erfreuen, wenn diesmal nicht amd in amerika abspringt, sonder irgend jemand nach europa. es gibt immer menschen, die gerade andere ziele haben oder dich nicht mögen oder mehr verdienen wollen (sonst würde es amd gar nicht geben)

in diese art von chips geht aber mMn die zukunft hin. :heilig:


mfg
 
  • Gefällt mir
Reaktionen: bensen
Lübke schrieb:
ich bezweifle, dass "wir kunden" die zielgruppe dieser cpu sind. das wird ein nischenprodukt im servermarkt
Stimmt. Ich meine über zwei Ecken haben Server CPUs aber auch Einfluß auf consumer Desktop CPUs. Weil sich damit die allgemeine Technik weiter entwickelt und man das alte schlechtere (falls die Versprechen stimmen) nicht mehr für den alten Preis los kriegt.
 
Naja, etwas das in 2 Jahren auf den Markt kommt mit etwas zu vergleichen, das es heute schon gibt... Aber ist doch gut, wenn die Auswahl steigt, vielleicht kommen die ja ohne spectre aus...
 
Wenn das was werden sollte, dann werden die sicher früher oder später von einem Giganten verschluckt. Könnte Nvidia was mit der Technik anfangen?
 
Hoffentlich machen sie alles richtig, und hoffentlich kommt ein Produkt heraus, das annähernd so gut ist wie versprochen. Aber auch ich werde das erst so recht glauben, wenn ich es sehe.
 
Zurück
Oben