Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsTachyum Prodigy: Neue CPU arbeitet mit x86-, ARM- und RISC-V-Software
Es ist entweder auf HPC optimiert oder nicht dafür optimiert. Ein bisschen schwanger gibt es nicht und eine CPU die auf HPC optimiert ist zieht selbstverständlich keinen Bollerwagen mit Funktionen die nur eingebaut wurden weil sie für eine Zweitverwertung von Interesse sein könnten hinter sich her.
Ich glaub jetzt nicht das da groß was rumkommen wird.
Haben eh schon ein paar Leute Transmeta erwähnt, da waren die synthetischen Benchmarks auch vielversprechender als das reale Ergebnis am Schluss.
Soll am Overhead der genutzen Code Morphing Software gelegen haben.
Kommt darauf an auf welche Art und Weise Tachyum die Kompatibilität erreichen will, hab das jetzt nicht erlesen.
Wenn man da einen innovativen Weg gefunden hat, könnte was brauchbares rumkommen, aber die Versprechungen, da bin ich nichtmal vorsichtig oder hellhörig, das sag ich: Pfah!
Kennt man ja auch zur genüge von anderen Entrepreneuren.
Erinnert sich noch jemand an Solar Roadways? Startups spucken heute schnell mal große Töne, ich nehme an das soll Investoren anlocken.
Reale Ergebnisse sinds die Zählen!
Von einem "Bollerwagen mit Funktionen" (ich vermute Du meintest "Hardware-Funktionen") ist da nicht die Rede.
Mein Raspi emuliert auch alles Mögliche, und dafür sind mit Sicherheit keine (Hardware-)Funktionen eingebaut worden.
Ich vermute, dass bei dieser CPU eine ISA zum Einsatz kommt, die so einfach wie möglich gehalten ist (à la RISC-V oder sogar noch einfacher) und auf große Buffers/Caches zugreift, gerade auch wenn sie von "raw brute force performance" reden. So funktioniert ja auch "GPU Computing".
Etwas Komplexes wie x86 lässt sich auf etwas Einfachem gut (Software-)emulieren - siehe Transmeta oder die diversen (vielversprechenden) Emulationen von x86 auf ARM (z. B. Rosetta 2).
Das ist aber in diesem Fall (meiner Meinung nach) mehr ein Bonus / eine Zweitverwendungs-Option. Irgendwie muss man ja auf sich aufmerksam machen und sich von der etablierten (x86-)Konkurrenz und anderen Startups wie z. B. NUVIA absetzen, die auch vollmundig Leistungssprünge versprechen. Ein Supercomputer, den man bei Bedarf auch für alles Andere (im Serverbereich) verwenden kann, verkauft sich bestimmt nicht schlecht.
Und seit der schnellste Supercomputer ARM-basiert ist, neige ich dazu, solche Projekte nicht gleich abzutun. Meine Phantasie reicht für viel mehr als nur für x86.
Also diese Ankündigungen toppen ja sogar selbst die Werbeversprechen der Konsolenhersteller. Geil. Dagegen steht Koduri ja wie ein Schüler da.
Schneller als alles, höhere IPC als alles, stromsparender als alles, bessere Technik als alles, kompatibler als alles.
Fehlt nur noch günstiger als alles, sicherer als alles, verfügbarer als alles, haltbarer als alles, stabiler als alles.
Habe ich was vergessen?
"Vielversprechender" auf jeden Fall! ^^
Ergänzung ()
4badd0n schrieb:
Fehlt eigentlich nur noch die Sprungverhersage mittels KI und BigData, dann haben wir hier das nächste große Ding, was die Computerwelt revolutioniert!
DLSS 15.0, anstatt Upskaling aus 720p Pixelgrafik gibt es Downsampling aus 16K mit bis zu 10fachem Geschwindigkeitszuwachs.
Die Bilder werden schon per KI Wahrsagerkugel 10 Minuten vorher auf einer Serverfarm berechnet, udn dann dank der Dual 400Gbit Internetanbindung auf den PC gebeamt.
In diesem Fall limitiert also nur das Internetdatennetz der Provider und der heimische 300hz Monitor, ansonsten wäre ja mit dem kleinen Megachip eine unbegrenzte Framerate möglich.
Ich hoffe nur, das wird nicht viel teurer als die neuen Konsolen, die können ja auch imemrhin 120hz und 8K und Raytracing und SSD-Streaming 5 Jahre aus der Zukunft.
Das mit dem Kupferschwamm sollte wenn ich mich recht erinner ein passiv gekühlter Mini-PC werden. Auch per Crowdfunding, aber man hat dann nie wieder was davon gehört. Eigentlich schade, mich würds interessieren ob die jetzt wegen Betrug verklagt wurde oder nicht.
Was aber natürlich auch heißt, dass er nicht auf diese Emulation als Zweitverwertung optimiert ist. Genau gesagt verkommt der Hinweis auf Emulation damit zur Luftnummer denn jede aktuelle CPU kann andere Architekturen per Software emulieren.
Etwas Komplexes wie x86 lässt sich auf etwas Einfachem gut (Software-)emulieren - siehe Transmeta
Über Rosetta2 ließe sich trefflich spekulieren, bis zum Beweis des Gegenteils gehe ich davon aus das Rosetta2 x64 nicht emuliert sondern vor der Ausführung transcodiert. Das ist aber hier nicht Topic.
PS: Wo Du Berührung mit GPU-Computing siehst ist mir immer noch nicht klar.
Deinen Beitrag #81 hatte ich so verstanden, Hardware könne/dürfe immer nur für genau eine Anwendung optimiert sein. "GPU Computing" ist da nur ein Gegenbeispiel, das aber im Bezug auf das Thema gut passt. Weitere wären z. B. Microcontroller, DSPs, Busse und Schnittstellen.
Gerade die IT-Welt ist voll von Dingen, die mehrere Funktionen gleichzeitig gut können.
Deine Vorstellungen davon was ein Optimum ist auf das hin man optimiert weichen offenbar von meinen Vorstellungen ab.
Belassen wirs bei der Feststellung.
Ja, gerne!
Sonst erinnert mich das wieder an's Studium, als uns erklärt wurde, dass es zwar nur ein Optimum gibt, aber man mehrere Variablen gleichzeitig optimieren kann.
Zu heiß heute dafür.
OpenCL könnte man z.B. als zweitrangige Berechnungsart der Grafikkarte ansehen.
Die Grafikkarten sind dazu teilweise (hardware-seitig) in der Lage & es kann auch anderes als Grafik berechnet werden.
https://de.wikipedia.org/wiki/OpenCL schrieb:
OpenCL wurde ursprünglich von der Firma Apple entwickelt, um die Leistung der aktuellen Grafikprozessoren auch für nicht-grafische Anwendungen nutzbar zu machen.