Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Tachyum Prodigy: Slowakei finanziert F&E-Zentrum für die Zukunfts-CPU
- Ersteller Volker
- Erstellt am
- Zur News: Tachyum Prodigy: Slowakei finanziert F&E-Zentrum für die Zukunfts-CPU
Conqi
Rear Admiral
- Registriert
- Dez. 2011
- Beiträge
- 6.097
boonstyle schrieb:Wenn die x86 Altlasten fallen lassen why not, aber dann wäre es tatsächlich das geliche Spiel wie beim Itanium und dafür hat der Markt bekannterweise kein Bedarf aktuell.
Es gibt genug Instruktionssätze, die nicht an x86 hängen, sei es besagtes IA-64 oder eben ARM, RISC-V und Co., aber keiner davon erreicht die zehnfache Effizienz aktueller x86 CPUs bei ähnlicher Leistung. Bei so einem Sprung würde sich vermutlich auch ohne x86-Kompatibilität schnell ein Markt finden.
JohnVescoya
Lt. Commander
- Registriert
- Jan. 2012
- Beiträge
- 1.128
Selbst wenn das Teil so gut und schnell wird wie angekündigt, wird er niemals X86 kompatibel sein, sondern auf irgendwelche neuen Befehlssätze setzen, die dann erst implementiert werden müssen etc. Und wie lange das dauert kann man ja bei einem ARM kompatiblen Windows sehen, das schon ewig auf sich warten lässt.
Tachyum selber sagt, dass bei X86 Emulation 60% Leistung verloren geht, also ein 4,0 Ghz Tachyum hat im X86 Mode dann die Leistung eines ~2,5 Ghz Xeon laut deren Aussage.
Daher wird das für Desktop / Gaming usw eher weniger interessant. Die Teile könnte man wohl zuerst in Rechenzentren / Supercomputern finden, falls sich jemand die Mühe macht, BSD und Linux sinnvoll darauf zu portieren.
Alles sehr viel hätte könnte würde. Selbst wenn die CPU top wird, wird sie echte Probleme durch das fehlende Ökosystem haben.
Meine Wette darauf, was mal X86 ablöst bzw ergänzt, geht jedenfalls eher in Richtung RISC V als Tachyum (oder gar ARM)
Tachyum selber sagt, dass bei X86 Emulation 60% Leistung verloren geht, also ein 4,0 Ghz Tachyum hat im X86 Mode dann die Leistung eines ~2,5 Ghz Xeon laut deren Aussage.
Daher wird das für Desktop / Gaming usw eher weniger interessant. Die Teile könnte man wohl zuerst in Rechenzentren / Supercomputern finden, falls sich jemand die Mühe macht, BSD und Linux sinnvoll darauf zu portieren.
Alles sehr viel hätte könnte würde. Selbst wenn die CPU top wird, wird sie echte Probleme durch das fehlende Ökosystem haben.
Meine Wette darauf, was mal X86 ablöst bzw ergänzt, geht jedenfalls eher in Richtung RISC V als Tachyum (oder gar ARM)
IMHO ist das ein riesig aufgezogener Fake eines Selbstdarstellers, der auch seine Mitarbeiter irgendwo mitgezogen hat oder es kommt etwas raus, dass bei weitem nicht an die Versprechungen heran ... und selbst wenn, wird es am Ökosystem scheitern.
capitalguy
Commander
- Registriert
- Mai 2014
- Beiträge
- 2.868
wenn das funktioniert wird es sowieso sofort aus dem silicon valley aufgekauft.
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
"CEO Radoslav Danilak, geborener Slowake, hat sich für ein Forschungs- und Entwicklungszentrum in seiner Heimat stark gemacht und wird vom Staat mit 17 Millionen unterstützt. "
schaden kann das auf jeden fall nie und die 17 millionen sind auch besser investiert, als z.b. in einen hirschübergang an einer autobahn
intel wird auch ein wenig druck gemacht. an dieser neuen art von chips arbeiten ja alle mit hochturen. wird zeit, dass x86 endlich zu grabe getragen wird. wie man intern dann das ganze noch als "emulation" betreibt, ist ja nur für den endkunden wichtig, wenn das endergebnis nicht stimmt und nicht schnell genug fertig ist.
"Möglich sind solche Eigenschaften nur in speziellen Umgebungen. Der Hinweis von Tachyum, dass es sich auch um einen AI-Chip handelt, also künstliche Intelligenz, sowie die Roadmap, die sich auf die Eigenschaften von tierischen und menschlichen Gehirnen auf Basis von Neuronen bezieht, lassen die Einordnung zum Teil zu. Denn in dieser Richtung forschen auch andere Unternehmen mit großen Ambitionen. Unter anderem hatte Intel kürzlich mit Loihi einen Spezialprozessor offengelegt, der „Nervenzellen“ besitzt und mit geringstem Aufwand bereits kleine Aufgaben löst und dabei extrem wenig Energie verbraucht. "
mfg
schaden kann das auf jeden fall nie und die 17 millionen sind auch besser investiert, als z.b. in einen hirschübergang an einer autobahn
intel wird auch ein wenig druck gemacht. an dieser neuen art von chips arbeiten ja alle mit hochturen. wird zeit, dass x86 endlich zu grabe getragen wird. wie man intern dann das ganze noch als "emulation" betreibt, ist ja nur für den endkunden wichtig, wenn das endergebnis nicht stimmt und nicht schnell genug fertig ist.
"Möglich sind solche Eigenschaften nur in speziellen Umgebungen. Der Hinweis von Tachyum, dass es sich auch um einen AI-Chip handelt, also künstliche Intelligenz, sowie die Roadmap, die sich auf die Eigenschaften von tierischen und menschlichen Gehirnen auf Basis von Neuronen bezieht, lassen die Einordnung zum Teil zu. Denn in dieser Richtung forschen auch andere Unternehmen mit großen Ambitionen. Unter anderem hatte Intel kürzlich mit Loihi einen Spezialprozessor offengelegt, der „Nervenzellen“ besitzt und mit geringstem Aufwand bereits kleine Aufgaben löst und dabei extrem wenig Energie verbraucht. "
mfg
ARM befindet sich gerade auf einem guten Weg leistungsstärkere CPU-Architekturen zu entwickeln. ARM konnte die pro-Thread-Rechenleistung in den letzten Jahren stärker steigern als Intel.Conqi schrieb:Es gibt genug Instruktionssätze, die nicht an x86 hängen, sei es besagtes IA-64 oder eben ARM, RISC-V und Co., aber keiner davon erreicht die zehnfache Effizienz aktueller x86 CPUs bei ähnlicher Leistung.
CPU-Vergleiche sind so eine Sache für sich.
Der Focus bei ARM lag bislang eindeutig auf energiesparende u. unkomlizierte Architekturen. Es bedeutet aber nicht dass sich keine leistungsstarke CPUs mit ARM-Befehlssatz bauen lassen. Es fehlte bislang lediglich das passende Geschäftsmodell dafür.
RISC-V oder MIPS bieten sich bei Neuentwicklungen von CPU-Architekturen an, weil die Befehlssätze sich frei von Lizenzgebühren nutzen lassen.
Aber es erfordert eine Menge an Entwicklungsaufwand einen leistungsfähige CPU-Architektur zu entwickeln, was im Prinzip nur dann sinnvoll ist wenn man als Unternehmen die Entwicklungskosten wieder hereinholen kann.
Da muss ich jetzt mal laut lachen, angesichts der aktuellen Situation.NightSun schrieb:Wenn sowas möglich wäre, hätte Intel es schon längst rausgebracht
Dieses Projekt hier ist sicherlich sehr ambitioniert. Ich würde mich aber über einen neuen Mitbewerber aus Europa freuen.
Zuletzt bearbeitet:
Realsmasher
Captain
- Registriert
- Juli 2005
- Beiträge
- 4.046
Itanium ist schon der richtige Wink gewesen, ist halt VLIW mit "der Compiler macht alles".
D.h. die CPU ist nur so leistungsfähig wie die Software dahinter.
Wenn man sich ansieht wo andere exotische CPUs bei den Compilern stehen, dann sehe ich schwarz.
Aber ich lass mich gern eines Besseren belehren.
D.h. die CPU ist nur so leistungsfähig wie die Software dahinter.
Wenn man sich ansieht wo andere exotische CPUs bei den Compilern stehen, dann sehe ich schwarz.
Aber ich lass mich gern eines Besseren belehren.
HardRockDude
Captain
- Registriert
- Juli 2009
- Beiträge
- 3.074
But can it run Crysis?
Glaub ich alles erst, wenn das der Fall ist, und zwar unter DX12 auf Windows 7
Glaub ich alles erst, wenn das der Fall ist, und zwar unter DX12 auf Windows 7
Naja noch ist AMD nicht vorbei gezogen. Aber Intel muss jetzt echt Gas geben sonst zieht AMD mit der 3000er Serie vielleicht vorbei.Roche schrieb:So wie sie die 6 und 8 Kern CPUs im Mainstream Desktop zu bezahlbaren Preisen "längst" rausgebracht hatten, bevor AMD auch nur auf die Idee kam? Ähm... Moment...
Intel ist ein elendig fauler Riese geworden, der schon längst nicht mehr vorlegt, sondern nur noch hinterher hinkt.
darkcrawler
Lt. Commander
- Registriert
- Okt. 2006
- Beiträge
- 1.497
Ist schon wieder Märchenstunde
arnemichalak
Ensign
- Registriert
- Dez. 2007
- Beiträge
- 238
Erinnert mich an Uwe Prochnow und seiner Firma Atvisican - angeblich 20 x kleiner als MPEG2 - Videos und gleicher Qualität.. alles sind drauf reingefallen auch die Kapitalgeber und Anleger..letztendlich war alles Betrug..
HerrRossi
Fleet Admiral
- Registriert
- Apr. 2014
- Beiträge
- 11.973
fandre schrieb:IMHO ist das ein riesig aufgezogener Fake eines Selbstdarstellers...
Das befürchte ich auch und bezahlen muss es dann der Steuerzahler.
Ein kleines Startup mit 17 Mio Budget schafft etwas, dass Intel, AMD, IBM, Fujitsu/Oracle (SPARC) oder andere mit einem Milliarden-Entwicklungsbudget nicht schaffen?
Auch wenn man den "Großen" ja durchaus eine gewisse Behäbigkeit nachsagen kann, klingt das ein wenig unrealistisch. Die reinen "Cores" samt Decode von x86-Befehlen sind doch nun wirklich nicht mehr das Problem. Ein Standard x86-Kern (egal ob Intel Skylake oder AMD Zen) dürfte im Schnitt bei 2,5 GHz ohne Probleme mit 2,5 Watt (Non-AVX) zu halten sein. Nur wenn die Taktraten weit jenseits der 4 GHz wandern, wird es halt irgendwann unangenehm.
Ein großer Teil des Power-Budgets geht im Zweifelsfall für die dicken Vektor-Einheiten im Backend, LLC und vor allem Ringbus/Mesh/Infinity-Fabric für die Inter-Core-Kommunikation sowie dem ganzen "Uncore"-Bereich wie Memory-Controller und PCIe-Root-Ports drauf. Bei AMD Naples sind es glaube ich rund 40%, bei Intel dürfte es ähnlich sein.
Das da jetzt relativ unabhängig von der Architektur und das jemand da her kommt und 72 PCIe Gen5-Lanes samt Dual-400G-Ethernet noch mit 64 Kernen @ 4 GHz in ein 180 Watt Umschlag steckt: Wenn man es nicht kaufen kann, existiert auch nicht. Auf meine Tesafilmrolle als Datenspeicher warte ich immer noch...
Auch wenn man den "Großen" ja durchaus eine gewisse Behäbigkeit nachsagen kann, klingt das ein wenig unrealistisch. Die reinen "Cores" samt Decode von x86-Befehlen sind doch nun wirklich nicht mehr das Problem. Ein Standard x86-Kern (egal ob Intel Skylake oder AMD Zen) dürfte im Schnitt bei 2,5 GHz ohne Probleme mit 2,5 Watt (Non-AVX) zu halten sein. Nur wenn die Taktraten weit jenseits der 4 GHz wandern, wird es halt irgendwann unangenehm.
Ein großer Teil des Power-Budgets geht im Zweifelsfall für die dicken Vektor-Einheiten im Backend, LLC und vor allem Ringbus/Mesh/Infinity-Fabric für die Inter-Core-Kommunikation sowie dem ganzen "Uncore"-Bereich wie Memory-Controller und PCIe-Root-Ports drauf. Bei AMD Naples sind es glaube ich rund 40%, bei Intel dürfte es ähnlich sein.
Das da jetzt relativ unabhängig von der Architektur und das jemand da her kommt und 72 PCIe Gen5-Lanes samt Dual-400G-Ethernet noch mit 64 Kernen @ 4 GHz in ein 180 Watt Umschlag steckt: Wenn man es nicht kaufen kann, existiert auch nicht. Auf meine Tesafilmrolle als Datenspeicher warte ich immer noch...
Haxor schrieb:Du unterschätzt wie schwerfällig große Firmen oft sind (siehe Nokia und die Autoindustrie).
ja, das dachte ich auch. Intel ist garnicht daran interessiert, extrem viel in Forschung zu investieren um was gänzlich neues zu entwickeln. Die wandeln lieber auf dem ausgetretenen Pfaden solange es geht und betreiben Gewinnmaximierung. Die sogenante technische Entwicklung ihrer Prozessoren sind doch im Grunde nur Häppchen umd das Interesse Aufrecht zu erhalten.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 280
- Antworten
- 10
- Aufrufe
- 3.124
A
- Antworten
- 4
- Aufrufe
- 1.985