Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Notiz Nuvia Phoenix: Effiziente CPU-Kerne sollen besser als Apples Lösung sein
- Ersteller Volker
- Erstellt am
- Zur Notiz: Nuvia Phoenix: Effiziente CPU-Kerne sollen besser als Apples Lösung sein
Axxid
Fleet Admiral
- Registriert
- Feb. 2012
- Beiträge
- 11.803
Wenn dann endlich die Wunderakkus mit den WunderCPUs und den Wunderdisplays mit den Wunderspeichern in dem Gehaeuse aus Wundersmaterialien steckt und man sich mit dem Wundernetz vebunden hat....
Kann nur noch ein paar Jahre dauern. News dazu gibt es ja regelmaessig.
Kann nur noch ein paar Jahre dauern. News dazu gibt es ja regelmaessig.
D
deineMudda
Gast
x86-CPUs von AMD und Intel sind deutlich abgeschlagen, was die Performance pro Watt in diesem Test angeht. Doch diese bringen viel mehr neben der CPU mit, weshalb der Vergleich nicht komplett überzeugt.
Kann mir das mal bitte jemand erklären?
F
flappes
Gast
Da will jemand aufgekauft werden. Das ist alles.
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
deineMudda schrieb:Kann mir das mal bitte jemand erklären?
Ich nehme an, damit sind iGPU, Chipsatz usw. gemeint, die in diesen CPUs enthalten sind. Wobei das bei ARM-SoCs eigentlich auch an Bord sein sollte. Ist nur die Frage, in wie weit Nuvia das bei ihren simulierten CPUs berücksichtigt hat.
Prinzipiell schon, allerdings hat gerade Apple gezeigt, dass auch mit Wasser noch erstaunlichviel Luft nach oben ist. Soll nicht heißen, dass ich bei solchen Wunderankündigungen nicht erstmal Skeptisch bis zum Beweis des Gegenteils bin.Benji18 schrieb:Es kochen alle Hersteller nur mit Wasser ;-)
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.841
Es sind wohl schon Geruechte im Umlauf, dass Intel ein gesteigertes Interesse an (einer Uebernahme von) Nuvia haben koennte, zumal deren Xe GPUs wohl scheinbar hinter den eigenen Erwartungen (insbesondere von der Effizienz/dem Verbrauch her) zurueck liegen sollen, so dass evt. Nuvia Know-How da evt. eine schnelle Anpassung/Umstellung ermoeglichen koennte.
Warten wir es ab .
Warten wir es ab .
Miuwa schrieb:Was soll ich mir unter "Idle Normalized Power" vorstellen?
EDIT: Das ist die Beschriftung der X-Achse.
Der braucht dann vermutlich wenig Strom, wenn du den Rechner nur hinstellst zum angucken (Idle = nur gucken, nicht anfassen). ^^
Ist ja auch der normale Anwendungsbereich eines Arbeitsrechners. ;-)
Vielleicht ist das aber sinnvoll, wenn man am Drittrechner in der Abstellkammer 365 Tage im Jahr ein anspruchsloses Idle Klicker Game anstellen und laufen lassen möchte? :-))
Ok, alles Blödsinn, genauso wie der Prozessor vermutlich auch.
So, weiterschwitzen. Ich glaub hier sind schon 30 Grad, bah.
Ach die Noergler hier im Forum mal wieder.
So unwahrscheinlich ist das ganze nicht einmal. Die koennen von null anfangen und von Anfang an Fallstricke vermeiden die in anderen Architekturen jetzt halt schon drin sind. Da kann man einiges rausholen. Waere auch nicht das erste mal, dass ein Neuanfang viel rausholt.
Was ich aber nicht verstehe warum hier einige meinen, dass mehr Ingenieure = besseres Ergebnis heisst. In der Regel sind es ein paar wenige die die wirklich grossen Ideen haben die einen Sprung ausmachen. Hast du von denen keine bringt dir die Menge auch recht wenig.
Der Vergleich mit x86_64 ist aber immer wieder unpraktisch, da diese Architektur ganz andere Vorteile hat. Einer davon ist schlicht die Kompatibilitaet. Alle Energieeffizienz und Leistung bringt dir nichts, wenn deine Software nicht laeuft. Ich denke wenn man das ganze bei x86_64 ueber Bord wirft und sagen wir alles nur auf 64 Bit ausrichtet, dann gewinnt man da auch ganz gut Effizienz. Aber wer will das?
So unwahrscheinlich ist das ganze nicht einmal. Die koennen von null anfangen und von Anfang an Fallstricke vermeiden die in anderen Architekturen jetzt halt schon drin sind. Da kann man einiges rausholen. Waere auch nicht das erste mal, dass ein Neuanfang viel rausholt.
Was ich aber nicht verstehe warum hier einige meinen, dass mehr Ingenieure = besseres Ergebnis heisst. In der Regel sind es ein paar wenige die die wirklich grossen Ideen haben die einen Sprung ausmachen. Hast du von denen keine bringt dir die Menge auch recht wenig.
Der Vergleich mit x86_64 ist aber immer wieder unpraktisch, da diese Architektur ganz andere Vorteile hat. Einer davon ist schlicht die Kompatibilitaet. Alle Energieeffizienz und Leistung bringt dir nichts, wenn deine Software nicht laeuft. Ich denke wenn man das ganze bei x86_64 ueber Bord wirft und sagen wir alles nur auf 64 Bit ausrichtet, dann gewinnt man da auch ganz gut Effizienz. Aber wer will das?
Oh, die wissen jetzt schon, wie stark Apple Silicon wird? Geil! Weiß zwar wahrscheinlich Apple noch nicht mal zu 100% genau, aber die bei Nuvia wissen jetzt schon anhand von Simulationen, dass sie besser sein werden.
Na dann, lasst den starken Worten mal starke Taten folgen.
Na dann, lasst den starken Worten mal starke Taten folgen.
D
deineMudda
Gast
Also in der Grafik heißt es "Per Core Power Allocation". Insoweit ist mir die Sache immer noch nicht klar.Herdware schrieb:Ich nehme an, damit sind iGPU, Chipsatz usw. gemeint, die in diesen CPUs enthalten sind. Wobei das bei ARM-SoCs eigentlich auch an Bord sein sollte. Ist nur die Frage, in wie weit Nuvia das bei ihren simulierten CPUs berücksichtigt hat.
Sephiroth51
Lt. Commander
- Registriert
- Mai 2009
- Beiträge
- 1.703
Wenn die nur halbwegs gute Ideen haben, werden die nicht lange in der Form weiter existieren.😅
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
Kacha schrieb:Die koennen von null anfangen und von Anfang an Fallstricke vermeiden die in anderen Architekturen jetzt halt schon drin sind. Da kann man einiges rausholen.
Ich denke nicht, dass die alten Architekturen ein großes Hemmnis sind und ein Neuanfang an der Stelle viel bringen würde. Die Architekturen sind ja letztlich nur eine oberflächliche Geschichte. Wie die Performance einer CPU aussieht, entscheidet vor allem der Aufbau der Recheneinheiten, Caches usw. was praktisch unabhängig vom Befehls-Decoder/Frontend ist.
Auch die heutigen x86-CPUs arbeiten ja intern schon ewig nicht mehr mit den CISC-Befehlen, sondern mit RISC-artigen Micro-Ops. Was auch bedeutet, dass die Frage der Kompatibilität Intel und AMD oder auch die Entwickler der ARM-CPUs nicht großartig einschränkt, bei der Optimierung ihrer eigentlichen Cores.
Da kann auch jederzeit ein regelrechter Neuanfang beim internen Aufbau der CPU gemacht werden und es bleibt trotzdem nach außen hin z.B. eine kompatible x86-CPU. Wurde über die Jahrzehnte ja auch schon mehrmals gemacht. Zuletzt bei AMDs Zen gegenüber der vorhergehenden Bulldozer-Architektur.
eben.. noch ned zu kaufen, geschweige denn in irgendeinem produkt.. und apple a14 existiert bereits und ist in ca 2 Monaten zu kaufen in iphones.. aber ruhig imaginäres mit a13 vergleichen und sich in den himmel loben..
es fehlt release zeitplan, es fehlen produkte etc.pp.
es fehlt release zeitplan, es fehlen produkte etc.pp.
Herdware schrieb:Die Architekturen sind ja letztlich nur eine oberflächliche Geschichte. Wie die Performance einer CPU aussieht, entscheidet vor allem der Aufbau der Recheneinheiten, Caches usw. was praktisch unabhängig vom Befehls-Decoder/Frontend ist.
Das ist mir durchaus klar. Aber genau das wird nicht unbedingt von null wieder angefangen bei den grossen Herstellern.
Herdware schrieb:Auch die heutigen x86-CPUs arbeiten ja intern schon ewig nicht mehr mit den CISC-Befehlen, sondern mit RISC-artigen Micro-Ops. Was auch bedeutet, dass die Frage der Kompatibilität Intel und AMD oder auch die Entwickler der ARM-CPUs nicht großartig einschränkt, bei der Optimierung ihrer eigentlichen Cores.
Da kann auch jederzeit ein regelrechter Neuanfang beim internen Aufbau der CPU gemacht werden und es bleibt trotzdem nach außen hin z.B. eine kompatible x86-CPU. Wurde über die Jahrzehnte ja auch schon mehrmals gemacht. Zuletzt bei AMDs Zen gegenüber der vorhergehenden Bulldozer-Architektur.
Schon klar, aber gerade beim internen Aufbau gibt es immer noch Fallstricke. Wenn da jetzt jemand eine zuendende Idee hat, dann kann man da recht locker eine hoehere Energieeffizienz rausholen. Hier im Forum wird aber so getan, als waere das alles unmoeglich und nur die grossen koennten das. Das ist aber Schwachsinn.
Xes
Admiral
- Registriert
- Nov. 2013
- Beiträge
- 7.678
Sehe ich ähnlich:Fritzler schrieb:Wenn irgendein unbekanntes Startup ein Wunder verspricht was die Applecores übertrifft, dann erstmal skeptisch sein.
Die großen Player haben mehr Budget, mehr erfahrene Entwickler, generell mehr Eigenentwicklung und Erfahrungen mit vergangenen Produkten in diesem Bereich gesammelt und vermutlich auch einen riesen Haufen Lizenzen.
Dass ein neues Startup das "mal eben" mit ein paar hippen Entwicklern toppt darf zumindest stark angezweifelt werden.
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
Kacha schrieb:Hier im Forum wird aber so getan, als waere das alles unmoeglich und nur die grossen koennten das.
Unmöglich ist natürlich nichts. Es ist nur ziemlich unwahrscheinlich.
Allerdings ist es tatsächlich schon vorgekommen, dass ein "Außenseiter" plötzlich mit einer überzeugenden Architektur gekommen ist. Z.B. NexGen, das aus dem Nichts einen ziemlich guten Pentium-Konkurrenten aus dem Ärmel schüttelte und letztlich von AMD aufgekauft wurde und deren Technologie die Grundlage für die K6-Athlons bildete.
Sowas wäre dann wahrscheinlich auch das Schicksal von Firmen wie Nuvia oder Tachyum. Sollten sie wirklich etwas überzeugendes abliefern, werden sie von einem der Großen aufgekauft und ihre Technologie in deren Produkte integriert.