Conqi schrieb:
Meine Vermutung: damit ist gemeint wie viel mehr der CPU-Kern gegenüber dem Idle-Zustand aufnimmt. Wenn der Kern im idle also beispielhaft 0,5W aufnimmt und unter Volllast dann 4W, hat man 3,5W idle-normalized power.
Damit steht potentiell die Möglichkeit im Raum, dass ihr Idle-Verbrauch sehr hoch ist oder das ganze drumherum, das eine CPU neben den einzelnen Kernen noch hat, sehr ineffizient ist, aber ich würde es trotzdem als faireren Vergleich sehen, wenn es nur um die Effizienz ihrer CPU-Kerne geht.
Ich nehme an, das ist eine sehr gute Vermutung, es paßte auch zu den Veröffentlichungen von AnandTech über die Verbräuche verschiedener SoCs und CPUs bei einem Spec2006-Lauf. Die angegebenen Kurven der 'Wettbewerber' sehen recht realistisch aus. Hier zum Vergleich die Kurve vom A12-Vortex-Core von AnandTech:
Der Extrapunkt auf der blauen Linie markiert die 2,325 GHz, mit denen die Vortex-Kerne im A12X getaktet werden, wenn sie alle zusammen laufen. Sie verbrauchen dann ca. 7,5W.
Conqi schrieb:
Insbesondere wenn es vermutlich noch keine annähernd finalisierte CPU gibt.
Selbstverständlich nicht, die Firma existiert erst seit Frühjahr 2019. der Mitbegründer Gerard Williams war der ARM-Chefentwickler bei Apple. Er hatte Apple verlassen, weil Apple kein Interesse daran hatte, mit einer eigenen CPU den Servermarkt aufzumischen.
Conqi schrieb:
Die Grafik ist trotzdem lächerlich, wenn ihre eigenen Erwartungen noch zwischen 1600 und 2300 Punkten schwanken. Das ist keine Unsicherheit, das ist reines Wunschdenken und hoffen.
Die Entwicklung der CPU wird noch so lange dauern, daß sie eventuell bereits in N3 hergestellt werden könnte. Nimm die 2300 als Obergrenze für diesen Fall, die 1600 als Untergrenze für in eine Realisierung in N5.
Kacha schrieb:
Der Vergleich mit x86_64 ist aber immer wieder unpraktisch, da diese Architektur ganz andere Vorteile hat. Einer davon ist schlicht die Kompatibilitaet.
Das ist der einzige Vorteil, den diese Architektur noch bietet und der ihr Überleben bis heute gesichert hat und auch weiterhin sichern wird.
pipip schrieb:
Kurze Frage, vllt auch für die News selbst interessant. Wir sprechen hier von einer ARM Arch. oder ?
Denn ich glaube NUVIA wollte auch etwas auf RISC-V Basis machen oder ?
Die Gründer sind mit die Besten, die es in Sachen ARM-Architektur z.Z. gibt und RISC-V ist ganz weit weg von irgendwas Performantem. Es wäre also eher überraschend.
deineMudda schrieb:
Kann mir das mal bitte jemand erklären?
Er glaubt, wenn man nur ganz dolle hinguckt, werden x86-Prozessoren auf wundersame Weise viel effizienter.
Chismon schrieb:
Es sind wohl schon Geruechte im Umlauf, dass Intel ein gesteigertes Interesse an (einer Uebernahme von) Nuvia haben koennte, zumal deren Xe GPUs wohl scheinbar hinter den eigenen Erwartungen (insbesondere von der Effizienz/dem Verbrauch her) zurueck liegen sollen, so dass evt. Nuvia Know-How da evt. eine schnelle Anpassung/Umstellung ermoeglichen koennte.
Es gibt keine schnellen Anpassungen/Umstellungen im Chip-Design. Jedes Gerücht, das mit sowas ankommt, zeigt nur, daß der Gerüchteverbreiter aber auch nicht die geringste Ahnung hat.
Balikon schrieb:
Oh, die wissen jetzt schon, wie stark Apple Silicon wird?
Wenn man bis April 2019 der ARM-Chefentwickler von Apple war, dann hat man ganz Gewiß eine ziemlich gute Vorstellung davon, zu was zumindest Apples A14, A15 und A16 zu leisten in der Lage sein werden.