Notiz Nuvia Phoenix: Effiziente CPU-Kerne sollen besser als Apples Lösung sein

MrNejo schrieb:
Sprunghafter Fortschritt ist nicht im Sinne des Kapitalismus.
Der Kapitalismus zeichnet sich gerade durch disruptiven Fortschritt aus.
Was glaubst Du, wieso Du an Deinem Bildschirm dieses Forum lesen und mit Deiner Tastatur hier Deinen Senf dazugeben kannst?
 
  • Gefällt mir
Reaktionen: GameOC
Ko3nich schrieb:

Ja, im Leistungsbereich von Tastaturprozessoren und Taschenrechner-CPUs ist das so. :-)
Ergänzung ()

Kacha schrieb:
So unwahrscheinlich ist das ganze nicht einmal. Die koennen von null anfangen

Nein, konnten sie nicht. Sie fingen mit einer ARM-Lizenz an. Also auch mit einem ARM Befehlssatz.

@Volker: Das gibt Deine Meldung leider nicht her. Eine Meldung über eine neue "Uber CPU" ohne wenigstens die ISA zu nennen ist schon recht...dünn.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Heschel
USB-Kabeljau schrieb:
Der weltweit stärkste Super-Computer ist bereits ARM basiert

Die Messungen erfolgen ja mit Linpack und geben dort die FLOPS wieder. Wie verschiedene Berechnungen darauf Laufen, ist damit nicht sicher.
HPC-Karten wie Nvidias Tesla erhöhen die Leistung unter Linpack (und natürlich auch diverse Berechnungen) erheblich, sind aber nicht für alle Fälle geeignet, sodass es auch immer wieder Supercomputer ohne diesen "GPGPUs" gibt, eben je nach Anwendung. Also es muss nicht zwangsweise das Allheilmittel für alle Berechnungen sein, das gibt die Top 500 nicht wieder.

In der Green500 steht der übrigens auf Platz 9, ein Platz davor ist Summit (der zwei schnellste Computer), der aus Power9 und Tesla besteht.
Der Fugaku mit seinen ARMs ist nämlich auch bei der Leistungsaufnahme Spitzenreiter mit über 28MW.
Auf Platz zwei der Green500 ist übrigens ein System bestehend aus Epyc und NV A100 gelistet.

An so Wunder-CPUs glaube ich daher nicht, Effizient in bestimmten Fällen decken nicht alle Fälle ab.
So ein Benchmark wie der Geekbench geben nicht annähernd die Wirklichkeit wieder, Linpack eben genau so wenig. GPGPUs erhöhen die Leistung und die Effizienz bereits deutlich unter Linpack, kann man dann gleich sagen: GPUs sind die besserern CPUs. Aber das Funktioniert nicht.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Geekbench und x86/64 ist auch die ultimative Benchmarkkombination…. deswegen testet jede seriöse Seite damit...NICHT
 
Ich finde die Diskussion Risc vs. Cisc ja schon immer interessant und mit Ersterem haben wir in ARM ja einen guten Vertreter. Ich kann mich noch an eine Zeit erinnern, als Vobis einen Risc Computer für ca. 6000 DM (Alpha AXP 150 (DEC)) mit entsprechender Windows 4.0 Version als "High End" Powergerät im Vergleich zu den Pentium 75 und 90 MHz Rechnern angeboten hat. "Rüber" genommen haben sie die Technologie von Digital Equipment, wenn mich nicht alles täuscht und ein großes Werk hatten wir damals in Kaufbeuren (machte in den 90er Jahren dicht, in Kaufbeuren übrigens nur Festplattenproduktion damals). Um zum Thema zurückzukehren: jenseits von speziellen Anwendungen hat sich das Ding nicht durchgesetzt. Schneller: ja, Technisch überlegen: ja, Softwareangebot und Anwenderakzeptanz: nein. Und das war dann der Knackpunkt. Vom Power PC ist Apple seinerzeit ja auch wieder ins Cisc Segment gewechselt mit dem Umstieg auf Intel.
Sicher stellt sich die Situation mit den ganzen Android basierten Möglichkeiten auf ARM Basis different dar. Ob das "Cell Phone" und Tablett Publikum das aber auf dem PC haben möchte, muss man sehen. Letztlich wird hier wieder der Markt entscheiden und Apple hat da aktuell - und nachdem Sie sich mit Hilfe von INTEL einen Markt "aufgebaut" haben, eine komplett andere Ausgangsposition, so etwas auch mit Mullen und Knullen der Appleianer durchzudrücken. Risc Architekturen als 1:1 Ersatz für die X64 Welt sehe ich aktuell allerdings eher noch nicht.
 
"Das CPU-Startup Nuvia plant eine neue Generation einer Prozessorarchitektur, die alles bisherige in den Schatten stellen will. Vorbild dabei ist Apple, die im Punkte Effizienz weit vor klassischen x86-Lösungen liegen. "

Um das zu erreichen, muss die CPU auch Programme haben, die die CPU bestmöglich nutzen. Apple ist groß und kann die Programme für sich entwickeln, die die CPU bestmöglich (effizient) nutzen. Ob dieses Startup das auch kann, kann getrost bezweifelt werden.

" Anhand von Simulationen in Geekbench 5 will der Hersteller diese Mehrleistung zeigen. Mit geringem Energiebedarf soll ein sehr gutes Ergebnis erzielt werden, welches selbst Apples Lösungen um den Faktor 2 übertrifft. x86-CPUs von AMD und Intel sind deutlich abgeschlagen, was die Performance pro Watt in diesem Test angeht. "

Performance per Watt?

Erstmals muss die Gesamtleistung betrachtet werden. Wenn ich einen 10900k oder bei den Ryzen einen CCX ausschalte und etwas runtertakte, erhöht sich auch die Performance/Watt. Je heißer die CPUs werden (an ihrer Maximalleistung), desto ineffizienter werden die CPUs. Das wirkt sich auch auf die neue "Wunder"-CPU.

Da die Grafik von denen stammt, wette ich zu 100 %, dass der Wunder-Chip nicht max. gelaufen ist - andere Produkte aber schon (so kann man auch täuschen ohne zu lügen). Warum werden wohl die Szenarien (wie man getestet hat) nicht genannt?

-------------------------------------------

Ich wette, dass man hier nur darauf abzielt, dass Apple oder Intel Interesse am Startup bekommen und es aufkaufen - mehr nicht.
 
Xtrasmart schrieb:
Vom Power PC ist Apple seinerzeit ja auch wieder ins Cisc Segment gewechselt mit dem Umstieg auf Intel.
Dafür gab es genau 2 Gründe:
1. IBM wollte das geschäftliche Risiko nicht eingehen, für Apple weiterhin PowerPC-CPUs zu entwickeln, die sie selber aber nicht mehr benötigten, weil sie sich auf die POWER-Linie konzentrierten. Apple war aber wirtschaftlich zu schwach, um die Entwicklung vorab zu finanzieren.
2. Intels Prozesse ermöglichten damals ein Lowpower-Design, bei dem niemand sonst mehr mitkam. Die Frage ob CISC oder RISC wurde da gar nicht erst gestellt.
 
  • Gefällt mir
Reaktionen: Miuwa und Xtrasmart
smalM schrieb:
Das wird gerne kolportiert, aber das ist nur die halbe Wahrheit. Das enge Programmiermodell und die Umsetzung von CISC-Ops auf die µOps erzeugt einen ganzen Haufen Probleme, denen nur mit hohem Aufwand beizukommen ist und sind ein Hauptgrund, wieso x86 über die Jahre so wenig in die Breite entwickelt wurde; und natürlich wieso x86 nie so effizient sein wird wie ARM.

Jain, so einfach ist es auch wieder nicht. Es mag komplexer sein, ja, aber ARM hat genauso seine Probleme und erreicht seinen niedrigen Verbraucht anders.

smalM schrieb:
Auch das wird gerne kolportiert und wird dadurch nicht wahrer. Wenn x86-CPUs so weit runtergefahren werden, daß sie im selben Verbrauchsbereich wie ARM-CPUs liegen, leisten sie auch sehr viel weniger.

Hast du dafuer auch belastbares? ARM hat umgekehrt eben das Problem, dass wenn man richtig Leistung rausholen will, dass sie in der Regel an der Speicheranbindung absaufen. ARM ist um einiges eher auf Bandbreite angewiesen, egal was Geekbench sagt.

smalM schrieb:
Wie schon mal gesagt, die hier dargestellten Watt-Kurven sind durchaus realistisch, ARM ist schlicht so viel effizienter als x86. Keine Ahnung woher diese ganze Realitätsverweigerung eigentlich her kommt.
Andrei von AnandTech dazu: "The ignorance & stupidity is flabbergasting." Die 'stupidity' hätte ich jetzt nicht von mir gegeben, aber 'ignorance' kann man getrost stehen lassen...

Nichts fuer ungut, aber seine Aussage ist null untermauert. Und entweder ignoriert er schlicht die Probleme von ARM oder hat fuer x86_64 einfach nichts uebrig.

Hayda Ministral schrieb:
Nein, konnten sie nicht. Sie fingen mit einer ARM-Lizenz an. Also auch mit einem ARM Befehlssatz.

Was nicht wirklich heisst, dass sie nicht von null anfangen koennen. Das einzige was dann vorgegeben ist, ist der Befehlssatz. Wobei sie sich da auch raussuchen koennen was sie verwenden und was nicht.
 
@Kacha
Geh zu AnandTech und suche Dir die Zahlen selber raus, die haben eine breite Palette an CPUs mit Spec2006 getestet.
 
Zurück
Oben