Parallella - mobiler Super-Computer für kleines Geld

Mr.Wifi

Banned
Registriert
Apr. 2008
Beiträge
1.695
Adapteva, Hersteller hochintegrierter CPU-Lösungen, hat auf Kickstarter ein Projekt aufgelegt, um sein Know-How in eine kleine Entwickler-Platine einzubringen, die ein Äquivalent von bis zu 45 GHz liefern soll.

Parallella ist als abgespeckte Version der Epiphany-Multicore-Chips gedacht. Die Epiphany IV-Architektur liefert Prozessoren mit 64 Kernen und einem Leistungsäquivalent von rund 51 GHz. Diese Chips werden unter anderem vom US-Millitär auf deren Platinen verbaut. Im Gegensatz zu diesen Hochleistungs-Chips soll Parallella maximal 5 Watt unter Volllast verbrauchen.

Das Parallella-Board soll mit einer Dual-Core ARM A9 CPU und dem »Epiphany Multicore Accelerator« mit 16 oder 64 Kernen auf einer RISC-Architektur ausgestattet werden. Die weitere Spezifikation beinhaltet 1 GB RAM, eine Micro-SD-Karte, zwei USB 2.0-Ports, GBit-Ethernet, einen HDMI-Anschluss und zwei Erweiterungsports.

Als Betriebssystem wird Ubuntu mit ausgeliefert. Weiterhin an Bord sind Epiphany-Entwickler-Tools wie eine Eclipse-Entwicklungsumgebung, Multicore-Debugger, SDK-Compiler, C-Compiler und Runtime-Bibliotheken. Die angestrebten Maße betragen 8,64 cm x 5,33 cm. Die Prozessoren und das Board sollen frei programmierbar ausgelegt sein. Adapteva will dafür die hausinterne Software als Open Source zur Verfügung stellen. Ein erster Prototyp des Boards läuft bereits unter Ubuntu.

Das jetzt auf Kickstsarter aufgelegte Projekt, das ursprünglich mit Risikokapital ausgestattet werden sollte, zog nicht genügend Finanziers an. Das Mindestziel der jetzigen Kampagne sind 750.000 US-Dollar. Wird dieses Ziel erreicht, erhält jeder Einzahler von 99 US-Dollar eine 16-Kern-CPU, entsprechend 13 GHz, auf einem abgespeckten Board auf Basis der Epiphany III-Architektur.

Werden drei Millionen US-Dollar erreicht, soll eine Version mit 64 Kernen für 199 US-Dollar angeboten werden. Derzeit ist das Projekt auf einem vielversprechenden Weg. Nach fünf Tagen sind bereits über 130.000 US-Dollar eingegangen. Das Projekt ist noch offen für Einzahlungen bis zum 27.10.2012. Als vorläufiger Termin für die erste Auslieferung der Platinen ist Mai 2013 angedacht.

Von Ferdinand Thommes (pro-linux.de)

http://www.pro-linux.de/news/1/18946/parallella-mobiler-super-computer-fuer-kleines-geld.html

http://www.kickstarter.com/projects...a-supercomputer-for-everyone?ref=home_popular

http://www.youtube.com/watch?v=L3M80fHk1zU
http://www.youtube.com/watch?v=DkctH7_tYSc

Das wäre ja mal ein richtiger Hammer sollte das realisiert werden :cool_alt:
 
Zuletzt bearbeitet:
Das sind ja ganz tolle Marketingzahlen (45 GHz, 61 GHz etc.). Mein Blick fällt aber auf die Architektur, die scheint etwas eigenes zu sein und sie ist eine RISC-Architektur. Das bedeutet, der Chip kann nur sehr simple Operationen ausführen, die dafür recht schnell. Die Frage ist, wie gut schneidet so eine CPU gegenüber einem modernen Serverprozessor (Operton, Xeon, PowerPC, Power) ab?

Das scheint mir eine CPU zu sein, die nur für sehr spezielle Einsatzbereiche interessant ist.

Edit:
Laut der PDF zu den Spezifikationen ist die 16-Kerne-Variante etwa so leistungsfähig wie irgendeine mir unbekannte GPU mit 4 Shadern. Durch den niedrigen Stromverbrauch dürfte sich der Rechner zB gut für kleinere Roboter verwenden lassen, die umfangreiche Bildverarbeitung betreiben müssen (zur Navigation usw.).
 
Zuletzt bearbeitet:
Das Teil ist wohl in erster Linie für Programmierer, Wissenschaftler, und evtl. Bitcoin Miner interessant. So aus Performance per Watt und Kosten Sicht ;)

Wenn du PowerPC und die Power Architektur nennst dann verstehe ich die Einwände nicht was RISC betrifft. Selbst für "normales computing" ist RISC interessant, siehe die ganzen Smartphones, Tablets usw..

Der Vorteil zu GPU's ist die leichtere Programmierbarkeit und von daher effizientere Nutzung. In eine ähnliche Kerbe schlägt ja auch Intel mit Xeon Phi. Zudem ist es als offenes System geplant was man von erhältlichen GPU's nicht unbedingt behaupten kann.
 
Zuletzt bearbeitet:
13GHz Türklingel?

Spass beiseite, für spezielle Anwendungen sicherlich interessant. Dafür müssen aber auch die speziellen 'Nutzer' genügend vertreten sein, die das 'Kickstarter'-Prinzip überhaupt kennen. Also evtl in 1-2 Jahren sicherlich.

lg
fire
 
Mr.Wifi schrieb:
Wenn du PowerPC und die Power Architektur nennst dann verstehe ich die Einwände nicht was RISC betrifft.
Ähm, also kritisiert habe ich die Architektur eigentlich nicht. So wollte ich das nicht rüberkommen lassen. Ich wollte eigentlich nur einen Leistungsvergleich (bei Multicore-Algorithmen) haben, damit ich die CPU ungefähr einordnen kann.

Falls durch die vielen Kerne eine spürbare Leistung herumkommt und wenn es nur, sagen wir mal, ein Viertel oder die Hälfte der kleinsten Opteron-CPU ist, dann wird Parallella sehr interessant für mich. Leider scheint das aber nicht der Fall zu sein. :(
 
e-Laurin schrieb:
. Durch den niedrigen Stromverbrauch dürfte sich der Rechner zB gut für kleinere Roboter verwenden lassen, die umfangreiche Bildverarbeitung betreiben müssen (zur Navigation usw.).
Bildverarbeitung auf Hardware, die auf Gleitkommaberechnungen spezialisiert ist? Das ist eher ein Anti-Beispiel.
 
Und warum? Für die ganzen Rechnungen sind Gleitkommazahlen schon besser als andere Zahltypen.
Vor allem wenn noch GPS-Koordinaten und Matritzen, die die erkannte Umgebung darstellen (inklusive Winkel usw.), dazukommen.
 
e-Laurin schrieb:
Falls durch die vielen Kerne eine spürbare Leistung herumkommt und wenn es nur, sagen wir mal, ein Viertel oder die Hälfte der kleinsten Opteron-CPU ist, dann wird Parallella sehr interessant für mich. Leider scheint das aber nicht der Fall zu sein. :(

Wie bist du denn zu dieser Einschätzung gekommen?

technology_table-1024x546.png


http://www.adapteva.com/white-papers/ten-myths-debunked-by-the-epiphany-iv-64-core-accelerator-chip/
 
Ich habe eine andere PDF gelesen und da war die Rede davon, dass die CPU ungefähr in der Liga eines ARM Cortex-A9 spielt.
 
Eine einzige vllt. du hast aber 64stk. wenn das 64core Board für 199€ realisiert wird, also 3 Millionen auf Kickstarter reinkommen (bisher siehts leider nicht danach aus).

Der A9 hat die Leistung eines Intel Atom, und mit einem Atom singlecore (zb. der im ollen eeePC) kannst du zb. in Linux ohne spürbare Performanceprobleme nutzen wenn du eine leichte Desktopumgebung installierst. 64 x die Leistung ist bei dem Stromverbrauch schon nicht übel. Da C/C++ unterstützt wird ist es auch relativ leicht Software so anzupassen dass sie die 64cores nutzt.

Stell dir das mal in einem Notebook vor, in Verbindung mit einer GPU. Wird die Technologie gepusht dann sind leichte Notebooks/Tablets mit Ivy Performance und sehr langer Akkulaufzeit in Reichweite.

Es fehlt eben nur eine Entwicklerumgebung die für alle Zugänglich ist, also für extremes Multicore Computing. Und genau das ist Sinn und Zweck des Projekts.
 
Mein Info sagte mir: 16 Kerne Parallella = Cortex-A9, wenn ich mich recht erinnere. Darum auch meine Aussage, dass Parallella etwa in der Region des ARMs spielt.
Dass die Cortex-CPU auf den Niveau eines Atoms spielt, glaube ich nicht ganz. RISC ist zwar pro Operation schneller als der RISC/CISC-Hybrid namens Atom, allerdings benötigt man da auch mehr Operationen, um eine Aufgabe zu lösen.

Parallella erscheint mir nicht als Notebook-CPU. Auch wenn sie mit 64 Kernen leistungsmäßig einiges erreichen kann, so profitiert Otto-Normal-Software nicht davon. Dazu kommt noch, dass die einzelnen Kerne sicherlich nicht an die Funktionalität einer ARM-CPU oder gar einer x86-CPU herankommt. Es ist und bleibt eine CPU mit einem speziellem Einsatzbereich.

Es stellt sich eigentlich für mich nur die Frage, wobei man eine CPU niedriger SingleCore-Leistung, große Möglichkeiten für Nebenläufigkeit und geringerem Funktionsumfang brauchen kann. Da fallen mir im Moment nur Roboter ein.
 
e-Laurin schrieb:
Mein Info sagte mir: 16 Kerne Parallella = Cortex-A9, wenn ich mich recht erinnere.

Dann würde die 64core Variante GFLOP technisch jedoch kaum an eine aktuelle 285$ Quadcore CPU rankommen wie im Diagramm dargestellt. Da irrst du dich mit Sicherheit.

Dass die Cortex-CPU auf den Niveau eines Atoms spielt, glaube ich nicht ganz.

http://www.phoronix.com/scan.php?page=article&item=gentoo_arm_x32&num=1

Auch interessant: http://www.semiwiki.com/forum/conte...5performance-power-os-support-ip-library.html

RISC ist zwar pro Operation schneller als der RISC/CISC-Hybrid namens Atom, allerdings benötigt man da auch mehr Operationen, um eine Aufgabe zu lösen.

Wichtig ist was hinten rauskommt ;)

Parallella erscheint mir nicht als Notebook-CPU. Auch wenn sie mit 64 Kernen leistungsmäßig einiges erreichen kann, so profitiert Otto-Normal-Software nicht davon.

Ein Vorteil von Linux ist dass du auf den Sourcecode der "Otto-Normal-Software" zugreifen und diese anpassen kannst. Siehe raspberry Pi, dort hat sich auch in kürzester Zeit eine aktive Community gebildet die Software überträgt. Was Sinn macht wird dann eben angepasst.

Dazu kommt noch, dass die einzelnen Kerne sicherlich nicht an die Funktionalität einer ARM-CPU oder gar einer x86-CPU herankommt. Es ist und bleibt eine CPU mit einem speziellem Einsatzbereich.

Das kommt auf die Software an. Man könnte die zusätzliche Rechenleistung in Verbindung mit der ARM CPU eben für Dinge benutzen die man zb. mit Cuda berechnet, so als Hilfs CPU um die eigentliche ARM CPU zu entlasten. Und schon alleine die Tatsache dass C viel zugänglicher und effektiver als Cuda ist könnte eine Menge neuer Anwendungsmöglichkeiten hervorbringen, vor allem im open source Bereich!

Es stellt sich eigentlich für mich nur die Frage, wobei man eine CPU niedriger SingleCore-Leistung, große Möglichkeiten für Nebenläufigkeit und geringerem Funktionsumfang brauchen kann. Da fallen mir im Moment nur Roboter ein.

Du kannst sie überall brauchen wo es auf pure Rechenleistung im Verhältnis zum Stromverbrauch ankommt und die Software eben auf Multicore optimiert ist ;)
 
Zuletzt bearbeitet:
e-Laurin schrieb:
Und warum? Für die ganzen Rechnungen sind Gleitkommazahlen schon besser als andere Zahltypen.
Fließkomma-Operationen sind vor allem berühmt dafür, dass sie sich verrechnen. Spätestens wenns um Präzision geht mit Float gar nix mehr. Da du die Mantisse nicht endlos verlängern kannst hast du früher oder später Rechenfehler. Dann kannst du (übertrieben) 10^9 nicht von 10^9+1 unterscheiden.

Mr.Wifi schrieb:
Wichtig ist was hinten rauskommt ;)
Wenn dem so wäre, dann würden wir heute alle an PowerPCs mit RISC sitzen... denn die alten RISC-PPCs waren den gleichzeitig verfügbaren x86-CISCs um Längen überlegen.

Ein Vorteil von Linux ist dass du auf den Sourcecode der "Otto-Normal-Software" zugreifen und diese anpassen kannst. Siehe raspberry Pi, dort hat sich auch in kürzester Zeit eine aktive Community gebildet die Software überträgt. Was Sinn macht wird dann eben angepasst.
Nicht jedes Problem ist parallelisierbar. Da kannst du umschreiben so viel du willst. Andere Probleme sind parallelisierbar, dafür ist der Arbeitsaufwand für die Parallelisierung unvertretbar hoch. Wenn ich einen Entwickler erst einmal ne Woche dafür abstellen muss, Race Conditions auszubügeln und Mutexe zu schreiben, dann hätte ich mir auch direkt ne x86-64 - CPU kaufen können, das wäre wirtschaftlich effektiver.

Und schon alleine die Tatsache dass C viel zugänglicher und effektiver als Cuda ist könnte eine Menge neuer Anwendungsmöglichkeiten hervorbringen, vor allem im open source Bereich!
Es muss kein CUDA sein.... Die bringen CUDA nur als Beispiel. JEDE moderne GPU ist OpenCL-fähig. Damit umgehst du das CUDA-Gehampel und nutzt eine komplett freie Schnittstelle.

Du kannst sie überall brauchen wo es auf pure Rechenleistung im Verhältnis zum Stromverbrauch ankommt und die Software eben auf Multicore optimiert ist ;)
Stimmt, so siehts aus.... aber mir fallen in dem Bereich nicht sehr viele Szenarien ein.

Außerdem: Wenn ich auf Multicore gehe, dann kann ich auch noch einen Schritt weiter machen und sagen: Manycore. Dann bau ich mir n Intel Knights Ferry in den Server und kann dann direkt x86-64 - Software drauf ballern....
 
Mich stört es immer wieder bei den Herstellern das Se mit den Speicherchips geizen. 1 GB für bis zu 64 Core ist für meine Ansichten eindeutig zu knapp. 16,32 GB oder 64 GB wären wesendlich Interessanter. Auch wenn die Sache sich deutlich verteuert wäre so genügend Platz geschaffen für vielfältige Aanwendungsmöglichkeiten.
 
Daaron schrieb:
Wenn dem so wäre, dann würden wir heute alle an PowerPCs mit RISC sitzen... denn die alten RISC-PPCs waren den gleichzeitig verfügbaren x86-CISCs um Längen überlegen

Wintel hat sich eben auf dem Massenmarkt in den 90ern durchgesetzt. Intel konnte zudem den Performancenachteil eben mit Entwicklungsgeschwindigkeit ausgleichen. Dann liegt es auch noch an der M$ Politik, wir hatten früher zb. in der Computer AG nur Windows Rechner, unser "Lehrer" war zudem auch ein krasser Microsoft Fanboy.

Nicht jedes Problem ist parallelisierbar. Da kannst du umschreiben so viel du willst. Andere Probleme sind parallelisierbar, dafür ist der Arbeitsaufwand für die Parallelisierung unvertretbar hoch. Wenn ich einen Entwickler erst einmal ne Woche dafür abstellen muss, Race Conditions auszubügeln und Mutexe zu schreiben, dann hätte ich mir auch direkt ne x86-64 - CPU kaufen können, das wäre wirtschaftlich effektiver.

Aller Anfang ist schwer. Wie gesagt es ist eine Entwickler-Plattform.


Es muss kein CUDA sein.... Die bringen CUDA nur als Beispiel. JEDE moderne GPU ist OpenCL-fähig. Damit umgehst du das CUDA-Gehampel und nutzt eine komplett freie Schnittstelle.

Open CL debugging ist der reinste Horror. Wenn man die Zeit oder Manpower hat und somit auf wirtschaftliche Effektivität verzichten kann (was du laut deiner vorigen Aussage ja nicht kannst :lol: )

Außerdem: Wenn ich auf Multicore gehe, dann kann ich auch noch einen Schritt weiter machen und sagen: Manycore. Dann bau ich mir n Intel Knights Ferry in den Server und kann dann direkt x86-64 - Software drauf ballern....

Find ich auch geil und würde ich mir sofort in den Server bauen wenn ich das Geld dafür hätte :p
 
Zuletzt bearbeitet:
Mr.Wifi schrieb:
Aller Anfang ist schwer. Wie gesagt es ist eine Entwickler-Plattform.
Nein, ist es nicht. Du kannst gewisse Probleme nicht parallelisieren. Wenn du Wert A brauchst, um Wert B zu errechnen, dann musst du auf A warten.

Find ich auch geil und würde ich mir sofort in den Server bauen wenn ich das Geld dafür hätte :p
Angebliche Supercomputer-Lösungen braucht man nicht als Privatperson. Die brauchst du noch nicht einmal als kleiner oder mittelständiger Betrieb. Die Firmen, die Supercomputer brauchen, können sich problemlos einen Larrabee leisten. Die kaufen sich keine Hardware von winzigen Kickstarter-Projekten, die kaufen direkt bei den alteingesessenen Profis.
 
Zurück
Oben