News Forscher entwickeln Chip mit über 1.000 „Kernen“

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.310
Was ist der Unterschied zu einem echten 1000 Kerner (Leistung)?
 
Zuletzt bearbeitet:
Anschließend nutzte man den Chip für die Berechnung eines Algorithmus', der Bestandteil des MPEG-Videoformats ist. Mit einer angeblichen Geschwindigkeit von fünf Gigabyte in der Sekunde soll der Chip etwa zwanzig Mal schneller als ein aktueller High-End-Desktop-Computer gerechnet haben.

Ja ne, iss klar. Wieder mal sehr genaue Angaben zu dem Vergleichswert von "20x so schnell". Sieht mir hier ein wenig nach Resteverwertung von Larabee aus.
 
Endlich wieder einmal ein kleiner Erfolg in Zukunftstechniken! Weiter so!
 
Wenn die Programmierung dafür so aufwändig und damit beschränkt ist, was wäre denn dann der Vorteil gegenüber GPU Computing?

Hier haben wir auch schon 500 Streamprozessoren in einer GPU, die relativ Simple, dafür aber stark parallelisierte Berechnungen sehr effizient ausführen können.

Ich hab davon nicht wirklich viel Ahnung, daher will ich gern wissen, was da den großen Unterschied macht.
 
68Marcus69 schrieb:
Was ist der Unterschied zu einem echten 1000 Kerner?

stell dir nen FPGA wie nen Steckbrett vor.
da kannst alles mögliche Aufbauen und verändern wie du willst.
Dadurch kannst du quasi innerhalb von Sekunden die Schaltung grundlegend abändern.

wenn man aber weiß was mal will (also nicht felxibel sein muss)
dann ist eine "Fertige" Schaltung schneller/effizienter/Kleiner/einfacher...

so ist der FPGA zwar 20 mal schneller als ne Wald und wiesen Highend CPU.
aber ein Spezieller IC für MPEG2 dürfte ohne Probleme 20 mal so schnell wie der FPGA sein...

dafür könnte man den FPGA Quasi für MPEG4 Umprogrammieren, den IC müsste man neu entwickeln.
 
Zuletzt bearbeitet:
@Laggy.NET: AMD wird dir wohl kaum eine 6850 GPU auf einem Board für eine Multimediabox bereitstellen, die dann Filme in Echtzeit codieren kann. Hier wird man diesen Chip auf allen möglichen Boards wiederfinden können, aber nicht unbedingt in einem PC.

Warum muss man immer davon ausgehen, daß alles was auf Computerbase gepostet wird auch in einem Rechner eingebaut werden können soll/muss. Auch du musst über den Tellerrand schauen, oder hast du kein Vorstellungsvermögen. Frei nach dem Motto: "wir haben Tankstellen also wozu Elektroautos". :evillol:
 
Mit welchen Programmiersprachen sollen diese CPUs ausgereizt werden? OpenCL?
 
Lycos schrieb:
Mit welchen Programmiersprachen sollen diese CPUs ausgereizt werden? OpenCL?

Assembler. Das sind proprietäre Architekturen, also gibt es auch keinen Compiler-Port einer gängigen Sprache für diese Architektur.
 
OK, danke für eure Antworten.

Ich hätte meine Frage vielleicht etwas präziser stellen sollen: Mit welchen Programmiersprachen sollen solche Architekturen in Zukunft programmiert werden (also nicht die Prototypen, sondern fertige Produkte)? Ist OpenCL dafür geeignet - oder gibt es da andere, besser passende Parallel-Sprachen?
 
das sind keine Prototypen sondern es sind fertige Produkte!
kannst überall Kaufen, z.b. hier:http://www.reichelt.de/?;ACTION=3;LA=444;GROUP=A35;GROUPID=2955;ARTICLE=70581;START=0;SORT=artnr;OFFSET=16;SID=29TRZn1H8AAAIAABVuWDwf1f0560a14aeccfe615090e66a2f95bf

die Forscher haben nen FPGA genommen (welche es schon lange zu kaufen gibt)
und diesen so Programmiert das dieser 1000 Befehle gleichzeitig ausführen kann.

logisch das das Programmieren sehr aufwendig ist, denn man Programmiert ja jedes mal etwas Individuelles.
und wozu willst du eine Parallel Sprache?
Programmiert wird das mit Speziellen Programmiersprachen.
was das ding später abarbeitet hat dann ja über haupt nix mit opencl zu tun.
 
Zuletzt bearbeitet:
Tja.

Wir haben zwar auch die mal angepriesenen 10Ghz nicht erreicht, aber als dieses Ziel verkündet wurde waren wir auch noch fernab von den 3.5Ghz die heutige Prozessoren haben.

Kommt Zeit kommt Kern.
 
alles schön und gut, aber wie weit wollen Intel und "AMD" mit der weiterentwicklung noch gehen? Auch wenn sowas erst in ein paar Jahren möglich ist(?), warum beschäftigen sie sich nicht erst mit den ganz normalen CPUs? Ausserdem ist Sandy-Bridge rausgekommen und bald folgt Bulldozer und andere.. sorry, meine Meinung nach find ichs schwachsinn... weint mich deswegen aber nicht voll..

Der Vergleich zu früher.. haha ein Witz.. und heute? alles highend, was auch schön ist - und was mich auch freut.. :)

MfG
 
Naja, wohl eher Grundlagenforschung...

Gabs da nicht auch mal diesen tollen Prozessor, der bei nem Ölbohrunternehmen eingesetzt wurde und in der Weiterentwicklung ein Potential von 100 GHz aufweisen sollte?^^
 
ich finde die Idee genial einen FPGA als Co-Prozesor im PC zu haben.
Dann könnte man für alle hoch komplexe, rechenintensive Aufgaben die FPGA Schaltung zunächst speziell dafür konfigurieren und dann geht's rund :D

Ein FPGA ist eine frei konfigurierbare HW. So lässt sich ein FPGA z.B. so konfigurieren, dass er die Schaltung eines Pentium Pro hat und man kann dann x86 Code ausführen. Die "Programmierung" der FPGA-HW erfolgt typisch mit VHDL oder Verilog.
 
Ersetzen wird ein FPGA einen Prozessor wohl nie (bei normalen Rechnern versteht sich). FPGAs eignen sich halt gut, um Dinge auszuprobieren, ohne erst extra dafür einen Prozessor giessen zu lassen. Aber es ist klar, dass ein Chip immer dann einem Allrounder überlegen ist, wenn er genau für diese eine Aufgabe konzipiert und eingesetzt wird.
 
Forschung hin oder her, was soll das effektiv bringen?
Kosten-Nutzen Faktor?
Wenn ein Handmade Prozessor mit eigenen Programierern bechäftigt wird sind die Kosten um ein vielfaches höher als wenn ich 3 PCs von der Stange mit Freeware beschäftige und aufs gleiche Ergebniss komme.

Schön als Test, aber doch nicht als Dauerzustand nutzbar.
 
/ironie on
Bei den News gestern habe ich mir schon überlegt auf Sandy Bridge um zu steigen. Aber dann warte ich ja besser noch 10 Jahre bis die 1000 Kerner kommen ^^
/ironie off
 
Zurück
Oben