Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsForscher entwickeln Chip mit über 1.000 „Kernen“
Die Zahl der Kerne von Prozessoren soll in Zukunft noch weiter steigen. Intel erforscht bereits eine Architektur, die theoretisch 1.000 Kerne ermöglichen soll. Forscher der University of Glasgow haben nun einen „Prozessor“ mit bereits mehr als 1.000 virtuellen Kernen erschaffen, indem sie ein FPGA entsprechend programmierten.
Anschließend nutzte man den Chip für die Berechnung eines Algorithmus', der Bestandteil des MPEG-Videoformats ist. Mit einer angeblichen Geschwindigkeit von fünf Gigabyte in der Sekunde soll der Chip etwa zwanzig Mal schneller als ein aktueller High-End-Desktop-Computer gerechnet haben.
Ja ne, iss klar. Wieder mal sehr genaue Angaben zu dem Vergleichswert von "20x so schnell". Sieht mir hier ein wenig nach Resteverwertung von Larabee aus.
Wenn die Programmierung dafür so aufwändig und damit beschränkt ist, was wäre denn dann der Vorteil gegenüber GPU Computing?
Hier haben wir auch schon 500 Streamprozessoren in einer GPU, die relativ Simple, dafür aber stark parallelisierte Berechnungen sehr effizient ausführen können.
Ich hab davon nicht wirklich viel Ahnung, daher will ich gern wissen, was da den großen Unterschied macht.
stell dir nen FPGA wie nen Steckbrett vor.
da kannst alles mögliche Aufbauen und verändern wie du willst.
Dadurch kannst du quasi innerhalb von Sekunden die Schaltung grundlegend abändern.
wenn man aber weiß was mal will (also nicht felxibel sein muss)
dann ist eine "Fertige" Schaltung schneller/effizienter/Kleiner/einfacher...
so ist der FPGA zwar 20 mal schneller als ne Wald und wiesen Highend CPU.
aber ein Spezieller IC für MPEG2 dürfte ohne Probleme 20 mal so schnell wie der FPGA sein...
dafür könnte man den FPGA Quasi für MPEG4 Umprogrammieren, den IC müsste man neu entwickeln.
@Laggy.NET: AMD wird dir wohl kaum eine 6850 GPU auf einem Board für eine Multimediabox bereitstellen, die dann Filme in Echtzeit codieren kann. Hier wird man diesen Chip auf allen möglichen Boards wiederfinden können, aber nicht unbedingt in einem PC.
Warum muss man immer davon ausgehen, daß alles was auf Computerbase gepostet wird auch in einem Rechner eingebaut werden können soll/muss. Auch du musst über den Tellerrand schauen, oder hast du kein Vorstellungsvermögen. Frei nach dem Motto: "wir haben Tankstellen also wozu Elektroautos".
Ich hätte meine Frage vielleicht etwas präziser stellen sollen: Mit welchen Programmiersprachen sollen solche Architekturen in Zukunft programmiert werden (also nicht die Prototypen, sondern fertige Produkte)? Ist OpenCL dafür geeignet - oder gibt es da andere, besser passende Parallel-Sprachen?
die Forscher haben nen FPGA genommen (welche es schon lange zu kaufen gibt)
und diesen so Programmiert das dieser 1000 Befehle gleichzeitig ausführen kann.
logisch das das Programmieren sehr aufwendig ist, denn man Programmiert ja jedes mal etwas Individuelles.
und wozu willst du eine Parallel Sprache?
Programmiert wird das mit Speziellen Programmiersprachen.
was das ding später abarbeitet hat dann ja über haupt nix mit opencl zu tun.
Wir haben zwar auch die mal angepriesenen 10Ghz nicht erreicht, aber als dieses Ziel verkündet wurde waren wir auch noch fernab von den 3.5Ghz die heutige Prozessoren haben.
alles schön und gut, aber wie weit wollen Intel und "AMD" mit der weiterentwicklung noch gehen? Auch wenn sowas erst in ein paar Jahren möglich ist(?), warum beschäftigen sie sich nicht erst mit den ganz normalen CPUs? Ausserdem ist Sandy-Bridge rausgekommen und bald folgt Bulldozer und andere.. sorry, meine Meinung nach find ichs schwachsinn... weint mich deswegen aber nicht voll..
Der Vergleich zu früher.. haha ein Witz.. und heute? alles highend, was auch schön ist - und was mich auch freut..
Gabs da nicht auch mal diesen tollen Prozessor, der bei nem Ölbohrunternehmen eingesetzt wurde und in der Weiterentwicklung ein Potential von 100 GHz aufweisen sollte?^^
ich finde die Idee genial einen FPGA als Co-Prozesor im PC zu haben.
Dann könnte man für alle hoch komplexe, rechenintensive Aufgaben die FPGA Schaltung zunächst speziell dafür konfigurieren und dann geht's rund
Ein FPGA ist eine frei konfigurierbare HW. So lässt sich ein FPGA z.B. so konfigurieren, dass er die Schaltung eines Pentium Pro hat und man kann dann x86 Code ausführen. Die "Programmierung" der FPGA-HW erfolgt typisch mit VHDL oder Verilog.
Ersetzen wird ein FPGA einen Prozessor wohl nie (bei normalen Rechnern versteht sich). FPGAs eignen sich halt gut, um Dinge auszuprobieren, ohne erst extra dafür einen Prozessor giessen zu lassen. Aber es ist klar, dass ein Chip immer dann einem Allrounder überlegen ist, wenn er genau für diese eine Aufgabe konzipiert und eingesetzt wird.
Forschung hin oder her, was soll das effektiv bringen?
Kosten-Nutzen Faktor?
Wenn ein Handmade Prozessor mit eigenen Programierern bechäftigt wird sind die Kosten um ein vielfaches höher als wenn ich 3 PCs von der Stange mit Freeware beschäftige und aufs gleiche Ergebniss komme.
Schön als Test, aber doch nicht als Dauerzustand nutzbar.
/ironie on
Bei den News gestern habe ich mir schon überlegt auf Sandy Bridge um zu steigen. Aber dann warte ich ja besser noch 10 Jahre bis die 1000 Kerner kommen ^^
/ironie off