News Intels „Knights Corner“ erreicht über 1 TFLOP/s

@Kasmopaya

Irgendwie kann man dir schreiben, was man will, du antwortest immer etwas Ähnliches. Und was meinst du mit "Einstellung"?

Hast du eigentlich schon einmal mit wissenschaftlichen Berechnungen zu tun gehabt? Es gibt Fälle, in denen eine CPU oder jetzt diese MIC-Arichtektur von Intel vorzuziehen ist, da eine GPU für manche Dinge einfach noch immer zu speziell ist.
 
genau das ist der springende punkt ;)

zumal ein cluster solcher x86 cpus halt einfach vielseitiger ist (und nu werden halt unmengen x86 kerne in einem die vereint). gpgpu ist sehr speziell, was dessen rechenoperationen angeht.
 
Marius schrieb:
Kommt gar der CO-Prozessor in den Desktop zurück?
:D

Wäre eigentlich keine schlechte Sache, wenn gleich am Mainboard eine EInheit sitzt die die parallelen Rechnereien der CPU abnimmt.
Kann auch nicht teuer sein.. .eigentlich muß das sogar recht günstig zu verkaufen sein... so 30€ Aufpreis ... wenn man bedenkt was eine vollständige Grafikkarte kostet.


Frage was ist eine APU ???

Zum Thema, naja hier wird mit einer GPU verglichen, aber frage, wie groß is die NV GPU verglichen zu diesem "Prozessor". Ich behaupte auch dass der Verbrauch um einiges höher ist. Also als Konkurrenzprodukt sehe ich das noch nicht.
 
Ich weiß es ja nicht ... was Intel da so treibt ...

Wenn die auf den Professionellen markt wollen umso wichtiger Treiber zu bringen die gut sind.
Und dann hat vielleicht mal ein Programmierer ein Herz für Gamer und macht das auch noch mit ;)


Auch wenn es nicht für Gaming gedacht ist, ein Kurztest zur möglichkeit wäre schon interessant.


Wenn Intel im GPU markt auch noch gut wird, auch wenns keine GPU´s sind die sie bauen, find ich das irgendwie nicht gut. das Duell AMD und Nvidia ist sehr ausgewogen, da sollte sich keiner mehr einmischen ...
 
Hmm, wann wird der wohl in meinem "nächsten" Smartphone eingebaut?!
 
Paar Daten zum ASCI Red aus Wikipedia der hier als Vergleich zitiert wurde:

Power 850kW

Autsch...

Da dürfte Knights Corner ja "leicht" darunter liegen... :D

Edit: uups falscher Thread :(
 
Zuletzt bearbeitet:
Endless Storm schrieb:
Hmm, wann wird der wohl in meinem "nächsten" Smartphone eingebaut?!

Sry erstmal nur für NSA Smartphones, per USB verbinden und in 5Sec in jedes Geheimdienstnetz eingehackt, fuck yeah! :D

OnTopic: Ich sag nur Moores Gesetz... Einfach nur unglaublich! Und für mich unverständlich das ein Unternehmen wie Intel (oder auch IBM) die jedes mal soetwas entwickeln weniger Wert sind als... naja jeder weiß was gemeint ist. :P

+1!
 
Was ich interessant finde... diese Beschleunigerkarte ist für Applikationen als ein Computer mit Linux-Betriebssystem sichtbar - falls ich da die Pressemitteilung von Intel nicht missverstehe.
 
Bloß keine Größenvergleiche mehr! Googelt ein bisschen oder kuckt auf wikipedia, was sich in den letzten 60 jahren so getan hat.

Einfach extrem....

Heute hat jeder ein Supercomputer zu Hause, aber kaum einer mekt das. Weil man heute schon einen guten PC braucht, nur um im Internet zu surfen.

Mal kucken wie es weitergeht, ich bin jetzt auch schon knapp 20 Jahre dabei, und habe irgendwie das Gefühl, dass sich die (praxistaugliche und privatgenutzte) Hardware bei weirtem nicht mehr so schnell weiterentwickelt wie früher!
 
Zuletzt bearbeitet:
GregoryH schrieb:
Ich sag nur Moores Gesetz... Einfach nur unglaublich! Und für mich unverständlich das ein Unternehmen wie Intel (oder auch IBM) die jedes mal soetwas entwickeln weniger Wert sind als... naja jeder weiß was gemeint ist. :P

+1!


Naja, Mooresches Gesetz (Ja, der Typ hiess Moore, aber das Gesetzt nicht direkt:rolleyes:) ist in der Zeit der Parallelisierung eh nicht mehr zutreffend. Und was Du mit Deinem letzten Satz meinst ist wohl auch jedem klar, nur findest wohl nur Du das lustig:freak:

P.S: Wird jetzt das "+1" zu neuen Mode Erscheinung nach "epic fail" ???
 
Hier hat übrigens schon Jemand knapp 500 GFlops in DGEMM mit einer Radeon HD 5870 erreicht: http://forums.amd.com/devforum/messageview.cfm?catid=390&threadid=143517.
Der Vorteil bei Intel liegt wohl darin, dass man keine Programmiercracks braucht, um nahe an die Peak-Leistung ranzukommen, sondern schon mit bestehendem Xeon-kompatiblen Code, den man nochmal über den Intel-Compiler jagt, gute Ergebnisse erzielt: http://newsroom.intel.com/servlet/JiveServlet/download/2152-4-5220/ISC_Intel_MIC_factsheet.pdf.

2012 wird das Jahr der Teraflops-Chips (bezogen auf Berechnungen in doppelter Präzision). Bin mal gespannt, wer das Rennen macht. Was Supercomputer @ 2012 angeht, hat NV mit Kepler schon kräftig vorgelegt, Verträge mit Cray bestehen. Intel hat für Knights Corner offenbar auch schon einen Supercomputer-Deal an der Angel. Nur um AMDs GPUs wurde es in diesem Segment still. Wenigstens bekommt AMD die Bulldozer-CPUs gut an den Mann. Auf jede von Cray verbaute Kepler-Tesla kommt auch mindestens ein Bulldozer-Opteron.
 
Kasmopaya schrieb:
...Bulldozer usw. haben es wenigstens in den Verkauf geschafft. Larrabee muss so schlecht gewesen sein, das es nicht mal verkaufbar war. Und was noch verkaufbar ist sieht man ja am Bulli.
:rolleyes:

Wobei man ja auch nicht vergessen darf, Bulldozer ist für AMD ihr täglich Brot, Larrabee ist für Intel eher ein Hobby.

Und das es immer noch Leute gibt, die Larrabee als Fail abstempeln, nur weil es nicht Mainstreamtauglich war/ist, finde ich erstaunlich.
Larrabee mag schon uneffizient sein, aber nur weil die Engines seit Jahren auf Rasterisierungskarten ala AMD und NV optimiert sind...o ho welch Wunder. Kannst ja gerne versuchen die Quake3 Raytracingengine auf einer Fermi laufen zu lassen, funktioniert bestimmt schlechter als bei Larrabee ;)

Larrabee wird bestimmt für Intel Früchte tragen und sei es nur im HPC oder im GPU Treiberenwicklungsteam. Und selbst wenn nicht, Intel kann es egal sein, denn sie verdienen nicht ihr Geld damit...anders als AMD und NV, die sich solche "Versuchskaninchen" nicht leisten können.
 
can320 schrieb:
Der Stromverbraucht dürft epic fail sein

+1 ;)

@ Topic.

schon irgendwie lustig was Intel so im Nebenzimmer entwickelt. Selbst wenn man damit gegen die Wand fahren sollte, auf die paar Mrd kommts Intel nicht an ^^

Bin gespannt was sich da noch so tun wird.
 
can230 schrieb:
Der Stromverbraucht dürft epic fail sein

Und du begründest das wie?

Das Testmodell mit 32 Kernen und 45nm verbraucht 300 Watt.

Der Chip, um den es hier geht, ist dagegen in 22nm gefertigt mit den Tri-Gate-Transistoren. Selbst wenn er doppelt so viele Kerne hat, wäre die DIE-Fläche wesentlich kleiner als beim Testmodell.

Aber selbst wenn auch beim Knights Corner der Verbrauch bei 300 Watt liegen sollte, hätte dieser Chip, sollte die versprochene Leistung so zutreffen, ein viel besseres Leistung/Watt Verhältnis als entsprechende GPGPU Lösungen.

Aber gut, was schreibe ich so etwas überhaupt... wer sich schon so einen Sprachgebrauch wie "Epic Fail" angeeignet hat... dazu muss man wohl nichts weiter sagen.
 
Zuletzt bearbeitet:
@calluna: wenn man davon ausgeht, dass intels marketingversprechen einen bezug zur realität haben ;)

knights corner hat "nur" 50 kerne, tesla 2075 hat 512 kerne, also mehr als das zehnfache. wenn man nun berechnungen anstellt, die den x86-befehlssatz untestützen, dann ist natürlich ein x86-prozessor im vorteil, wenn es aber um simple rechenoperationen geht, sieht knights corner kein land mehr, auch nicht gegen eine "kleine" tesla 2050. was schneller ist, hängt einzig und allein vom anwendungsgebiet ab.

aber du hast recht, wenn der knights corner in seinem element ist, sind selbst 1kw ein witz gemessen am verbrauch eines alternativen supercomputers.
 
Zuletzt bearbeitet:
Lübke schrieb:
knights corner hat "nur" 50 kerne, tesla 2075 hat 512 kerne, also mehr als das zehnfache. wenn man nun berechnungen anstellt, die den x86-befehlssatz untestützen, dann ist natürlich ein x86-prozessor im vorteil, wenn es aber um simple rechenoperationen geht, sieht knights corner kein land mehr

Da spricht der Fachmann...
SIMD ist ein Fremdwort oder?
 
Krasse Sache: Im November 1997, also vor nicht einmal 15 Jahren, leistete der weltweit stärkste Supercomputer 1,3 GFlops. (http://www.top500.org/list/1997/11/100) Allerdings: Das Teil bestand aus über 9000 Prozessoren, die auf der Fläche eines Tennisplatzes verteilt waren (https://en.wikipedia.org/wiki/ASCI_Red).

Und jetzt, keine 15 Jahre später, hat man das auf EINEM Chip den man sich unter den Schreibtisch stellen könnte. Krass :D
 
Zurück
Oben