Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Intels „Knights Corner“ erreicht über 1 TFLOP/s
- Ersteller Parwez
- Erstellt am
- Zur News: Intels „Knights Corner“ erreicht über 1 TFLOP/s
@Kasmopaya
Irgendwie kann man dir schreiben, was man will, du antwortest immer etwas Ähnliches. Und was meinst du mit "Einstellung"?
Hast du eigentlich schon einmal mit wissenschaftlichen Berechnungen zu tun gehabt? Es gibt Fälle, in denen eine CPU oder jetzt diese MIC-Arichtektur von Intel vorzuziehen ist, da eine GPU für manche Dinge einfach noch immer zu speziell ist.
Irgendwie kann man dir schreiben, was man will, du antwortest immer etwas Ähnliches. Und was meinst du mit "Einstellung"?
Hast du eigentlich schon einmal mit wissenschaftlichen Berechnungen zu tun gehabt? Es gibt Fälle, in denen eine CPU oder jetzt diese MIC-Arichtektur von Intel vorzuziehen ist, da eine GPU für manche Dinge einfach noch immer zu speziell ist.
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.409
Marius schrieb:Kommt gar der CO-Prozessor in den Desktop zurück?
Wäre eigentlich keine schlechte Sache, wenn gleich am Mainboard eine EInheit sitzt die die parallelen Rechnereien der CPU abnimmt.
Kann auch nicht teuer sein.. .eigentlich muß das sogar recht günstig zu verkaufen sein... so 30€ Aufpreis ... wenn man bedenkt was eine vollständige Grafikkarte kostet.
Frage was ist eine APU ???
Zum Thema, naja hier wird mit einer GPU verglichen, aber frage, wie groß is die NV GPU verglichen zu diesem "Prozessor". Ich behaupte auch dass der Verbrauch um einiges höher ist. Also als Konkurrenzprodukt sehe ich das noch nicht.
ExcaliburCasi
Lt. Commander
- Registriert
- März 2008
- Beiträge
- 1.691
Ich weiß es ja nicht ... was Intel da so treibt ...
Wenn die auf den Professionellen markt wollen umso wichtiger Treiber zu bringen die gut sind.
Und dann hat vielleicht mal ein Programmierer ein Herz für Gamer und macht das auch noch mit
Auch wenn es nicht für Gaming gedacht ist, ein Kurztest zur möglichkeit wäre schon interessant.
Wenn Intel im GPU markt auch noch gut wird, auch wenns keine GPU´s sind die sie bauen, find ich das irgendwie nicht gut. das Duell AMD und Nvidia ist sehr ausgewogen, da sollte sich keiner mehr einmischen ...
Wenn die auf den Professionellen markt wollen umso wichtiger Treiber zu bringen die gut sind.
Und dann hat vielleicht mal ein Programmierer ein Herz für Gamer und macht das auch noch mit
Auch wenn es nicht für Gaming gedacht ist, ein Kurztest zur möglichkeit wäre schon interessant.
Wenn Intel im GPU markt auch noch gut wird, auch wenns keine GPU´s sind die sie bauen, find ich das irgendwie nicht gut. das Duell AMD und Nvidia ist sehr ausgewogen, da sollte sich keiner mehr einmischen ...
Endless Storm
Commander
- Registriert
- Dez. 2008
- Beiträge
- 2.154
Hmm, wann wird der wohl in meinem "nächsten" Smartphone eingebaut?!
Fischkopp
Commander
- Registriert
- März 2011
- Beiträge
- 2.340
Paar Daten zum ASCI Red aus Wikipedia der hier als Vergleich zitiert wurde:
Power 850kW
Autsch...
Da dürfte Knights Corner ja "leicht" darunter liegen...
Edit: uups falscher Thread
Zuletzt bearbeitet:
GregoryH
Lt. Commander
- Registriert
- Aug. 2010
- Beiträge
- 1.846
Endless Storm schrieb:Hmm, wann wird der wohl in meinem "nächsten" Smartphone eingebaut?!
Sry erstmal nur für NSA Smartphones, per USB verbinden und in 5Sec in jedes Geheimdienstnetz eingehackt, fuck yeah!
OnTopic: Ich sag nur Moores Gesetz... Einfach nur unglaublich! Und für mich unverständlich das ein Unternehmen wie Intel (oder auch IBM) die jedes mal soetwas entwickeln weniger Wert sind als... naja jeder weiß was gemeint ist.
+1!
Demolition-Man
Rear Admiral
- Registriert
- Juli 2004
- Beiträge
- 5.921
Bloß keine Größenvergleiche mehr! Googelt ein bisschen oder kuckt auf wikipedia, was sich in den letzten 60 jahren so getan hat.
Einfach extrem....
Heute hat jeder ein Supercomputer zu Hause, aber kaum einer mekt das. Weil man heute schon einen guten PC braucht, nur um im Internet zu surfen.
Mal kucken wie es weitergeht, ich bin jetzt auch schon knapp 20 Jahre dabei, und habe irgendwie das Gefühl, dass sich die (praxistaugliche und privatgenutzte) Hardware bei weirtem nicht mehr so schnell weiterentwickelt wie früher!
Einfach extrem....
Heute hat jeder ein Supercomputer zu Hause, aber kaum einer mekt das. Weil man heute schon einen guten PC braucht, nur um im Internet zu surfen.
Mal kucken wie es weitergeht, ich bin jetzt auch schon knapp 20 Jahre dabei, und habe irgendwie das Gefühl, dass sich die (praxistaugliche und privatgenutzte) Hardware bei weirtem nicht mehr so schnell weiterentwickelt wie früher!
Zuletzt bearbeitet:
K
Konsolengamer
Gast
GregoryH schrieb:Ich sag nur Moores Gesetz... Einfach nur unglaublich! Und für mich unverständlich das ein Unternehmen wie Intel (oder auch IBM) die jedes mal soetwas entwickeln weniger Wert sind als... naja jeder weiß was gemeint ist.
+1!
Naja, Mooresches Gesetz (Ja, der Typ hiess Moore, aber das Gesetzt nicht direkt) ist in der Zeit der Parallelisierung eh nicht mehr zutreffend. Und was Du mit Deinem letzten Satz meinst ist wohl auch jedem klar, nur findest wohl nur Du das lustig
P.S: Wird jetzt das "+1" zu neuen Mode Erscheinung nach "epic fail" ???
C
can320
Gast
Der Stromverbraucht dürft epic fail sein
Hier hat übrigens schon Jemand knapp 500 GFlops in DGEMM mit einer Radeon HD 5870 erreicht: http://forums.amd.com/devforum/messageview.cfm?catid=390&threadid=143517.
Der Vorteil bei Intel liegt wohl darin, dass man keine Programmiercracks braucht, um nahe an die Peak-Leistung ranzukommen, sondern schon mit bestehendem Xeon-kompatiblen Code, den man nochmal über den Intel-Compiler jagt, gute Ergebnisse erzielt: http://newsroom.intel.com/servlet/JiveServlet/download/2152-4-5220/ISC_Intel_MIC_factsheet.pdf.
2012 wird das Jahr der Teraflops-Chips (bezogen auf Berechnungen in doppelter Präzision). Bin mal gespannt, wer das Rennen macht. Was Supercomputer @ 2012 angeht, hat NV mit Kepler schon kräftig vorgelegt, Verträge mit Cray bestehen. Intel hat für Knights Corner offenbar auch schon einen Supercomputer-Deal an der Angel. Nur um AMDs GPUs wurde es in diesem Segment still. Wenigstens bekommt AMD die Bulldozer-CPUs gut an den Mann. Auf jede von Cray verbaute Kepler-Tesla kommt auch mindestens ein Bulldozer-Opteron.
Der Vorteil bei Intel liegt wohl darin, dass man keine Programmiercracks braucht, um nahe an die Peak-Leistung ranzukommen, sondern schon mit bestehendem Xeon-kompatiblen Code, den man nochmal über den Intel-Compiler jagt, gute Ergebnisse erzielt: http://newsroom.intel.com/servlet/JiveServlet/download/2152-4-5220/ISC_Intel_MIC_factsheet.pdf.
2012 wird das Jahr der Teraflops-Chips (bezogen auf Berechnungen in doppelter Präzision). Bin mal gespannt, wer das Rennen macht. Was Supercomputer @ 2012 angeht, hat NV mit Kepler schon kräftig vorgelegt, Verträge mit Cray bestehen. Intel hat für Knights Corner offenbar auch schon einen Supercomputer-Deal an der Angel. Nur um AMDs GPUs wurde es in diesem Segment still. Wenigstens bekommt AMD die Bulldozer-CPUs gut an den Mann. Auf jede von Cray verbaute Kepler-Tesla kommt auch mindestens ein Bulldozer-Opteron.
r4yn3
Admiral
- Registriert
- Mai 2006
- Beiträge
- 7.691
Kasmopaya schrieb:...Bulldozer usw. haben es wenigstens in den Verkauf geschafft. Larrabee muss so schlecht gewesen sein, das es nicht mal verkaufbar war. Und was noch verkaufbar ist sieht man ja am Bulli.
Wobei man ja auch nicht vergessen darf, Bulldozer ist für AMD ihr täglich Brot, Larrabee ist für Intel eher ein Hobby.
Und das es immer noch Leute gibt, die Larrabee als Fail abstempeln, nur weil es nicht Mainstreamtauglich war/ist, finde ich erstaunlich.
Larrabee mag schon uneffizient sein, aber nur weil die Engines seit Jahren auf Rasterisierungskarten ala AMD und NV optimiert sind...o ho welch Wunder. Kannst ja gerne versuchen die Quake3 Raytracingengine auf einer Fermi laufen zu lassen, funktioniert bestimmt schlechter als bei Larrabee
Larrabee wird bestimmt für Intel Früchte tragen und sei es nur im HPC oder im GPU Treiberenwicklungsteam. Und selbst wenn nicht, Intel kann es egal sein, denn sie verdienen nicht ihr Geld damit...anders als AMD und NV, die sich solche "Versuchskaninchen" nicht leisten können.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.281
can320 schrieb:Der Stromverbraucht dürft epic fail sein
+1
@ Topic.
schon irgendwie lustig was Intel so im Nebenzimmer entwickelt. Selbst wenn man damit gegen die Wand fahren sollte, auf die paar Mrd kommts Intel nicht an ^^
Bin gespannt was sich da noch so tun wird.
can230 schrieb:Der Stromverbraucht dürft epic fail sein
Und du begründest das wie?
Das Testmodell mit 32 Kernen und 45nm verbraucht 300 Watt.
Der Chip, um den es hier geht, ist dagegen in 22nm gefertigt mit den Tri-Gate-Transistoren. Selbst wenn er doppelt so viele Kerne hat, wäre die DIE-Fläche wesentlich kleiner als beim Testmodell.
Aber selbst wenn auch beim Knights Corner der Verbrauch bei 300 Watt liegen sollte, hätte dieser Chip, sollte die versprochene Leistung so zutreffen, ein viel besseres Leistung/Watt Verhältnis als entsprechende GPGPU Lösungen.
Aber gut, was schreibe ich so etwas überhaupt... wer sich schon so einen Sprachgebrauch wie "Epic Fail" angeeignet hat... dazu muss man wohl nichts weiter sagen.
Zuletzt bearbeitet:
Skynet7
Lieutenant
- Registriert
- Jan. 2010
- Beiträge
- 639
Nom4D schrieb:Hallo Skynet, gut siehste aus !
Danke
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
@calluna: wenn man davon ausgeht, dass intels marketingversprechen einen bezug zur realität haben
knights corner hat "nur" 50 kerne, tesla 2075 hat 512 kerne, also mehr als das zehnfache. wenn man nun berechnungen anstellt, die den x86-befehlssatz untestützen, dann ist natürlich ein x86-prozessor im vorteil, wenn es aber um simple rechenoperationen geht, sieht knights corner kein land mehr, auch nicht gegen eine "kleine" tesla 2050. was schneller ist, hängt einzig und allein vom anwendungsgebiet ab.
aber du hast recht, wenn der knights corner in seinem element ist, sind selbst 1kw ein witz gemessen am verbrauch eines alternativen supercomputers.
knights corner hat "nur" 50 kerne, tesla 2075 hat 512 kerne, also mehr als das zehnfache. wenn man nun berechnungen anstellt, die den x86-befehlssatz untestützen, dann ist natürlich ein x86-prozessor im vorteil, wenn es aber um simple rechenoperationen geht, sieht knights corner kein land mehr, auch nicht gegen eine "kleine" tesla 2050. was schneller ist, hängt einzig und allein vom anwendungsgebiet ab.
aber du hast recht, wenn der knights corner in seinem element ist, sind selbst 1kw ein witz gemessen am verbrauch eines alternativen supercomputers.
Zuletzt bearbeitet:
Lübke schrieb:knights corner hat "nur" 50 kerne, tesla 2075 hat 512 kerne, also mehr als das zehnfache. wenn man nun berechnungen anstellt, die den x86-befehlssatz untestützen, dann ist natürlich ein x86-prozessor im vorteil, wenn es aber um simple rechenoperationen geht, sieht knights corner kein land mehr
Da spricht der Fachmann...
SIMD ist ein Fremdwort oder?
Nero Atreides
Lt. Commander
- Registriert
- Jan. 2004
- Beiträge
- 1.316
Krasse Sache: Im November 1997, also vor nicht einmal 15 Jahren, leistete der weltweit stärkste Supercomputer 1,3 GFlops. (http://www.top500.org/list/1997/11/100) Allerdings: Das Teil bestand aus über 9000 Prozessoren, die auf der Fläche eines Tennisplatzes verteilt waren (https://en.wikipedia.org/wiki/ASCI_Red).
Und jetzt, keine 15 Jahre später, hat man das auf EINEM Chip den man sich unter den Schreibtisch stellen könnte. Krass
Und jetzt, keine 15 Jahre später, hat man das auf EINEM Chip den man sich unter den Schreibtisch stellen könnte. Krass