Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Intel will nach eigener Aussage alle zwei Jahre eine Neuentwicklung auf den Markt bringen. Heißt - sagen wir mal - 2007 Quadcore (und das ist schon optimistisch), 2009 Octacore und 2011 dann 16 Kerne. Huch, das sind ja gar keine 32!!
Was wollen die machen, bis dahin durcharbeiten, oder was??
Wahrscheinlich weil die Redaktion - da sich wohl kein Mod hier mit Spam und Trollerei beschäftigt - öftersmal den Kommentar-Thread (den man leider von der Hauptseite sehen und erreichen kann) fürchtet.
@MacroWelle
Hab noch nirgendwo gelesen, daß Intels 'zweijährliche' Neuerungen sich auf die Verdopplung der Kerne beziehen/reduzieren (?)
Weil wir evtl. noch etwas anderes zu tun haben, als jede Meldung sofort zu newsen? Und Inquirer-Meldungen (mit deren Fehlern plus eigenen) mal eben mehr schlecht als recht zu übersetzen, würde ich nicht unbedingt als adäquate Berichterstattung bezeichnen.
Kleinstadtcomputer? Also bei 675 kW wäre das schon eine sehr kleine Kleinstadt. Damit kannst du höchstens ein Dorf oder eine kleine Fabrik betreiben wobei das schon fragwürdig ist.
Tja das andere wegen der Sitzecke. Die Cray's von früher, die hatten so was mit feinem Leder bezogen und sahen auch noch schick aus.
Heute sinds halt nur noch Rechenknechte inner Blechkiste :-)
Bei einem 3D-Benchmark sicher weniger als (fast) jeder einzelne User im Forum erreicht
Der ist nicht für Grafik, sondern für aufwendige Berechnungen ausgelegt... Wie schon erwähnt könnte damit wohl kaum einer hier mehr damit anfangen als ihn bei Ebay ordentlich teuer zu verticken
Falsch. Eine Grafikkarte besitzt auch nur einen Prozessor der rumrechnet. Nur ist dieser eben für Vektor/Matrixrechnung optimiert wodurch die Beschleunigung bei 3D Spielen zustande kommt. Man kann auch alles auf der CPU berechnen lassen. Dort dauert es zwar länger, aber bei 9500 Dual Cores dürfte das keine Rolle spielen.
da gebe ich t3rm1 recht.
besonders ist aber die ähnlichkeit von graka und dem cluster hervorzuheben. beide sind schnell, bei hoch parallelisierter abarbeitung von daten. in einer graka können 24 pixelshader (aktuell ... das werden schon noch mehr 24 pixel gleichzeitig berechnen. dieser cray könnte sich um mehr als 9500 pixel gleichzeitig kümmern. und das auch noch bei höherem takt pro einheit. aber auch enorm viel mehr stromverbrauch und auch enorm viel höheren kosten für die hardware ))
ich warte ja noch drauf, dass die in jeden server einen quadcore tun und 4 grakas, die für parallele ausführung von berechnungen besser geeignet sind, als normale x86 cpus.
btw:
das wär mal was fürs oktoberfest:
"oa petaflop gehd no, oa petaflop gehd oiwei" zu hochdeutsch: "ein zusätzliches petaflop an rechenleistung kann nicht schaden" (ausser dem geldbeutel natürlich
whoa, das is aber ein hoher verbrauch. ich verbrauch, zusammen mit meiner mutter grad mal 3-4MWh. schon geldbeutel und umwelt. was man von diesem monstersupercomputern ja nich behaupten kann. stellt euch vor wenn in 20 jahren jeder so einen im kleinformat zu hause hat Oo
Schön schön schön.
Aber ohne schickes design ist das für mich kein echter Cray. Die alten Supercomputer von denen hatten alle das besondere etwas. Der hier sieht nur aus wie jeder andere.
@30/31: ja, 3D Mark 06 z.B. unterstützt ja multi Core, also bringen viele kerne schon was. aber ich glaube nicht das sich das berechnen in so viele threads aufteilen lässt. wenn doch dann wär das echt geil 100000 CPU Punkte ^^
@17: Intel erzählt viel wenn der Tag lang ist...vor einigen Jahren haben die auchmal gesagt das sie 2006 die 20GHz erreicht haben. aber davon sind wir ja noch weit weit entfernt. so ein hoher takt wäre ja alleine wegen der enormen wärmeentwicklung/verlustleistung gar nicht möglich. zumindest jetzt nicht.
Ich will mal wissen was die in Langley für nette Kisten im Keller stehen haben...bei popeligen 52 Mio für dieses Projekt. Bei einem IT-Etat der NSA & CIA bei dem man getrost nochmal 2 Nullen dranhängen kann geht bestimmt noch einiges...
Bei einem 3D-Benchmark sicher weniger als (fast) jeder einzelne User im Forum erreicht
Der ist nicht für Grafik, sondern für aufwendige Berechnungen ausgelegt... Wie schon erwähnt könnte damit wohl kaum einer hier mehr damit anfangen als ihn bei Ebay ordentlich teuer zu verticken
Vergleich:
"Wer weiss wie schnell die Katze rückwärts laufen könnte :-P
Beim Rückwärtslaufen wäre die Katze wohl langsamer als eine Katze die vorwärts läuft. Diese ist nicht zum rückwärts laufen geboren, sondern zum vorwärtslaufen, wie schon erwähnt, könnte keiner was mit einer rückwärts laufenden Katze anfangen, ausser sie als Attraktion im Zirkus zur Schau zu stellen.
Ich kann dazu nur sagen: Wenn die Katze, von der hier die Rede ist, mit entsprechender Lauftechnik versorgt werden würde, würde sie rückwärts 1000000 mal schneller laufen, als vorwärts laufende Katzen...
got it?
kleiner Tipp: Lauftechnik ist als "Emuliersoftware" zu verstehen ^^
Falsch. Eine Grafikkarte besitzt auch nur einen Prozessor der rumrechnet. Nur ist dieser eben für Vektor/Matrixrechnung optimiert wodurch die Beschleunigung bei 3D Spielen zustande kommt. Man kann auch alles auf der CPU berechnen lassen. Dort dauert es zwar länger, aber bei 9500 Dual Cores dürfte das keine Rolle spielen.
Eben, Der Rechner braucht keine Graka mit Hardware3D...
Ein kleiner Null-Treiber der die FP-Operartionen geschickt auf die über 9000 CPUs verteilt, dürfte dafür sorgen, das auch noch Spiele in 5 Jahren mit max.Settings laufen und immernoch mehrere hundert FP/s machen. XD