News Kann Intels Larrabee keinen Strom sparen?

Larrabee verbraucht keine 300W. Ein solcher Wert wird nur erreicht, wenn er DEUTLICH über den für 2 TFlops erforderlichen Takt getrieben wird.
So oder so ähnlich war es zumindest bei der Demo, als Larrabee noch iwie 80-core... Terascale... oder so ähnlich hieß.
 
doesntmatter schrieb:
Du gehst von einem Fakt aus ? Hast du die News von vorne bis hinten gelesen ?

Hab ich und darauf hab ich meine aussage auch bezogen, wie oft steht so ein gerücht über AMD oder Nvidia in den news und ihr flamt rum wie die größten kleinkinder, aber sobald der name intel auftaucht wird alles schöngeredet:o

mfg
 
Romsky schrieb:
Ganz ehrlich, wenn die Leistung stimmt, und die Karte leise ist, wär mir der Stromverbrauch völlig egal. ...
Verlustleistung bedingt Lautstärke, unweigerlich. Ein Kühler der bei gleicher Lautstärke mehr Wärme ableiten kann, kostet erheblich mehr. Für eine 300-W-Karte würde ich bspw. bei Wasserkühlung schon über einen zweiten kreislauf (=zweite Pumpe und zweiter Riesenradiator) nachdenken.

jayhawk schrieb:
also ich mache mir in larabee große hoffnungen, er wird ja schließlich auf x86 basieren und damit höchstwahrscheinlich (fast) frei programmierbar sein.
Ist CUDA auch.

digitalangel18 schrieb:
Hm, vlt. hat ja hier jemand soviel Ahnung von der Materie, und könnte mal erläutern, warum nicht einfach ein separater 2D Chip auf Grafikkarten verwendet wird. ...
Weil bspw. auf Windows seit DirectX 7 Videorendering auch als Textur stattfinden kann, oder weil seit ATI Irgendwas die Videodecoder-"Chips" mit im Chip-Die des Grafikchips integriert sind um enorm Fertigungskosten zu sparen. Will man da irgendwas abschalten, kann man eben auch einfach die Mehrheit der Shader- oder Textureinheiten abschalten und spart genauso. ;)

Rasemann schrieb:
Was ist da schöngeredet, wenn untem Vistadesktop in Zukunft die Performancekarte ganz einfach ausgeschaltet wird?...
Kann man machen, aber ich würde mir wünschen, dass solche Sachen dann nicht nur (wie bisher) für Windows, sondern auch für bspw. Linux ua. umgesetzt werden - als Compiz-User (ich will nicht mehr auf Exposé verzichten) möchte ich auch nicht, dass meine Grafikkarte wegen Compiz (oder wegen KDE4, oder wegen E17, oder wegen Cairo, oder wegen der OpenGL-Ausgabe im Videoplayer) auf Hochtouren läuft. ;)
 
Zuletzt bearbeitet:
digitalangel18 schrieb:
... warum nicht einfach ein separater 2D Chip auf Grafikkarten verwendet wird. Der sollte doch mit heutiger Fertigungstechnologie für ein paar Dollar und mit winziger Verlustleistung machbar sein? Und noch 16MB zusätzlicher Framebuffer dürfte auch nicht ins Geld fallen. Die eigentliche GPU müsste dann nur für 3D/GPU-Processing/Videobeschleunigung dazu geschaltet werden. Das wäre dann auch unabhängig von Mainboard und co.

Welche Instanz benötigt denn die 3D-Funktion bzw. woher kommt denn die Anforderung "jetzt" die GPU anzusprechen ?

Von der Grafikkarte ? Dann wäre ein 2D-Chip oder eine "CPU" oder wie das dann heißen soll sinnvoll.

Aber es ist das Board, das CPU, GPU, die Caches, RAMs etc. verbindet, natürlich muss die "Zentrale Prozessoreinheit", bei der eine (Spiele-)Anwendung eine 3D-Berechnung anmeldet, diese 3D-Funktion an- oder abschalten. nVidia mit seinem "Hybrid Power" macht das bereits, benötigt aber einen 3D-Chip onboard, der die 2D-Bildausgabe übernimmt. Hätten wir eine autonome, externe Grafikkarte an einem LCD-Monitor, könnte theoretisch die eingelegte Software per Schnittstelle die Grafikkarte "starten" und GPU-Berechnungen auslösen. Quasi die Spiele-Konsole ohne "Hirn". Was wäre gewonnen zu heute ?

Die Tendenz zu speziellen Chips (ähnlich ASUS-Boards mit Mini-Linux) finde ich sehr folgerichtig, auch getrennte Taktung bei den AMD-CPUs, oder das formulierte Ziel, ganze CPU-Kerne abschalten zu können, je nach Leistungsanforderung.

Ob die neue Intel-Verlautbarungen für einen GPU-Ersatz durch CPUs oder umgekehrt die nVidia-Verlautbarungen zum CPU-Ersatz durch GPGPUs sich irgendwann durchsetzen, wer weiß das schon. Im Moment dominieren CPUs in allen Bereichen, ohne diese (mit entsprechender Leistung, siehe Benchmarks) läuft gar nichts.

Allein bei folding@home gibt es für den "Massengebrauch" (CUDA lasse ich außen vor) im Beta-Stadium eine nahezu komplette GPU-Berechnung mit sehr geringen CPU-Anteilen (unter Vista), die vielleicht wegweisend ist in autonome Chip-Spezialisierung in einem heterogenen Chip-Umfeld. Ob das später modulare Chips sind, die man in ein Multi-Chip-Mainbaord einsetzt (ähnlich Multi-CPU-Serverboards), oder per PCIe-/USB 3.0-Schnittstelle, spielt kaum eine Rolle.
 
äre wirklich etwas seltsam, wenn Intel jetzt ausgerechnet bei Larabee einen Stromsparmodus unterschlägt. Allerdings mehren sich in letzter Zeit die Gerüchte, dass die erste Larabee Generation sehr vieles nicht oder deutlich schlechter als Larabee 2 kann. Hört sich für mich langsam nach einem Testballon seitens Intel an.
 
illegalz schrieb:
Wieviel Leistung in Gflop hat larrabe? soll das auch für desktop-pcs kommen? ist das eine raster gpu oder macht das teil raytracing?
Die Leistung soll bei 2 TFLOPS liegen (32 Kerne, 2 GHz, 512 Bit SIMD, MADD). Und ja, sie sollen auch im Consumer Markt erhältlich sein. Die letzte Frage kann man so wohl noch nicht beantworten. Dank universeller Recheneinheiten wird Larrabee sicherlich auch raytracen können. Ist bei aktuellen GPUs ja genauso. Sollte Larrabee 2009 erscheinen, würde ich vermuten, dass es trotzdem erstmal ein Rasterisierer wird. Raytracing ist ja, vor allem im Gaming Bereich, praktisch noch überhaupt nicht existent.

Demokrator schrieb:
Und wer wirklich glaubt, dass Intel eine GraKa mit 300W@Last auf den Markt bring, der kann getrost als Verrückt bezeichnet werden :lol:
Na, dann bin ich wohl verrückt. :) Ich halte diese Angabe für ziemlich realistisch. Es sollen immerhin 32 überarbeitete P54C Kerne sein, also pro Kern etwas unter 10W. Zum Vergleich, eine HD 4870 X2 soll bei 270W liegen. Allerdings noch in 55nm gefertigt (Larrabee soll in 45nm gefertigt werden) und wohl mit etwas mehr Leistung (2,4 TFLOPS).

Ycon schrieb:
Larrabee verbraucht keine 300W. Ein solcher Wert wird nur erreicht, wenn er DEUTLICH über den für 2 TFlops erforderlichen Takt getrieben wird.
So oder so ähnlich war es zumindest bei der Demo, als Larrabee noch iwie 80-core... Terascale... oder so ähnlich hieß.
Larrabee scheint das erste Projekt von Intel zu sein, was KONZEPTIONELL den Ansatz von Tera-Scale umsetzt. Es ist aber eine ganz andere Implementierung als die Testsamples von Tera-Scale. Insofern ist das nicht vergleichbar. Der grösste Unterschied dürfte hierbei sicherlich die x86 Kompatibilität sein.
 
MRM schrieb:
nicht unter 100W idle - wäre ja schon irgendwie ein herber Rückschritt, sollte sich daß bewahrheiten :( - naja, noch haben sie ja ein wenig Zeit daran zu basteln - die final Version von Larrabee war das ja vermutlich noch nicht, auf die sich das Gerücht bezieht.
Wieso Rückschritt? Die HD4870 braucht ebenfalls gut 90W im idle. Da sind 100W gar nicht mehr so weit. Vermutlich eher ein Gerücht von ATI und/oder NVidia, weil die mit ihren Karten keine vernünftigen Stromsparmechanismen hinbekommen. Ich meine die HD 4870 ist bestimmt kaputt und das Stromsparen wird natürlich nicht per Treiber mitgeliefert. Das wird vermutlich so laufen wie mit der 8800GTX damals. Vermutlich hat ATI die Karte kaputt ausgeliefert - ohne funktionierendes Stromsparen - damit die endlich mal einen Veröffentlichungstermin einhalten und nicht wieder um 6-12 Monate zu spät kommen. Und eine Grafikkarte, die im Idle mehr als 10W-20W verbrät, verbraucht zuviel. Die sollte lieber noch einen Mini-Kern mitliefern und den großen ganz abschalten. Bei den 1,4 Mrd Transistoren, die NVidia da ausliefert, sollten 10-20 Mio. für einen kleinen Chip auch noch drin sein.
 
Zurück
Oben