News Intels Larrabee bringt über 1 TFLOPS

mal wieder so viel nicht- bis halbwissen in so wenigen posts
zum einen ist durchaus schon was über den chip und seine architektur bekannt, es gibt benchmarks (natürlich von intel veröffentlichte), und man kann ihn so wie ich das momentan sehe ziemlich weit skalieren - da wäre in der tat der angesprochene energieverbrauch interessant, denn der wird wohl irgendwann die grenze darstellen
einfach mal kurz nach larrabee paper googlen und sich einlesen und aufhören über luftschlösser zu diskutieren :)
 
Weiß man eigentlich schon ob man Intel-Grafikkarten auch auf AMD-Boards verbauen kann?
Wenn ja wäre es interessant zu sehen, ob Spiele mit Larrabee und AMD CPU vielleicht sogar besser laufen, oder ob Intel dort Schranken eingebaut hat, damit die Spiele nur mit Intel CPU richtig gut laufen.
 
cipoint schrieb:
Wenn ich mich nicht täusche, wird bei der x86-Architektur des Larrabee die TFLOP-Leistung in doppelter Genauigkeit gemessen, also 64 bittige FKZ. Bei den Grakas von ATI und Nvidia wird die TFLOP-Leistung dagegen 32 bittig gemessen, da sie keine 64-Bit-FKZ unterstützen.
Das ist falsch. nVidia unterstützt seit dem G200 DP FP, ATI schon länger. Und die TFLOPS Angaben beziehen sich bei Intel wohl auch erstmal auf SP. Intel hat 512 Bit SIMD Einheiten implementiert. Das sind 16 SP FP Werte, die parallel verarbeitet werden können. Wenn wir mal von 32 Kernen bei der ersten Larrabee Generation ausgehen und 2 GHz pro Kern, kommst du eben auf 1 TFLOPS. Der theoretische DP FP Durchsatz läge dann bei 512 GFLOPS.

@der_neue
Nein. Software läuft nicht einfach so ohne Anpassung auf Larrabee. Dafür braucht es auch einen zusätzlichen Software Layer. Insofern ist der Chip auch nicht universeller einsetzbar als die der Konkurrenz. Lediglich das Instruction Set von Larrabee ist aufgrund der Pentium Kerne wohl etwas flexibler.

@topic
Für den professionellen und GPGPU Bereich könnte Larrabee sicherlich interessant werden. Für Spiele sehe ich allerdings keine Konkurrenz. Hier geht es ja nicht nur um Hardware, sondern auch Treiber. Und bei beidem haben ATI und nVidia einfach einen gewaltigen Entwicklungsvorsprung. Die grössten Bedenken habe ich zudem bei der Effizienz. Es hiess ja mal 2 TFLOPS bei 300 W TDP. Das konnte ATI zB schon im vergangenen Jahr mit dem RV770 weitaus besser. Nächstes Jahr, wenn Larrabee vermutlich flächendeckend verfügbar wird, ist man bei der Konkurrenz schon wieder 1-2 Generationen weiter.
 
Plexus schrieb:
Weiß man eigentlich schon ob man Intel-Grafikkarten auch auf AMD-Boards verbauen kann?
Wenn ja wäre es interessant zu sehen, ob Spiele mit Larrabee und AMD CPU vielleicht sogar besser laufen, oder ob Intel dort Schranken eingebaut hat, damit die Spiele nur mit Intel CPU richtig gut laufen.

Was für eine Frage ... kann man AMD Grafikkarten auf Intel Boards verwenden? Gibt es ja auch keine Leistungseinbußen oder? Beides sind x86 Prozessoren wieso sollte die Grafikkarte da Unterschiede machen. Denke so etwas kindisches hat Intel nicht nötig ...
 
Inter möchte einen neuen Markt aufrollen. So dumm, dass sie sich selbst einen Teil des Marktes künstlich beschränken würden, sind sie nicht. Das übernimmt Sony schon seit Jahren sehr gut. ;)
 
theorist schrieb:
In Double Precision schon. Die GTX 285 leistet theoretisch 133 GFlops, die HD 4890 theoretisch 272 GFlops bei doppelter Genauigkeit.

ähhhmmmm denke nicht, ATI oder nV geben soweit ich mich entsinnen kann die TFPLs mit einfacher Präzision an...kann mich natürlich auch täuschen...

BTT wenn der Intel gut skaliert (Performance/Watt) und die Entwicklung der Software (nicht nur Spiele, ich denke da mehr an Bildbearbeitung etc.) entsprechend angepasst wird, denke ich dass Intel (vor allem) mit nV konkurrieren wird/will (die steigen da demnächst auch in den embeddet markt ein)...
 
Einfach mal Informationen streuen die man nicht verwerten kann :D

zum einen, über 1Tflop kann auch 2,3,4Tflop heißen ... oder aber 1-1,3Tflops ca. ...
wenn man von zweiterem Redet, kann es aber kein High-end Markt sein, wenn man High-End mal wirklich so nimmt, wie es eigtl. bedeutet, sind damit lediglich die Dualgpu Karten gemeint, und das der nächsten Generation ... (sprich hohe 1,X Tflops wenn man selbst Dual raus bringt)
Aber wie bereits Festgestellt, und gesagt, Tflop hat nicht viel mit der wirklichen Leistung zu tuen ... wie man daran erkennt das Nvidia bei weniger Tflops ähnliche Leistung bringt wie ATI.



Also sind wir jetzt genauso schlau wie am anfang, Larrabee wird für einen standart Kunden sein, ob der arme Schüler, oder Investitionsfreudige Zocker, wer weiß ...
 
=Floi= schrieb:
Wobei hier nicht wirklich ersichtlich wird, was da genau gerechnet wird. "/w SSE: 8-16"? Was denn nun? DP wäre 8, 16 wäre SP. Oder wird hier SMT mit einbezogen? Dann wäre eine Verdopplung aber mehr als nur theoretisch. Bei den bisherigen SMT Implementierungen in Atom und Nehalem hat sich der Durchsatz maximal um 30-40% erhöht.
Wie auch immer, bei der angestrebten Anzahl der Kerne und Taktrate dürfte der DP Durchsatz deutlich unter 1 TFLOPS liegen, selbst was Peak betrifft.
 
Ich würde mich freuen, wenn Intel zu den 2 anderen Größen stoßen könnte.
Vielleicht gäbe es dann mal ein richtigen Wettbewerb. :D
 
Technische Infos zu Larabee z.B. hier:
http://www.hardware-infos.com/berichte.php?bericht=40&seite=4

Kurzfassung:
- Viele Pentium1-ähnliche Cores(hatte irgendwo mal was von 40 gelesen), jeder Core hat 4fach Hyperthreading.
- Spezielle Befehlserweiterung mit 512bit Registern(16floats/8 doubles parallel) (zum Vergleich: SSE hat 128bit)
- Pro Takt ein Multiply-Add Durchsatz
=> 40(Cores)x16(Registerbreite)x2(Multiply-add) = 1280FLOPS pro Takt im Optimalfall

Angenommen Taktrate ist 1Ghz, wären das 1.28 TFlops.

Textureinheiten sind in Hardware da, die Rasterisierung wird jedoch in Software ausgeführt: Das dürfte z.B. beim Rendern von Schatten(Shadowmaps) einiges an Leistung kosten.

Die Chips von Ati und Nvidia sind darauf ausgelegt, mehrere tausende Threads gleichzeitig zu bearbeiten, bei Larabee sinds nur 160(40x4HT), die dafür schneller abgearbeitet werden.

Wie sich das auf die Performance auswirkt ist schwer abzuschätzen... also abwarten;)
 
Habe ich das richtig verstanden, dass die grafikkarte dann sozusagen im Chipsatz intigriert ist? Oder sind das dann normale PCIe 2-3.0 Karten?
 
Der ist die Leistung einer 4850!
Naja, auf wenn GT300 und RV870 kommen, stark ist Larrabee auf jeden Fall.
 
Der größte Vorteil von Larabee könnte der CPU Ersatz werden, Intel CPUs sind teuer und falls es die Karte schafft die CPU zu ersetzten und gleichzeitig die Grafik zu berechnen relativiert sich der Anschaffungspreis sehr schnell. Im Schnitt rechne ich mal mit 200€ für die CPU die dann wegfällt.

Das Larabee was im Gamingbereich reißen wird, wage ich zu bezweifeln, da spricht einfach viel zu viel dagegen nicht zuletzt das know how von ATI und NV. Im GPGPU Sektor könnte der Larabee allerdings wieder ein neues Tor aufstoßen und ganz neue Wege gehen. Mit nur 64Kernen sind sie auf jeden Fall im grünen Bereich was das Amdahlsche Gesetz angeht.
648px-AmdahlsLaw_german.svg.png

http://de.wikipedia.org/wiki/Amdahlsches_Gesetz
Nichtmal bei Raytracing sehe ich eine Gefahr für aktuelle Grafikkarten die können das auch und wahrscheinlich sogar schneller, abwarten...
 
Ein bisschen spekulieren...ja das ist schön :)

Es wäre zumindest "nett", ihn beim Offline-Rendering als "kleinen Boost" zuzuschalten.
Dort sind aktuelle Grafikkarten praktisch nicht zu gebrauchen.

Ob sich die Karten in dem Bereich auch wirtschaftlich zeigen ? ...abwarten :)
 
@gruffi
Im Prinzip hast du Recht mit dem "Softwarelayer".
Es ist mir aber noch nicht aufgefallen, daß ein "normaler" Prozessor so umfassend auf seine möglichen Einsatzszenarien vorbereitet wird. Das war auch aus den neueren pdf-Dateien zu entnehmen.
Bisher war es eher andersrum.

Es stimmt schon, daß einige Programme in irgendeiner Form angepaßt werden müssen; das war bisher auch so.
Die Änderung nannte sich z.b. "ge-iced", wenn das zugehörige "Plugin" für das Programm installiert wurde. Das lief dann mit den "ICE-boards" um einiges flinker.

Auch gibts verschiedene Lösungen, um GPU-Rechenleistung allgemein nutzbar zu machen.
Allerdings wäre es doch mal interessant zu sehen, wie sich der Cinebench bei Rendern (Bilderzeugung, nicht Darstellung und Abspielen) auf einer normalen Grafikkarte schlagen würde. ;-)
Allerdings ist dieser (wie Cinema 4D auch) nur auf 16 Kerne/Cpu´s beschränkt.

Mein spezifisch genutztes Render-Programm hat kein CPU/Core-Limit.
Es ist einige Programme, die sich alle Prozessorleistung ziehen, die vorhanden ist - ohne extra Änderungen.
Die maximale Skalierung für die CPU´s und Kerne ist allerdings OS-abhängig. Inwieweit da "Treiber" entwickelt werden müssen, um etwas zusammenzufassen ("reverse Hypertreading")... kann man wohl erst später sagen. Das ("*") war übrigens AMD´s Ansatz für deren Prozessoren.

Lassen wir uns überaschen.
 
Zurück
Oben