News Intel: Larrabee erst im ersten Halbjahr 2010

Naja. Bei bereits bestehenden Programmen wird der Larrabee nachteile gegenüber den AMDs und Nvidias haben. Die Software, die die Grafikkarte nutzt (vorwiegend Spiele) ist darauf ausgelegt mit einer *normalen* Grafikkarte zu arbeiten und nicht mit irgendwelchen x86 Dingern. Daher kann es sogar sein, dass die bisherigen Spiele eher bescheiden laufen. Intel muss aber scheinbar darauf abgezielt haben den Markt der Spieler und Gelegenheitszocker mit zu erobern, da es sonst keinen Sinn hätte mehrere Versionen des Larrabee raus zu bringen. Eine Firma achtet nicht auf 1000€ mehr doer weniger, wenn sie dadurch pro Jahr 20 Arbeitsstunden sparen kann.
Ich bleibe erst einmal bei den herkömmlichen Grafikkarten, bis mich Intel überzeugt hat, falls die das überhaupt schaffen.
 
Bin schon sehr gespannt was Intel da zaubert.

Zwei Dinge haben mich bei den Grafikkarten immer gestört:

Die Karte heizt ständig mit _UND_ ist nur für Spiele zu gebrauchen. Hätte keine Bauchschmerzen mit so einem Teil wenn es statt _UND_ ein _ODER_ wäre aber so?

Intel weiss ja wie man Strom spart (Centrino) und wie man für alle Zwecke nutzbare Leistung zur Verfügung stellt (CPU)...
 
Mal schaun. Ich denke jedenfalls nicht, dass (selbst) Intel daherkommt und einfach mal ATI&nV wegpustet. Dazu ist deren KnowHow- Vorsprung im 3D-Gaming- Bereich einfach zu groß. Qualität der Treiber, Energieeffizienz, Preis/Leistung, Geschwindigkeit in Spielen... wir werden sehen, wie sich Intel da schlägt.
 
Vielleicht setzt sich zusammen mit Larrabee auch mal Raytracing durch. Genügend Kerne solls ja haben, und Raytracing skaliert ja auch ganz gut.
 
@H€553

naja, die CPU SSE Einheiten sind für Grafikberechnungen sicher nicht weniger effizient als die skalaren Shaderprozessoren von GPUs (diese sind immerhin quasi eine Entwicklung hin zu freier Programmierbarkeit und damit in Richtung CPU), sondern schlicht in einer heutigen CPU nicht in der hohen Anzahl vorhanden, was beim Larrabee ja behoben wird (Der x86 Teil ist sicher mit internen Verwaltungsaufgaben beschäftigt und nicht direkt mit der Grafikberechnung).
Natürlich benötigt man auch noch gute spezielle Einheiten (ROPs etc.), aber Intel wird sich darüber sicher Gedanken gemacht haben.
 
NoD.sunrise schrieb:
...dann bleibt nur noch die Frage ob Fehlersuche + Debugging nicht etwas doppelt gemoppelt ist.

Nein Fehlersuche heißt das die Fehler gesucht werden. Beim Debugging werden die gefundenen Fehler behoben.
 
Auf die Leistungsaufnahme bin ich mal gespannt. Für die meissten Spiele dürfte das Teil untauglich sein, aber als Physik-Karte einsame Spitze.

Vermutlich rechnet Intel selbst nicht mit einem Erfolg und sammelt schon mal Know-How für die zweite Generation, die dann der Knaller werden soll.
 
@flickflack:
BTW, wieso verbauen die dort eigentlich 586-like Prozessoren und wieso nimmt man keine aktuelle Architektur mit weniger Cache.

weil aktuelle cpu-kerne viel zu komplex sind. es wird weder mmx noch sse noch sonstwas benötigt. man verwendet ja nicht die fertigungsgrößen und materialien des p1 sondern greift da schon zu modernen materialien und techniken.

ich persönlich halte den larrabee für ein schlechtes konzept, da sich x86 vor allem wegen einem durchgesetzt hat: windows. weder millionen € teure supercomputer noch kleinstcomputer verwenden heute x86-architektur sondern setzten auf risk und amr und auch bei grafikkarten macht x86 bis heute noch keinen sinn. ich vermute eher, dass intel gpgpu im visier hat, wo der larabee deutlich überlegen sein dürfte. denn er kann nicht nur wie gpu viele berechnungen parallel abarbeiten, er kann auch viel komplexere berechnungen anstellen, die eine gpu umständlich und langwierig in kleinen einzelschritten verhackstückt rechnen müssen. der larrabee vereint quasi die vorteile von cpu und gpu in einem chip. ob das ganze aber auch von der kosten und der leistung/watt-seite auch sinnvoll ist, werden erst zukünftige anwendungen zeigen müssen. bei der bestehenden software denke ich aber, wird der larrabee bis auf wenige ausnahmen gegen g300 und rv870 kein land sehen.

sollte das cpu/gpu-konzept jedoch aufgehen, besteht durchaus die chance, dass nvidia, ibm und co mit gpu/risk-kombinationen eine bessere alternative zu bieten haben.
 
Zuletzt bearbeitet:
@Lübke

SSE benötigt der Larrabee nicht nur, sondern sogar in hohem Maße. Denn diese Streaming SIMD Extensions sind eben die schnellen Vectorprozessoren welche für Grafikberechnungen benötigt werden. vgl skalare Shaderprozessoren von GPUs.

weiters muss auch noch gesagt werden, dass jeder x86 Prozessor seit dem Pentium Pro im Grunde eine RISC CPU ist, da die komplexen Hardwarebefehle in RISC Micro OPs umgewandelt und ausgeführt werden.

Weiters besitzen auch klassische RISC Architekturen wie PowerPC oft schon komplexere Erweiterungen wie z.B. AltiVec um Vektorberechnungen zu beschleunigen. Der klassische RISC - CISC Unterschied ist also nicht mehr gegeben, die Unterschiede spielen sich eher bei den Befehlssätzen ab.

mit deinen Supercomputern hast du auch nur mehr bedingt Recht. Unter den Top 10 sind 8 Systeme welche auf x86 Prozessoren setzen (Xeon, Opteron) und davon 7 allein auf x86 Prozessoren. (Der Roadrunner beherbergt auch noch den Cell). Unter den Top 500 setzen 85,8 % auf 64bittige x86 Prozessoren von Intel oder AMD, die anderen Architekturen sind hier also auch eher im Aussterben. -->link

Einzig bei Kleinstgeräten ist z.B. ARM noch führend...

Außerdem entwickeln sich moderne GPUs ja immer weitern hin zu komplexem ausführbaren Code.
Ich glaube der Entwicklungsweg von einer aktuellen CPU hin zu einer aktuellen GPU ist geringer, als von den alten GPU Designs hin zu den aktuellen, daher würde ich die Erfahrungen von nVidia/Ati (ok, AMD hat das nötige CPU Know How) nicht überschätzen.

Die aktuellen GPU Generationen haben mit den alten Ansätzen schließlich nichts mehr zu tun, sind seit DX10 ja quasi komplett neu.

Natürlich muss das alles noch nichts bedeuten, aber die Chancen stehen für Intel sicher nicht ganz schlecht...
 
Zuletzt bearbeitet:
Ich bin ja sehr gespannt auf dieses Produkt, aber zweifelhaft das es überhaupt an den oberen Markt herran kommt.

Erstmal ist es das erste Produkt seiner Art von Intel, AA und AF ist ja nichtmal 1 zu 1 bei ATI und Nvidia zu vergleichen, wie wird es erst mit Intel ...
ATI und Nvidia entwickeln auch weiter, haben da ne menge mehr erfahrung, und werden sicher weiterhin große Leistungszuwächste hinkriegen. im Grafikkartenmarkt kann man es sich nicht Leisten eine Karte lange zu verzögern da die Konkurrenz immer weiter anzieht, also hat man von vornherein riesige Leistungsvorsprünge oder man wird sehr schnell weit hinterher hinken ...
 
Neuere Spezifikationen sprechen von 8 bis 48 Kernen.
Da steht aber nirgendwo, dass Modelle mit 8 oder 48 Kernen für den Launch geplant sind. Wenn du mal genau hinschaust, das ist eine rein technische Betrachtung zur Skalierung. ;)
 
ExcaliburCasi schrieb:
Ich bin ja sehr gespannt auf dieses Produkt, aber zweifelhaft das es überhaupt an den oberen Markt herran kommt.

Erstmal ist es das erste Produkt seiner Art von Intel, AA und AF ist ja nichtmal 1 zu 1 bei ATI und Nvidia zu vergleichen, wie wird es erst mit Intel ...
ATI und Nvidia entwickeln auch weiter, haben da ne menge mehr erfahrung, und werden sicher weiterhin große Leistungszuwächste hinkriegen. im Grafikkartenmarkt kann man es sich nicht Leisten eine Karte lange zu verzögern da die Konkurrenz immer weiter anzieht, also hat man von vornherein riesige Leistungsvorsprünge oder man wird sehr schnell weit hinterher hinken ...

spätestens in der 2. generation wird intel dann aber gleichauf mit denen sein, da intel um einiges mehr geld für forschung und entwicklung zur verfügung stehen ... die können dann einfach mal paar milliönchen investieren und was neues aus dem boden stampfen ;)

hoffe auf eine gute konkurrenzfähigen chip -> mehr wettbewerb -> gut für uns (meinen Geldbeutel xD)
 
@gruffi: Stimmt, da hast du recht! In diesem Bericht steht es aber nun deutlicher: der erste Launch kommt mit 8, 16 und 32 Kernen. Im zweiten Release sind dann sogar 64 Kerne geplant.
 
Wiesi21 schrieb:
Ich glaube der Entwicklungsweg von einer aktuellen CPU hin zu einer aktuellen GPU ist geringer, als von den alten GPU Designs hin zu den aktuellen, daher würde ich die Erfahrungen von nVidia/Ati (ok, AMD hat das nötige CPU Know How) nicht überschätzen.

Das technische Design ist eine Sache, eine andere Sache sind z.B. die Treiber. In dem Bereich können unausgereifte Treiber aus einem technisch guten Produkt ein schlechtes machen. Das KnowHow von AMD und nV besteht nicht nur aus Chipdesign.
 
@karamba

da stimme ich dir vollkommen zu, deshalb spreche ich ja von guten Chancen für Intel, welche sie aber natürlich z.B. durch gute Treiberumsetzungen erst einmal nützen müssen.

Bisher haben sie in diesem Bereich wenig glanzvolles gezeigt, aber ich nehme an bei Larrabee wird sicher mit mehr Aufwand gearbeitet als bei den ohnehin langsamen Chipsatzgpus. Und mit Ausnahme von Grafik
(obwohl ich persönlich auch von keinerlei Problemen berichten kann, immerhin geht auf meinem Netbook mit uralt 950er sogar Spore und Unreal Tournament womit ich nicht gerechnet hatte), sind die Firmwares und Treiber von Intel meist sehr ausgereift.
Man betrachte einfach mal ihren jüngsten Einstieg in eine neue Branche, mit der Herstellung von eigenen SSDs. Hier ist man den "erfahreneren" Herstellern gleich mal weit davon gezogen....
 
Zuletzt bearbeitet:
also wenn ichs richtig verstehe : bei 3d spielen als grafikkarte, und sonst unterstützung für prozessor? ( von wo anders war das glaub ich )
 
@Wiesi21

Ich wollte Intel auch nicht die Kompetenz absprechen. ^^
Wobei sie im SSD Bereich sicher auch ihre Controller- Erfahrung aus den Chipsätzen einfließen lassen können. Und auch dort ist es wieder eher technisches Design.
Lassen wir uns mal überraschen, was sie softwaretechnisch im Gamingbereich hinzaubern. Ich denke aber, dass es wirklich längere Zeit dauern wird, bis Intels Treiber in Bezug auf die volle Bandbreite an Spielen die Qualität aufweisen, wie AMDs und nVs. Denn die basteln da auch schon ziemlich lange dran und Amateure sind das nicht in deren Softwareabteilung. :]
Und ich für meinen Teil mache Treiberexperimente nicht mehr mit. Da hab ich mir damals an der Savage2000 die Finger verbrannt. Die war technisch (trotz Bugs) auch nicht so verkehrt, konnte dies dank mieser Treiber aber nicht umsetzen.
 
Zuletzt bearbeitet:
Zurück
Oben