News Larrabee als Consumer-Grafikkarte ist Geschichte

Screemer schrieb:
...
was spricht gegen komprimierung des zu gelieferten materials mit nem ordentlichen codec?
Der nochmal zusätzliche Rechen- und Stromaufwand.
 
Also in na andern Quelle hörte sich das aber ganz ander an. Da wurde davon gesprochen das larrabee (1) nicht als consumer karte kommen wird, das das projekt jedoch UNVERMINDERT fortgeführt wird und mehrere Software Hersteller bereits multcore systeme erhalten haben, um die softwareseite zu verbessern, während intel selbst die hardwareseite aufpoliert. mal im ernst, intel hat sowohl mit AMD als auch NV große lizenzdeals abgewickelt ... ich vermute, das sie den larrabee 2 für ende 2010 anfang 2011 anvisieren.

btw bin ich immernoch der meinung das der 48 core larrabee 1.5 war

und zum thema "wenn nv pleite geht hat intel ein problem": NOPE! WENN NV pleite geht, hat Intel die günstigste übername ihrer geschichte und AMD wird wieder zum kleinsten player am markt (da amd ja freundlicherweise mit dem ATI deal die kartellrechtlichen probleme eine NV übernahme schon vor einiger zeit beseitigt hatte)
 
was spricht gegen komprimierung des zu gelieferten materials mit nem ordentlichen codec?

Und wo ist dann der vorteil von cloud computing?

Du renderst ein wunderschönes game, wozu man schon enorme rechenleistung braucht.
Dann komprimiert man das ganze, was da es schnell gehen soll nochmal sehr viel rechenleistung braucht und zu einem zusätzlichem lag führt.
Und zu hause muss man es wieder dekomprimieren.

Allein schon der Aufwand 30 Bilder die Sekunde a la 1920x1200 annähernd ohne Zeitverlust zu komprimeren dürfte enorm sein...
Was die kosten für den Endbenutzer weiter in die höhe triebt. Wenn ich dann so 200€ oder mehr im monat abdrücken muss, dann stell ich mir lieber gleich nen PC in haus wie gehabt. ist auch noch günstiger... und effezienter...
 
Dadurch scheint für Intel langfristig der Zug abzufahren. AMD bringt 2011 Fusion raus, der eine integrierte ATI Grafikkarte hat und auch NVidia will langfristig in diesem Segment einsteigen. Dann wird wohl keiner Intel kaufen, wenn AMD Fusion weit mehr kann, oder Intel muss eben über den Preis kontern, was auch nicht gerade toll ist, was man an AMD zZ gerade sieht. Dann sieht das ganze Geschäft in ein, zwei Jahren wohl ganz anders aus und AMD und Nvidia werden die Krone unter sich gegen ein schwächeldes Intel ausmachen.
Da hat sich die Übernahme von ATI seitens AMD wohl doch gelohnt.
 
@FoxMcCloud

weil intel die karte nicht in den consumer-markt bringt sondern NUR soft wie hardware weiterentwickelt ist der zug abgefahren?

ist es schlimm wenn ich dieser aussage nicht folgen kann?

ich mein, dass ändert ja nix daran, das sie die forschungsergebnisse haben und manycore nach wir vor massiv vorrantreiben ... ich seh jetzt nciht so den nachteil drin das sie jetzt nciht auf den markt kommen damit o.o~
 
eben. intel hat es nicht nötig, nicht zeitgemäße produkte auf den markt zu werfen. aktuell scheint der hauptnutzen dieser karte wohl eher im gpu-supercomputing bereich zu liegen, wo sie dem fermi das leben schwer machen will. die spieleleistung scheint bei recht teurer und stromhungriger architektur wohl eher mäßig auszufallen, was ich anfangs eigentlich ohnehin angenommen hatte... zwar kann der larrabee gewisse berechnungen in einem bruchteil dessen anstellen, was eine ati oder nvidia brauchen würde, solange aber das hauptkriterium die shaderleistung ist (larrabee 92 (48 x 2 durch ht), cypress 320 5d (1600 theoretisch), fermi 512), dürfte ein teurer larrabee in spielen schlicht zu langsam sein. da ist der rückstand des larrabee noch sehr gravierend, solange die engines auf reine shaderpower setzen.
 
also, dass larrabee nicht im highend markt mithalten können wird, war jedem mit tiefergehenden IT kenntnissen schon länger klar, dafür wären einfach viel zu komplexe treiber nötig, welche auch intel nicht aus dem hut zaubern kann.

zur ähnlichkeit von RockCreek und Larrabee:
beide setzen auf eine große anzahl von Pentium kernen (genaugenommen P55C alias Pentium MMX) und die unterschiedliche kernanzahl ist kein indiz für ihre verschiedenheit, die lässt sich bei beiden designs sehr simpel ändern, ABER RockCreek ist ein reiner X86 32 Chip, während Larrabee zumindest einzelne 64bit Operationen kennt. außerdem sind die Larrabee kerne auf von außen koordiniertes arbeiten ausgelegt, wesswegen er sich wie der cell NICHT als CPU eigent, abgesehen davon, dass die performance pro cpu natürlich bescheiden ist. RockCreek hingegen hat eine Verbindung der kerne über ein netz aus routerknoten, wodurch sich die kerne sehr schnell austauschen können. Aber zumindest die auf den kleinen fertigungsprozess opimierten Pentium Kerne werden wohl kaum zweimal unabhängig entwickelt worden sein, also eine verwandschaft gibts schon, aber auch große unterschiede
 
Die frage ist, in welche Richtung sie die LRB Forschung nun pushen werden. werden sie "traditionelle" hardware integrieren für den 2. anlauf? oder ist der 48core bereits der erste schritt zum 2. versuch und werden sie eher davon aus weiterentwickeln? oder sind sie dabei die packdichte zu erhöhen?

abr wie auch immer sie weitermachen ... LRB1 als entwicklertool rauszubringen ist schlicht genial ... niemand optimiert mehr für 32 kerne ... die entwickler werden GEZWUNGEN mulicore gerecht zu schreiben, was intel ne softwarebasis verschaft in der sie die zahl der kerne (fast) nach belieben erhöhen kann für versuch nummer 2 (dann in 28 oder 22Nm)
 
Zuletzt bearbeitet:
ich könnte mir vorstellen, dass lrb2 neben den vollwertigen x86-kernen noch zusätzlich "primitive" shader zur seite gestellt bekommt, um die brachiale shaderleistung von cypress und fermi erreichen zu können, ohne ein riesiges, unkühlbares monster aus >300 x86ern bauen zu müssen...

oder sie versuchen wirklich einfluss auf die softwareentwicklung zu nehmen um weg von den shaderlastigen engines zu kommen. denn genau hier liegt in ihrer architektur eine enorme schwäche. zwar können die x86er komplexe berechnungen durch befehlssatzerweiterungen extrem schnell und effizient lösen, die klassischen parallelisierten grafikberechnungen aber profitieren davon fast gar nicht, sondern nur von anzahl und takt der shadereinheiten. und da haben ati und nvidia einen enormen quantitativen vorsprung, der eben nur mit so einfachen shadern aufgeholt werden kann.
 
Weilweiter oben gesagt wurde, dass der Larrabee für die Nutzung durch Spiele nicht geeignet sei: ich kann mir gut vorstellen, dass Intel das garnicht möchte sondern im lukrativen Markt für Firmenhardware (mir fällt leider nicht der korrekte ausdruck ein, ich meine professionelle Anwendungen, die in ihrer Verwendbarkeit nicht so von der Shaderazahl abhängig sind) sein Geld verdienen möchte.
 
grundsätzlich gesehen ist LRB für spiele geeignet, aber er wenn er jetzt in dieser stufe kommen würde wie er sollte wäre er wohl nur Mid Range. Das er intels erwartungen nicht erfüllt hat, heisst nicht das er vollkommen ungeeignet war. aber vermutlich hätte er das problem wie der gt200 es gerade hat: zu teuer als Mid-Range zu schwach für high end. nur mit dem unterschied, das er erst auf den markt kommen sollte und nicht kurz vor der ablöse stand. aber ich wette mit euch, im sommer kommen auf einmal news von einem LRB2 und einer verbesserten ray trace engine für 2011.
 
@Qwerty08
Danke wenigstens einer der IT News lesen kann.

Euren ganzen Contras gegen die Cloud sind absolut nicht nachvollziehbar, ihr geht von heutiger Technik aus, lest doch mal richtig, ständig heisst es mehr cores, neue wege der Datenübertragung( HD per bittorrent gefällig, ich glaube 19 oder 20 Mbit hat scho ausgereicht)?), neue wege Arbeitspeicher anzubinden, ab 2011/2012 erste "APU's" X86 fähige GPU's in ca 6-8 Monaten, dann die ganzen Ankündigungen für Supercomputer usw.

Die Cloud macht schon alleine Geheimabkommen wie ACTA völlig überflüssig, sogenannte Raubkopien wird es nicht mehr geben, alles nur noch über digital distrubution, wenn du nicht zahlst bleibt das Bild schwarz, der Einzelhandel und die wegfallenden Einnahmen durch diesen oder die Kosten die für das aufreissen der Strassen entstehen um Leitungen zu verlegen sind nichts um Vergleich zu solch einer Gelddruckmaschine. Das kannst du dann quasi mit der GEZ vergleichen nur viel viel besser weil du für alles abkassierst, Anbindung, Platz in Cloud, jegliche Anwendungen,Spiele/Musik/Filme/News, Support usw. die Möglcihkeit zum abkassieren sind unenedlich und man darf nicht vergessen das dann endlich jeder eine eindeuitige ID im Netz hat und der herrschende Geldadel und die Politik kann endlich die Informationen im Netz nach belieben steuern.
Das geht nicht von heute auf morgen

Und nebenbei schaut euch mal den Spielemarkt genauer an, der PC verliert immer mehr an Bedeutung, Konsolen und vor allem Online Games sind auf dem Vormarsch und damit machen die mehr Umsatz als Blizzard mit WoW.


@Topic
Das Larrabee für den Endkunden nicht kommt ist nicht so schlimm, Entwickler werden damit auch ihren Spass haben und Intel wichtige Erkenntnisse liefern. Viel interessanter ist es doch das AMD das Know How in beiden Bereichen hat CPU und GPU und das wir wahrscheinlich zuerst von AMD eine APU sehen werden und davor hat Intel mit Sicherheit Angst, denn dann könnte sich das Blatt ganz schnell wenden. Das GPU Feld ist soweit ich weiss das reinste Patentminenfeld insbesondere wenn es um den 3D Bereich geht, Intel kann hier also nur Lizenzen erwerben und ich glaube kaum das AMD oder Nvidia Intel wichtige Techniken einfach so überlassen werden oder Intel kauft Nvidia um an das Know How zukommen. Wenn es mit Larrabee 2 nix wird könnte ich mir das gut vorstellen, sonst zieht die Konkurenz davon und es könnte bald heissen AMD oder Nvidia und nicht Intel oder AMD.
 
@-=Azrael=-

vor kurzem gab es eine meldung nachdem NV und INTEL ein großes Lizenzabkommen geschlossen haben, in dem u.a. NV für x86 Lizensen erhalten hat. würde doch SEHR genau in das bild passen, das du grade beschreibst. zumindest im 2. absatz.

was das cloud gespenst angeht ... ich geb ihm 20-30 jahre bis es kommt ... die aktuelle generation ist noch ZU hardware gebunden

meine eltern trennen sich bis heute nciht von ihrem Videorecorder und haben zwar dvd aber verweigern blu ray

ich bin ein spiele fan, aber ich kauf mir nix, wo ich keinen datenträger in händen halte (unabhängg von cd/dvd/blu-ray/ubs-stick/sd-card)

mMn wird erst die nächste generation in dieses Netz gehen und vorher wird es sich nciht durchsetzen. und meine kinder sind dafür in 15-20 jahren relevant vorher ist das nur ein gespenst
 
@-=Azrael=-: bevor das in der spielewelt verwirklicht werden kann, müssen erstmal spieleengines entwickelt werden, die es auch entsprechend nutzen können und leistungsmäßig an die langjährig entwickelte technik von heute heranreichen. das ist ein grundsätzlich anderes system. zugleich muss es mit den heutigen karten vernünftig laufen, da diese einen imensen marktanteil besitzen. sowas kann man nicht einfach ignorieren, wenn man was verkaufen will. und wenn man mal soweit ist, dann sind immernoch die spiele nach heutigem standart in entwicklung. dann vergehen sicherlich noch zwei jahre, bis die ersten lrb-optimierten spiele das licht der welt erblicken.
 
-=Azrael=- schrieb:
...
Und nebenbei schaut euch mal den Spielemarkt genauer an, der PC verliert immer mehr an Bedeutung, Konsolen und vor allem Online Games sind auf dem Vormarsch und damit machen die mehr Umsatz als Blizzard mit WoW.
...
Solche Prognosen gabs vor 10 jahre auch schon - irgendwie ist der PC-Spielemarkt aber trotzdem größer und nicht kleiner geworden. :eek:
 
Kann da über meine Vorredner nur den Kopf schütteln. Wie kann man die Einstellung von Larrabee als Erfolg Intels hinstellen und den Konzern wie immer hochjubeln?

Sehe keine guten Vorzeichen für Intel im Jahr 2010.

- Sinkende Marktanteile in der Prozessorsparte durch Öffnung der Märkte für AMD.
- Immer noch keine diskrete Grafiklösungen die Geld bringen.
- Zu erwartende Strafzahlungen wegen diversen Wettbewerbsverstößen.

Intel Aktien dürften gegenüber AMD Papieren im Jahr 2010 deutlich underperformen.
 
@-=Azrael=-

neue wege der Datenübertragung - lol:
http://www.golem.de/0910/70353.html

weißt du, dass was du hier raufbeschwörst wäre für viele die Internetdikatur schlecht hin.

Zitat:
"endlich jeder eine eindeuitige ID im Netz hat und der herrschende Geldadel und die Politik kann endlich die Informationen im Netz nach belieben steuern. "

Na toll also die völlige Kontrolle - wollen wir ja alle :rolleyes:
Scheint so als würdest du auf Dikaturen stehen + ultra Propaganda im Netz - ich werde jedenfalls solch ein krankes perverses System niemals akzeptieren. Noch dazu wird sich sowas niemals durchsetzen. Es ist jetzt schon fraglich mit dem ganzen DRM Internet zwang. Um nochmal zurückzukommen auf die Bandbreite - ich sag da nur Augen aufmachen - ich kenne unzählige die nur mit DSL light oder 1mbit Wlan DSl herumgurken weil die Telekom noch keine neuen Leitungen verlegt hat. Sowas wird auch nicht in den nächsten Jahren passieren. Aber träumen kannst du ja schonmal von der Matrix uppss meine natürlich CLOUD.


@Topic
Ich fand die Idee von Intel mit dem Larrabee schon immer tollkühn. Man kann doch nicht allen ernsthaft davon überzeugt sein, dass sowas einfach mal konkurrenzfähig ist. Wir haben zwei die sich auf diesem Gebiet spezialisiert haben. Sie haben sehr viele Jahre Erfahrung mit GPUs und natürlich auch weit fortgeschrittene Software dafür entwickelt. Was Intel da abgezogen hat war einfach unnötig. Sie hätten sich von vornherein viel mehr mit dem Thema auseinandersetzen sollen und nicht gleich losbrüllen weil sie ein mögliches Potential gesehen hab.
 
-=Azrael=- schrieb:
Euren ganzen Contras gegen die Cloud sind absolut nicht nachvollziehbar, ihr geht von heutiger Technik aus, ...
Richtig, deshalb wird es keine Clouds geben weil bald jedes Handy für 50 Euro genug Power hat um alles selber zu berechnen.

Die Cloud macht schon alleine Geheimabkommen wie ACTA völlig überflüssig, sogenannte Raubkopien wird es nicht mehr geben, alles nur noch über digital distrubution, wenn du nicht zahlst bleibt das Bild schwarz
Gibts schon, nennt sich Steam und kommt ohne Wölkchen aus.

der Einzelhandel und die wegfallenden Einnahmen durch diesen oder die Kosten die für das aufreissen der Strassen entstehen um Leitungen zu verlegen sind nichts um Vergleich zu solch einer Gelddruckmaschine....
Klar, ne Telekom zahlt Milliarden Euro damit EA, Valve, MS und co ne sicherere Einnahmequelle haben. Absoluter Unsinn was du da verzapfst.
 
Zurück
Oben