News Larrabee als Consumer-Grafikkarte ist Geschichte

Wow wie hier n großteil wieder tönt. Ihr hättet es sicherlich besser gemacht, lächerlich. Scheinbar ist auch vielen nicht klar das Intels Projekt absolut NICHTS mit dem Knowhow von Nvidia und AMD zu tun hat, da es komplett andere Ansätze sind.

Außerdem hätten wir ohne Firmen wie Intel die auch mal n paar Milliarden in so eine Forschung versenken vermutlich immernoch haushohe Rechner die man für 1te Klasse Mathe verwenden kann. Wär schön wenn man manchmal seine geistigen Scheuklappen ein wenig herunterfahren würde, bevor hier Mist abgelassen wird.


@ Topic:
Schade das der Larabee nicht wie erwartet vorankommt, denn das wird auch den Fortschritt in angrenzeden Domänen startk behindern. Generell auch was Many-Core-Computing angeht und auch die dazugehörigen Raytracing Gebiete.

Bleibt zu hoffen, das Intel trotzdem weiter an dem Projekt dranbleibt und mit Larabee2 dann einen guten Wurf landet.
 
Das hat sich ja abgezeichnet, dass das Projekt mit dem Larrabee ne Geldverbrennungsanlage ist.

Forschung juhu - Ist ja bei vielen Firmen so (Pana -> HD-DVD, Sony OLED -naja, vielleicht bekommen sie es noch auf die Reihe; auf einen bezahlbaren Monitor warte ich seit 2007 / 08).
Bis jetzt gabs nur nen 13" für 5000 Franken (3300 Euro).

Hoffentlich gibt das den Leuten bei AMD etwas Motivation, weil bei Intel auch nicht alles zu Gold wird.
 
Zuletzt bearbeitet:
über kurz oder lang wird intel aber schon groß in den grafikkartenmarkt mitmischen, denke ich
 
Intel hat sich mit dem Larabee sicherlich ein sehr ehrgeiziges Ziel vorgenommen, aber meine persönlichen Erwartungen ein konkurrenzfähiges Produkt zu ATI oder Nvidia entwickeln, waren eher gering.
Ich täte es mehr befürworten, wenn Intel mal eine gescheite IGP a la Nvidia Ion oder HD 4200 auf den Markt bringen würde.
 
MountWalker schrieb:
...aber gerade dank GPGPU ist Nvidia und ATI eben in keinerlei Sackgasse sondern offen für jedes alternative renderingverfahren - dank GPGPU kann man auf den Grafikkarten jedes Renderingverfahren berechnen lassen.../QUOTE]

Genau das ist Blödsinn. GPGPU mit aktueller Hardware funktioniert nur in sehr engen Grenzen. Die Hardware von AMD und NVidia sind auf Rendering optimiert, NVidia versucht es gerade etwas Richtung GPGPU zu schieben, aber Raytracing ist nunmal wieder etwas anderes.
Sicherlich kann man da irgendwie Raytracing implementieren, aber die Frage ist auch wie gut das wirklich funktioniert und ob Ansätze wie der von Intel nicht vielleicht doch besser sind.

Man kann doch nicht behaupten, dass AMD und NVidia sich jetzt aus der Sackgasse herauswuchten, nur weil sie es irgendwie geschafft haben, dass man ihre Grafikkarten auch für was anderes benutzen kann. Was wir brauchen ist spezielle Hardware mit der das funktioniert. Rendering funktioniert ja auch auf einer CPU, ist aber wahnsinnig langsam. Ähnlich wird es mit Raytracing auf GPGPUs aussehen.

Grafikkarten bieten zwar einige gute Eigenschaften für Raytracing (schnelle Speicheranbindung), sind aber nun einmal überhaupt nicht auf Raytracing ausgelegt.

[TLR]Snoopy schrieb:
Deine Aussage ist reine Spekulation, weil diese Spekulation nur dann eintreffen kann, wenn AMD und Nvidia nichts machen. Du kannst zu 100% (schade dass es nicht 1 Million Prozent gibt) nicht sagen, was AMD und Nvidia oder andere Firmen planen und machen werden.

Meine Aussage ist keine Spekulation und das habe ich ja auch bereits gesagt. Es ist nämlich Fakt, dass NVidia und AMD im Bereich Raytracing nicht sonderlich aktiv sind. Eigentlich läuft da gar nichts in die Richtung.
Und was andere Firmen planen/machen ist doch für AMD und NVidia egal, bzw. es ist ja sogar eher schädlich.
Aber ich lasse mich gerne eines besseren belehren. Du brauchst mir nur die Raytracing-Prototypen zu zeigen, die AMD und Nvidia in den letzten Jahren so vorgestellt haben.

[TLR]Snoopy schrieb:
Insofern ist deine Aussage nichts wert, sondern nur irgendwie ein Verteidigen der Firma Intel...

Och nö, jetzt nicht schon wieder der olle "Wenn man nicht weiter weiß, dann beschimpfe andere als Fanboy"-Trick.
 
Jetzt kommen die ganzen Besserwisser aus ihren Löchern gekrochen und sagen "ich habs doch gesagt"

Intel war ehrgeizig und scheint seine geschürten Erwartungen nicht zu erfüllen - also warum mit der Produktion beginnen (und Geld rausschmeißen), wenn er wohl nur für einige Spiele tatsächliche Vorteile bringt.
Vllt. kommt in Larrabee 2 noch PowerVR rein (Intel hat es ja schon lange lizensiert) und dann kann das schnell ganz anders aussehen ^^

Egal...
 
@Melkor03:

v.a. darf man auch nicht vergessen: Wenn Larrabee 1 floppt, dann werden viele auch Larrabee 2 nicht kaufen, selbst wenn Larrabee 2 alles in Grund und Boden stampft. Intel ist also gut beraten das Projekt so lange reifen zu lassen bis es bereit ist.
Das Prinzip ist nach wie vor sehr interessant und ich bleibe gespannt darauf wie das Produkt ist, wenn es fertig ist.
 
AMD/ATI und Nvidia konnten nochmal knapp entkommen. Doch sie wissen sehr genau, dass Intel irgendwann zum Angriff blasen wird. Es ist keine Frage ob, sondern nur wann.
 
Na mein Gott, haben sie halt für das erste eine Schlussstrich gezogen, völlig aufgeben wird man dieses Projekt schon allein wegen der investierten Summen nicht.

Weiter oben war zu lesen, dass Intel die "besten" CPUs herstelle und daher besser beraten sei bei diesem seinen ureigenen Bereich zu bleiben. Nun, aber aus was besteht den eine Larrabee-Einheit?:D

Was ist PowerVR?

Und warum sagen hier alle, dass ATi und nVidia gerade noch davongekommen sind? Hab ich da irgendetwas Bannbrechendes verschlafen, das Intel aus dem Ärmel hätte zaubern können?
 
@Fetter Fettsack:
Ja, das, was Du verschlafen heißt, nennt sich Larrabee ;-) Und Real-Time-Raytracing (und bevor einer meint "Real Time Raytracing gibt es schon": ich meine "echtes Raytracing" und nicht die Projekte wo dann 3 Polygone in niedriger Auflösung und extrem wenig Effekten dargestellt werden).
 
^^
Meine Frage zielte eher auf die Eigenschaften des Larrabee ab, aber das scheint also dies Raytracing zu sein. Inwiefern ist diese Technologie geeignet, ATi und nVidia Kopfschmerzen zu bereiten?
 
Jaja ist wohl doch nicht so einfach eine leistungsfähige Grafikkarte zu entwickeln, nichtmal für einen Chipgiganten wie Intel.
 
Die Frage ist wohl eher wo der Anspruch seitens Intel lag. Vielleicht ist das, was da im Labor liegt gar nicht schlecht, für Intel aber nicht gut genug. Intel wollte wohl kaum ne Nvidia/ATi-Kopie hinlegen und vielleicht ist das Teil sogar seiner Zeit vorraus, man kann nur orakeln.
 
Die Frage ist wohl eher wo der Anspruch seitens Intel lag. Vielleicht ist das, was da im Labor liegt gar nicht schlecht, für Intel aber nicht gut genug. Intel wollte wohl kaum ne Nvidia/ATi-Kopie hinlegen und vielleicht ist das Teil sogar seiner Zeit vorraus, man kann nur orakeln.

Und warum glaubst du, dass die Damen und Herren von Intel ein solch erstrebsames Maß an Perfektion haben sollten? Das wäre ein Novum in dieser Branche.
 
Für alle Cloud Skeptiker:

Ein Artikel mit Video aus dem Jahr 2007 serverbasiert auf Ati X1900 (mehreren) gerendert:

(- One R770 GPU can render about 100+ viewports at the quality and size shown in the ‘Treo’ video. When scenes are entirely voxel based, the number of simultaneous viewports is less important than the total rendered area of all the viewports combined.

- The server side rendering system is currently comprised of systems using 8x R770 GPUs ( 8 Gb VRAM, 1.5 Kw power per box).)

http://www.techcrunch.com/2008/08/20/the-truth-behind-liveplaces-photo-realistic-3d-world-and-otoys-rendering-engine/
http://www.youtube.com/watch?v=nydW9XUA5VQ&feature=fvw
Derartige Grafik in einer entsprechend großen VR Welt kann man nicht mehr zu Hause erzeugen. Ab Minute 3(2.Video) kommen dann noch ganz andere Ideen ans Tageslicht. Ein Wandcomputer in der VR Wohnung, voll bedienbar. Second Life läßt grüßen...
http://www.youtube.com/watch?v=nydW9XUA5VQ&feature=fvw


http://www.youtube.com/watch?v=8Y69ovztD40&feature=related
2. Der Typ dort spielt in einem Hotelzimmer (nicht direkt am Server) mit sichtbar geringem Lag Crysis. D.h. für Spiele wie Dragon Age, Warcraft& Co ist das mehr als ausreichend.

Und nochmal zum Märchen dass man eine exorbitant hohe Bandbreite bräuchte. 66 MB/Sek sind ja wohl aberwitzig, mal ausrechnen...dann müssten bei 1920x1080 bei 2,5 h genau 464 GB auf eine Blu-Ray Disc passen. In Wahrheit sind diese High Definition Filmchen aber gerade mal 20-30 GB groß. Und die Komprimierung wird natürlich weit stärker ausfallen. Den Datenstrom bewältigt jedes moderne Handy mit WLAN Anbindung wie man hier sehr schön sieht:
http://www.youtube.com/watch?v=rZyk3wm3Cb0&NR=1
Ergänzung ()

http://www.techcrunch.com/2009/06/16/videos-otoy-in-action-you-have-to-see-this/

und noch eins mit GTA. Eine GPU könne problemlos mehrere Ansichten rendern. Der Tester spricht von einer Viertelsekunde Lag. Das wäre also auch nicht mehr als bei XBOX Live. Und die haben auch reichlich Kundschaft...
 
@Qwerty08: Deine Aussage bezüglich der Bandbreite kann man so absolut nicht stehen lassen. Eine BD ist bereits komprimiert. Wenn der Film nicht komprimiert wäre, würde deine Rechnung hin hauen: Stolze 464GB. Welche auch benötigt werden da das normale 3D Bild natürlich nicht komprimiert ist.

/edit: Für mich hat diese Technik einfach aufgrund des enormen Traffics keinerlei zukunft. Ohne neue Leitungen wird das nix.

/edit2 (ich liebe edits): Dein Beispiel mit dem handy zieht ebenfalls nicht. Die Auflösung von nem Handy ist nen Witz. Das zu streamen ist keine Herrausforderung. Leider verschweigt der Hersteller da jegliche Informationen wie Bitraten. Es ist ein enormer Unterschied ob man 320*240 oder 1920*1200 streamt.
 
Zuletzt bearbeitet:
Ich bin eher der Meinung das die Einigung Intel vs AMD vor ein paar Wochen hier eine Rolle spielt.
Sollte Intel sich dazu darin verpflichtet haben das Projekt einzustellen wäre für AMD der Weg mehr oder weniger frei den gesamten Grafikmarkt in den kommenden 5 Jahren alleine zu beherrschen. AMD hat mehr davon wenn Intel Nvidia bei sich draußen lässt und dazu im Grafik Markt bald keine Rolle mehr spielt als wenn Intel hier noch mitmischen möchte. Wer weis was AMD von den anhängigen Verfahren noch hätte. Bei solch einer Einigung gewinnt AMD einfach sofort viel mehr. Einen fast alleinigen Markt und keine Konkurrenz von Intel.Der Weg zeigt es bereits auf. Für Nvidia lohnen sich Chipsätze nicht mehr, weder bei intel noch AMD und das schrieb ich schon vor einem Jahr. Der Markt wurde nun endgültig aufgeteilt. Nvidia wird dann nur noch den eigenen kleinen Prozi haben. Und selbst hier wird Samsung auf und davon ziehen.
 
Das sind doch mal gute News für ATI und vor allem NV. Fermi kann dann erstmal in Ruhe den lukrativen Serverbereich von hinten aufrollen. Bin da eher skeptisch das Intel das CPU-GPU Zeug(Larrabee) mit extremen Softwareaufwand noch mal so hinbiegen kann, das da irgend wann mal eine gute GPU bei rum kommt. Irgendwie untypisch Intel einen Fehler so früh einzugestehen und ich hätte mich schon darauf gefreut wie sie stolz Fear I mit 60FPS präsentieren. :evillol:
 
@ BestPower

^^ jetzt mal das nicht so schwarz für Nvidia. Die wollen doch im 2010 etwas "Bahnbrechendes" auf den Markt bringen.

Ich glaube da an folgendes Szenario:

G300 Karte mit HDMi und Displayport + 3x USB --> 24pin Stromanschluss und einem Sata Controller auf der Karte. Mit ner angepassten VMware läuft über Cuda alles ->CPUs und Mainboards waren gestern. :freak:
 
Zuletzt bearbeitet:
Zurück
Oben