News Larrabee als Consumer-Grafikkarte ist Geschichte

CPUs und Mainboards waren gestern.

Und wohin steckt man solch eine Karte, wenn man keine Mainboards mehr benötigt? :D
 
Dann gäbe es aber ordentlich Krieg zwischen AMD/ATi und Intel/nVidia. Jede Seite mit dem vollen CPU/GPU/Chipsatz Programm. Hmmm.
 
@Qwerty08:
ein Video auf BD ist nur deshalb so "klein" weil es entsprechend komprimiert ist. Um niedrige Bitraten zu erreichen musst du aber eine Abfolge von Frames haben, je mehr desto effektiver.
das schließt sich bei Realtime-Anwendungen schonmal aus.
Für FullHD mit h264 brauchst du 10MBit aufwärts, besser Richtung 20. Das ist natürlich ein Mittelwert über den ganzen Film, einzelne Szenen können locker viel mehr brauchen. Du musst also den worst-case übertragen können, nicht den Mittelwert. Ich vermute mal, dass du da selbst bei 50MBit noch Probleme bekommen kannst.

Und konstante 50MBit wird auch in 10 Jahren nur ein Bruchteil der Haushalte haben, von mehr ganz zu schweigen.

PS: Dass der Typ im Video nicht am Server sitzt muss nichts heißen. Ich bin mir sicher, dass sowas in nem lokalen machbar ist, aber da sind 1GBit und konstante Latenzen im 0,x ms-Bereich ja kein Wunschdenken.
 
Dann gäbe es aber ordentlich Krieg zwischen AMD/ATi und Intel/nVidia. Jede Seite mit dem vollen CPU/GPU/Chipsatz Programm. Hmmm.
Ja dann währe Intel unaufhaltsam und endgültig übermächtig(daher währe es gut wenn Intel, NV nicht kaufen muss und erstmal ein paar Jahrzehnte Marktanteile einbüßt), es sei denn AMD schafft es seine Fusionspläne und GPU Forschung in Sachen GPGPU (viel) schneller voran zu treiben.
 
Zuletzt bearbeitet:
Fetter Fettsack schrieb:
Und wohin steckt man solch eine Karte, wenn man keine Mainboards mehr benötigt? :D

Na ins Gehäuse... pfff

24 Pin fürs NT
3 USB für Mouse und Keyboard und das Hub
- Monitoranschlüsse sind ja wohl noch dran :D
-Sata für die HDD

-------------------------------------------------------------

Wat willste mehr? Ist doch alles dran. Mainboard ist auf der Karte (singlechip) und als CPU tuts die GPU über VMware. Das ist das Mindeste, was ich von Nvidia nächstes Jahr erwarte. Alles andere wäre nicht "bahnbrechend".
 
Zuletzt bearbeitet:
flickflack schrieb:
Wat willste mehr? Ist doch alles dran. Mainboard ist auf der Karte (singlechip) und als CPU tuts die GPU über VMware. Das ist das Mindeste, was ich von Nvidia nächstes Jahr erwarte. Alles andere wäre nicht "bahnbrechend".

Und von der Performance sind wir dann da wo wir vor 10 Jahren waren. GPGPU ist zwar super bei massiv Parallelen Berechnungen aber Müll bei "herkömmlichen" Aufgaben.
 
Meine Meinung:

Man hat ein totgeborenes Kind begraben!

Schade/Traurig dennoch muss ich schon sagen...
 
OT: ich frag mich die ganze Zeit schon, ob es nun "bahnbrechend" oder "bannbrechend" heißt. Mal nachschaun....

Ok, peinlich, peinlich, es ist bahnbrechend.


@flickflack

Und welcher halbwegs verbreitete Gehäusetyp hat die passenden Montagemöglichkeiten?
 
Zuletzt bearbeitet:
Dafür nehme man 6 Larabees und klebe sie wie ein Vogelhäuschen zusammen. <- Nein ich rauche nicht!
 
Zuletzt bearbeitet:
Ein Schelm, wer solche Sachen denkt :D
 
Überrascht mich jetzt nicht wirklich und war eigentlich abzusehen, als die ersten Details zu Larrabee durchgesickert sind.
 
Ihr tut ja grade so, als ob Larrabee damit Geschichte ist. Dabei steht da nur, dass in absehbarer Zeit kein Consumer-Produkt kommt.
Larrabees könnten an Entwickler versandt werden, um die nicht vorhandene Software für die noch nicht ausgereifte Hardware zu schreiben.
 
Dann bleibt wenigstens der obere GPU-Markt von Intels tollen Machenschaften befreit. Danke. :rolleyes:
 
Ich glaube, es geht bei Larrabee weniger um das Graphiksegment und viel mehr um das Workstation- und Supercomputing. In diesem Bereich kann der Fermi Intel richtig wehtuen und wird es eher früher als später auch tun. Der Intel CPU droht der Abstieg vom Leistungsträger zum Hilfsprozessor, der nur noch dazu dient, Fermikarten die Umgebung zu verwalten. Es wird interessant zu beobachten, wie Intel mit der Herausvorderung umgeht, insbesondere nachdem zwei wichtige kreativ/innovative Köpfe das Unternehmen verlassen haben.
 
Haha, ich hab’s gewusst! Ich hab es immer gesagt, das nichts draus wird. Und wenn Sie auch ansatzweise geschafft hätten etwas zu Produzieren, hätten sie trotzdem keine Chance gegen NV und ATI, diese schlaffen nämlich auch nicht. Trotzdem muss ich Intel loben, das Intel es probiert hat, die Endkunden zu überraschen das es noch besser und schneller geht, ohne pleite zu gehen.
Ich glaube, das ATI es auch schon von Anfang an gewusst hat, das nichts wird und daher ihre Grakas schon jetzt verkaufen lässt. NV dagegen nicht. Meiner Meinung nach, versuchte NV mit Fermi gegen Larrabee an zutreten. Das bedeutet für mich, das wir uns schon bald auf Fermi freuen können. Aplaus auch für NV, die lassen sich auch nicht so schnell unter kriegen. Jetzt hat jeder genug Zeit, zu zeigen wie die Sache mit Raytracing läuft. Herrlich, einfach nur köstlich!
 
Na toll eine der großen Hoffnungen 2009 stirbt, ist ja klasse. wäre schön wenn Intel noch mit gemischt hätte in großen High End Grafikkarten Segment.

Hoffe das doch noch zufällig der durch bruch kommt bei Intel oder eine Andre Firma unerwartet einsteigt. Der markt muss doch auch sehr groß sein so viele Rechner die es derzeit in der Welt gibt schon.

Aber die Produktionskosten der neuen Werke steigen ja immer mehr deswegen werden wir uns bestimmt auch irgendwann wenn der markt von günstigen Chips gesättigt ist verabschieden können von 10 Euro USB Sticks oder 40 Euro CPUs
 
Ich bin schon etwas überrascht. Auch die Deutlichkeit der Aussage in der News.
Gut, einerseits hätte man sich das auch aus den letzten Larrabee Detail News ableiten können. Das es jetzt so drastisch ist, überrascht mich dennoch.
 
War aber von vornhinein klar gewesen, dass man gegen Firmen wie NVidia und ATI nicht einfach ankommt. So schnell wie die Grafikkarten sich weiter entwicklen hat man da keine Chance. Sowas verschlingt zuviel Ressouren und Geld. Die sollen schön bei CPUs bleiben.
 
Sehr schade, hätte wetten können das Intel die bringt. Gut dann warten wir auf Lab 2 und im Moment nur noch auf Fermi. Brauch ich mich wenigstens nur zwischen zwei zu entscheiden.

Aber ich bin zuversichtlich das sie die noch bringen in 2-3 Jahren. Warten wir einfach ab.

Colud Computer oder auch Woken BS können mir mal so am ... vorbeigehen Hab ich mich in anderen Threads schon zu geäussert.

@ Zombi

Genau das wurde oder könnte man bei AMD auch sagen. Die haben sich das erkauft mit ATI. intel hat es versucht alleine zu stemmen oder dafür auf Einkaufstour zu gehen. Ich finde es super und die werden es noch hinbekommen. Vielleicht nicht mit Lab aber Zeit gesehen.

Vielleicht kauft Intel auch NV. Wer weiss schon. Aber zu sagen die sollen bei CPU bleiben ist wohl mehr als kurzsichtig. Die müssen was machen und auch andere Märkte öffnen und erobern. Denn CPU wird so wie sie ist sterben. In 10 -15 Jahren kann es schon soweit sein. Einfach mal über den Tellerrand gucken.
 
Zuletzt bearbeitet:
Zurück
Oben