News Larrabee als Consumer-Grafikkarte ist Geschichte

FredKune schrieb:
....
Genau das ist Blödsinn. GPGPU mit aktueller Hardware funktioniert nur in sehr engen Grenzen. ...
Warum genau soll Raytracing auf Larrabee schneller sein, als auf bspw. Fermi? Und warum ist spezialisierte/eingesschränkte Hardware so ungeheuer schlecht, wenn du sie im nächsten Satz schon wieder forderst? Sweeney ist nicht irgendwer, er ist der zweitbedeutendste Echtzeit-3D-Guru auf der Erde und hat schon beachtliche Ahnung davon, wie man 3D Grafik programmiert. Du kannst doch nicht ernsthaft glauben, dass der bedeutendste 3D-Grafik-Gurur, John Carmack, verlautbart, dass Id Tech 6 (was dann so in fünf Jahren rauskommt) eine Voxel-Raycasting-Engine wird, wenn er glauben würde, dass die nur mit Intel Larrabee gut laufen würde.

@ Cloud Computing als Ersatz für Spiele-Rechner

Ich sag nur ein Wort: Input-Lag...

P.S.
Nachtrag zu GPGPU
Wenn GPGPU so schlecht geeignet ist, warum hat AMD dann beim Bulldozer das Verhältnis von Integer- zu Floating-Point-Leistung massiv in Richtung Integer-Leistung verändert?
It really boils down to the sorts of workloads AMD will be running on Bulldozer. If they are indeed mostly integer, then the performance per die area will be quite good and the tradeoff worth it. Part of the integer/FP balance does depend on how quickly the world embraces computing on the GPU however... (AMD Core Counts and Bulldozer: Preparing for an APU World)
 
Zuletzt bearbeitet:
Tekpoint schrieb:
Der markt muss doch auch sehr groß sein so viele Rechner die es derzeit in der Welt gibt schon.
Der Markt ist wesentlich kleiner, als man sich das vorstellt. Wenn noch ein weiterer großer Produzent mit in den Markt eintritt würde das dazu führen, dass über kurz oder lang sich einer wieder verabschiedet. Außerdem müsste man für kurze Zeit die Forschungsmittel durch 3 teilen, sodass der Fortschritt unter Umständen sogar gebremst würde.
 
Nun ja war nach den ersten Ergebnissen doch abzusehen das zumindest als Consumer-Produkt das erstmal nichts wird.
Zum SCC vs LRB ich denke das zumindest die Pentium 1 Kerne die gleichen sind oder zumindest man dort schon erste Erfahrungen hat einbringen können. Letztlich wird LRB für Many-Core schon einiges gebracht haben vielleicht hat Intel genau deshalb diesen Weg gewählt weil für einen reinen Raytracing-Chip hätte es X86 nicht gebraucht und natürlich sollte HPC abgedeckt sein aber auch dafür muss es nicht unbedingt X86 sein mit Cell MIPS und Sparc funktioniert das ja auch scheinbar ;-)
 
Qwerty08 schrieb:



Haste dir mal die Verzögerungen angeschaut, er Drückt Links und es passiert 4-5 Sekunden nichts.

Nein Danke dann Lieber Den PC zu Hause haben. Dann habe ICH noch das Spiel in der Hand.
 
Hm, sollte der nicht evtl. sogar x86 kompatibel sein (der Larrabee) ?

bzw. die 48 Core CPU von Intel hätte ich gern :)
Ich habe derzeit einen AMD Phemom 940 BE ...
Gestern AVCHD (von Full-HJD Camcorder) geschnitten und auf Blu-Ray exportiert.
Hat ja nur 7 Stunden reine Rechenzeit + Brenndauer gebraucht ;(

ICH BRAUCH MANYCORE CPUs !!!!

Wenn schon das Intel Dingens nicht kommt, so hoffe ich das die Schnittprogrammhersteller
mal die CUDA oder die DX11 Schnittstellen benutzen.
Das dauert trotz 4 Core CPU eine mittlere Ewigkeit ;(
 
H€553 schrieb:
Der Markt ist wesentlich kleiner, als man sich das vorstellt. Wenn noch ein weiterer großer Produzent mit in den Markt eintritt würde das dazu führen, dass über kurz oder lang sich einer wieder verabschiedet. Außerdem müsste man für kurze Zeit die Forschungsmittel durch 3 teilen, sodass der Fortschritt unter Umständen sogar gebremst würde.

Der Markt ist keineswegs klein^^ und wird gerade über die indischen- und asiatischen auch weiterhin wachsen. Nur verändert sich der Markt genauso wieder übrige PC Markt in den letzten Jahren sehr stark. Der Markt splittet sich zunehmend auf, hiervon wird vorallem Intel profitieren, da der Großteil aller PCs nur noch Onboard haben wird und sobald deren Onboard für Mutlimedia etc. entsprechend gut ist......
Der PC Spielemarkt gerät ja vorallem durch die Spieleschmieden zunehmend unter Druck. Sprich es wird sehr viel lieber für Konsolen, aufgrund der Raubkopien, entwickelt.

Mfg
 
War mir irgendnwie klar das der Larrabee nicht das wird was man erwartet hatte. Ich denke Intel macht da aber auch nichts falsch wenn sie weiter daran arbeiten und Ihre Software/Treiber verfeinern und natürlich auch die Hardware.

Mit Larrabee 2 wird man wohl schon eher rechnen können. Mal schauen, das Projekt ist definitiv ehrgeizig, aber an Geld fehlt es Intel nicht. Somit sollte das nicht erfüllen des Larrabee kein Beinbruch für Intel sein.
 
ich bin ati fan
aber wenn ich darüber nachdenke finde ich esschade
weil dadurch hätten die preise schön fallen können durch einen 3ten anbieter
 
NVidia und ATi atmen auf.

Das ganze Projekt dürfte Intel ne ganze Stange Geld gekostet haben.
Wunder gibt es halt eben nicht.
 
Letztenendes ist diese Verschieberei der markteinführung ja auch nichts anderes, als was die Welt beim Itanium erlebte. Itanium gibts ja auch noch, also ein Ende des Larrabee-Projekts wird so schnel nicht kommen.
 
blaub4r schrieb:
Haste dir mal die Verzögerungen angeschaut, er Drückt Links und es passiert 4-5 Sekunden nichts.
du hast echt ein lustiges zeitempfinden. 250-500ms input-lage ist das was otoy und andere streaming-dienstliester angeben und ziemlich genau das seh zumindest ich auch im video.

@topic: larrabee werden wir sicher wiedersehen. die haben damit soviel erfahrung im manycore-bereich gesamelt, dass wir da sicher auch noch in zukunft was davon sehen werden.
 
Selbst wenns nur 250ms sind ist das absolut unspielbar.
Wir reden hier ja nicht von 250ms lag zwischen den Infos von Client und Server wie bei normalen Games die den Eindruck vor dem Gerät weniger stark prägen und sich bis zu einem gewissen Maße mit interpolation auch noch übertünchen lassen.
 
nicht jeder hasel spielt shooter und bei allen anderen games ist es nicht so wichtig ob es ne viertel sekunde verzögerung gibt oder ne achtel sekunde...
 
völlig richtig. wie andere schon erwähnt haben gibt es sogar genug leute die shooter mit über 200ms lag zocken und das auch nur oneway. das ist bei den derzeitgen matchmaking-funktionen von vielen konsolen spielen und am pc das erste mal bei mw2 eher standart. ich muss mich nur mal auf us-servern umschauen, da sind genug leute mit 150ms+ unterwegs.
 
200ms netzwerk-lag vielleicht, aber nicht verzögerung zwischen eingabe und bilschirmausgabe, das ist was vollkommen anderes.

Spiel mal nen Shooter mit 200ms, da triffste nicht unbedingt was du anvisierst, aber das ganze reagiert trotzdem subjektiv verlustfrei. Schalt dann mal jegliche Interpolation aus, dann spielst du wie mit 5 Frames pro Sekunde (alles springt), das dürfte spielerisch etwa dem Cloud-Szenario ähneln.

Selbst mit nem simplen Mauszeiger auf ne WoW-Figur klicken könnte da schon extrem schwammig werden.
 
Oh Mann... jetzt dauert das wieder ewig, bis am Markt mal ein wenig Abwechslung Einzug hält...
 
H€553 schrieb:
die Preise sind schon sehr gering, wenn 2 Anbieter auf dem Markt sind. Zwischenzeitlich hat jede verkaufte GTX 260 sogar Verlust gemacht.
Ob man da noch einen 3. Anbieter braucht...
Yep, sehe ich auch so. Wie heisst es so schön, zu viele Köche verderben den Brei. Intel hat ja immer noch mehr als genug Marktanteile aufgrund der IGPs. Da müssen AMD und nVidia erstmal aufholen.

MountWalker schrieb:
Letztenendes ist diese Verschieberei der markteinführung ja auch nichts anderes, als was die Welt beim Itanium erlebte. Itanium gibts ja auch noch, also ein Ende des Larrabee-Projekts wird so schnel nicht kommen.
Fragt sich nur, wie viele Milliarden Gräber sich Intel auf Dauer leisten kann.
 
Der Markt ist keineswegs klein^^ und wird gerade über die indischen- und asiatischen auch weiterhin wachsen. Nur verändert sich der Markt genauso wieder übrige PC Markt in den letzten Jahren sehr stark. Der Markt splittet sich zunehmend auf, hiervon wird vorallem Intel profitieren, da der Großteil aller PCs nur noch Onboard haben wird und sobald deren Onboard für Mutlimedia etc. entsprechend gut ist.....

Gerade AMD sollte von dem Trend stärker profitieren als Intel, da sie im Augenblick die stärkere HArdware zum gleichen Preis in dem breich haben...

@cloud-fans.

Was man auf dem video sieht, kommt vermutlich ausm lokalen netzwerk. und wenn man da bereits nen inputlag von 200-250ms (!) hat, wie wird das dann wohl bei großen entfernungen?

Mal abgesehen davon, das es in Zukunft vllt theoritisch möglich sein wird eine, solch hohe Bandbreite zu generieren aber kabeln oder fasern überallhinzulegen wird unglaublich teuer. Würde sich also nur lohenen wenn sauviele leute cloud-computing nutzen würden.
Was aber nicht unbedingt realistisch ist, wenn ich mir anschaue, das man mehrere HD5870 braucht um das zu berechnen. Dabei ist die Grafik gar nicht mal so toll (wird es in 2-3Jahren auf einer (1) Graka zu hause geben). Der punkt ist, das man sehr viel rechenleistung braucht, um sowas zu berechnen. Und die hardware dazu ist und wird teuer bleiben. Und das heißt, das es auch für den endbenutzer sauteuer wird. und das heißt das können sich net viele leisten. und das heißt es wird keine schnelle flächendeckende Bandbreitenerhöhung durch was auch immer geben, weil dafür kein markt sein wird.
 
Zuletzt bearbeitet:
Blutschlumpf schrieb:
Spiel mal nen Shooter mit 200ms, da triffste nicht unbedingt was du anvisierst, aber das ganze reagiert trotzdem subjektiv verlustfrei. Schalt dann mal jegliche Interpolation aus, dann spielst du wie mit 5 Frames pro Sekunde (alles springt), das dürfte spielerisch etwa dem Cloud-Szenario ähneln.
dem will und kann ich gar nicht widersprechen.

hncam schrieb:
Mal abgesehen davon, das es in Zukunft vllt theoritisch möglich sein wird eine, solch hohe Bandbreite zu generieren aber kabeln oder fasern überallhinzulegen wird unglaublich teuer. Würde sich also nur lohenen wenn sauviele leute cloud-computing nutzen würden.
was spricht gegen komprimierung des zu gelieferten materials mit nem ordentlichen codec?
 
Zuletzt bearbeitet:
Zurück
Oben