News Intels Larrabee-Grafik ab 2010 konkurrenzfähig?

Intel wird noch grössere Schwierigkeiten haben als VIA, da man einfach zu viel will. Die Larabrees sollen eigerlegende-Wollmilchsäue werden, meiner Meinung nach wird das definitiv nicht klappen. Was hinten rauskommen wird kann man schon vorausahnen: Unpassende Hardware und grottenschlechte Treiber oder schlicht ne Powerpoint-Präsentation, weil man die Hardware der Öffentlichkeit nicht zeigen will, weil grottig ohne Ende. So geht das ja jetzt schon immerhin 2 Jahre. Während VIA grade seine Treiber auf einen guten Stand bringt und eine gute Qualität erreicht, sich dabei auf die Märkte konzentriert, auf denen man Chancen hat auch was zu verkaufen, geht Intel einen viel zu offensiven Weg. Geld ist bei einem solchen Projekt eben nicht alles.
 
"Und für RayTracing benötigt man mehr als Quadcores... einiges mehr."

JA Genau! .. man benötigt eine hardwaremäßige Umsetzung. Der ganze Quatsch mit Softwareberechnung per CPU ist halt sehr langsam. Hat man hingegen einen Chip auf dem das in Hardware verdratet ist, fängt es an zu rennen! Siehe zum Beispiel das SaarCOR Projekt, von dem man leider lange nichts mehr gehört hat.

Falls der Larry das mit bringen sollte, wäre das echt klasse. Wahrscheinlich nicht gleich für Spiele, aber Grafikanwendungen könnten profitieren und damit wäre Raytracing in Hardware entlich mal eingeführt.
 
"Das ist etwas für Nehalem"

Und warum? Ist jetzt ein allround Chip(CPU) besser als eine spiezial Chip(GPU)? Was glaubst du , warum damals GPU's gebaut wurden? Sicher nicht, weil man meinte das die Grafikberechunungen auch von der CPU softwareseitig erledigt werden können.
 
Dass man durch Raytracing recht realitätsnahe Licht- und Schattenberechnungen quasi geschenkt bekommt? So wie Spiegelungen (auch mehrfach), Reflexionen, usw. usf. brauchen kaum mehr mit rechenaufwändigen Tricks "simuliert" werden, wie es im Moment der Fall ist, und haben dort eine deutlich höhere Qualität und Realitätsnähe.

Aber natürlich hat Raytracing auch seine Nachteile, allen voran, dass dieser - im Spielesektor - neue Ansatz auch erstmal von den Entwicklern unterstützt werden muss. Und auch, dass es eben auch ordentlich Leistung schluckt. Aber ich glaube kaum etwas profitiert so sehr von mehr Rechenkernen wie Raytracing, daher wird das - rein theoretisch - auf jeden Fall irgendwann marktfähig werden. Ob es sich dann auch durchsetzt ist eben die andere Sache. Aber wenn Intel das nicht schafft - wer dann? ;)
 
Du hast mich nicht exakt verstanden.
Intel hat keine schnelle GPU gehabt, also wurde Raytracing aus der Schublade gekramt. Wie man sieht unendlich langsam auf der schnellsten Intel CPU, namentlich Nehalem.
Dennoch hat Intel damit massiv Werbung gemacht, siehe CB Artikel.

Mir ist sehr wohl klar, warum es GPUs gibt, deshalb schrieb ich doch, das hoffentlich Raytracing/Softwarerendering ein Ende findet. ;)
 
Und man kann es besser auf mehrere cpus verteilen, was ein gigantischer vorteil ist.
 
Spannend würde es werden, wenn Nvidia irgend wann auch CPUs herstellen würde.
Das würde sicherlich den Markt beleben.
 
Nunja, ich denke so scnell wird man nV nicht absägen können, man muss ja auch bedenken, dass nV auch ihre Tulsa Plattform inne hat, die im professionellen Segment Gewinnträchtig sein dürfte. Dennoch sehe ich die Pläne von Intel als ernstzunehmende Konkurrenz an, denn Markführer (quantitativ) sind sie nach wie vor. Und ich vermute, dass es nichtlichtweg Knowhow geben wird.

Ich bin sehr gespannt, ich kann mir unter Umständen vorstellen, dass ich - WENN die Leistung stimmt - relativ schnell wechseln würde. Aber dafür müsste man durchaus erste Tests abwarten.

GuaRdiaN
 
Soll Larrabee eigentlich Platformübergreifend laufen oder wie D3D nur unter Windows?
 
Gesunder Menschenverstand hilft da auch, du MUSST nicht immer das teuerste kaufen.
 
Larrabee hat meiner Ansicht nach sehr viel mit Raytracing zu tun, wenn ich eine Grafikkarte habe, die vollgestopft ist mit sehr vielen x86-ähnlichen CPUs (und v.a. Cache!), was mach ich wohl am besten damit? Richtig, nämlich das, wofür die derzeitigen Grafikkarten nicht wirklich gut geeignet sind: Ray-Tracing. Damit hättest eine Grafikkarte, auf der sich RT sehr effizient berechnen lässt.

@Software-Rendering:
Super, was haben wir heute mit den Shadern neu eingeführt? Genau, Softwarerendering auf den heutigen Grafikkarten... Wir sollen weg davon? Ok, dann wieder zurück zu hässlicher Grafik, bei der man keinen Unterschied zwischen den Engines merkt... höchstens an den anderen Texturen... wir wollen wieder DirectX 6, einfach in schneller...
 
Zuletzt bearbeitet:
Die Frage ist, wie ernst Intel die Sache angeht und wieviel Geld Sie in die Entwicklung pumpen wollen. Bereits in 1. Generation ein konkurrenzfähiges Produkt zu haben wird extrem schwierig. Allerdings mit der notwendigen Hartnäckigkeit kann Intel das sehr wohl schaffen, die nötige Power und das nötige Geld wäre da.
Aus meiner Sicht ist ein Dritter großer Mitbewerber nur wünschenswert, auch wenn es dann für ATI/AMD noch schwieriger wird.
 
Leute überlegt mal wenn intel jetzt auch noch GPU´s baut haben sie die totale Hardwaremonopol bei den Home Pc´s dann diktieren sie den preis und bestimmt nicht nach unten. Siet man jetzt ja schon an den Core2Dou Extrem Modellen die kosten an oder über 1000 Euro, also ich finde das wäre absolut nicht markttauglich und wenn wir wirklich pech haben gehen NVidia oder/und ATI auch noch vor dir hunde und dann haben wir den salat und Komputer wird ein verdammt teures vergnügen.
 
Der Schlamassel mit AMD hat ganz gut gezeigt wie wichtig kleine Strukturbreiten für den Erfolg eines Produktes ist.

Stromverbrauch, Leistung, Produktionskosten...

Außerdem hat Intel Geld um zu investieren. Die werden bestimmt einen konkurrenzfähigen Chip
auf den Markt bringen. Ich persönlich kann mir als Verlierer nur NVidia vorstellen.
Die Marktwächter werden ein Auge drauf werfen, daß AMD nicht untergeht.

Im Moment scheint es auch so, als ob AMD mit Fusion Marktanteile bei CPU's zurückgewinnt.
Die Klage AMD's gegen Intel wird, meiner Meinung nach, ebenfalls eine Menge Geld in die Kassen AMDs spülen.

Das Geld wird AMD gut gebrauchen können um in Forschung zu investieren. Bei den Strukturbreiten
wird früher oder später nichts mehr raus zu holen sein. Dann steht wieder die Frage ins Haus:

Wer produziert den besseren Kern ?
 
Intel fehlt einfach das nötige Know How, um hier einen weltweiten Erfolg feiern zu können. Bis Larrabee was reißen kann, haben Nvidia und ATI bereits 10fach leistungsstärkere Grafikkarte, die darüber hinaus auch noch andere Funktionen beherrschen als nur Pixel zu beschleunigen...Nvidia und ATI schlafen ja schließlich nicht!

Ich denke, Larrabee würde eher für den Massenmarkt taugen, aber für Gamer wären diskrete Grakas immer noch die bessere Wahl und die Zahl der Gamer nimmt bekanntlich immer mehr zu.

Zudem sollte man nicht meinen, Nvidia würde hier als einziger potenzieler Verlierer darstehen. Was wenn z.B. Nividias CUDA Technologie bei den Entwicklern gut ankommt? Was wenn sich die Mehrheit der Entwickler auf CUDA übergehen? Dann hat Intel mit Larrabee ersteinmal verloren.

Am Ende entscheiden die Programmierer, welche Technologie Zukunft hat oder nicht und um diese Gunst kämpfen sowohl Intel als auch Nvidia.
 
Mh naja du schreibst, dass Nvidia der Verlierer sein wird.
Auch wenn es in solch einem Segment eher nicht so schnell der Fall ist, aber:
Wenn Nvidia in ferner Zukunft Pleite geht, wäre das nicht soo gut für den Verbraucher ;)

Dennoch hast du natürlich Recht, Intel hat CPU/Chipsatz/Graka (schon jetzt) und AMD hat CPU/Chipsatz/Graka.
Wenn beide dann mit den Komplettlösungen im gleichen Leistungssegment agieren, könnte es spannend werden.

Die Zukunft wird es zeigen, vielleicht schließen sich ja S3 und Nvidia zusammen und dann gibt's party? :D
 
nWarrior schrieb:
Was wenn z.B. Nividias CUDA Technologie bei den Entwicklern gut ankommt?

Das ist auf jeden Fall die Zukunft, genauso wie CPUGPU Lösungen !

Für den geneigten Spieler aber reicht solch eine Technologie allein nicht aus.
Man wird trotzdem die schnellstmögliche Grafikkartenlösung brauchen.

Und wer sagt, daß Intel keine CUDA ähnliche Technik in Larrabee einbaut.
Meiner Meinung nach, werden die das sogar bestimmt tun !
 
Raytracing ist erstmal wesentlich simpler als Rasterization, also auch weniger Bug-Anfällig.
Spiegelungen lassen sich 100% korrekt darstellen. Sogar Mehrfachspiegelungen sind kein Problem, bei Rasterization dagegen unmöglich.
Außerdem skaliert Raytracing schlicht besser, benötigt also ab einer gewissen Polygonanzahl weniger Rechenleistung.
Ein Problem stellen - wie so oft - Soft Shadows dar, dafür müssten dann pro Lichtquelle dutzende Strahlen verfolgt werden. Die bekommt man bei Rasterization mit Shadow Maps zwar "kostenlos", dafür aber eher hässlich und nicht sehr korrekt.
 
Zurück
Oben