News Intels Larrabee-Grafik ab 2010 konkurrenzfähig?

Larrabee gegen den GT 200? Der kommt doch schon bald, wann sollend denn erste Larrabee Karten kommen?
 
@Unyu

Dir ist schon klar, dass, wenn Raytracing mal auf nen Graka läuft viel mehr Vorteile bringen wird als die jetztige Rendermethode?

Lies dir mal den CB Atrike genau durch, vllt schlagst auch bei Wikipedia nach. Raytracing bring einige Vorteile mit sich.

Und das ne aktuelle CPU damit übervordert ist dürfte doch wohl jedem klar sein der die Rechenleistung von CPU und Graka vergleicht!
 
ich kann mir gut vorstellen das nvidia von intel 2010 dick eine in die fresse bekommt :)

intel ist bestimmt rot vor wut wegen dem ganzen zeug was sie sich von nvidia gefallen lassen müssen.

die werden mal dick die taschen öffnen um dem netten nvidia mal zu zeigen was intel so drauf hat :)

wenn das was ich denke passieren könnte wäre das ziemlich hammer für uns da wird dann 4 graka hersteller hätten :)

S3 Graphics, Intel, AMD "Ati", Nvidia

dann der preissturzzzzzz :D
 
Du weißt doch garnicht, was 2010 sein wird. Oder hast du ne Kristallkugel?

Kann genauso gut sein, dass Intel von Nvidia im Grafikbereich die Rübe weggeschlagen bekommt, weil auch Nvidia, also die Konkurenz, nicht schläft und entsprechende Gegenmaßnahmen entwickeln wird.

Leute, bitte bleibt sachlich und spielt nicht den Hellseher.
 
Also der Befehlssatz von Larrabee ist von sich aus viel grösser, CUDA brauchen sie in der Form eigentlich nicht, weil die Kerne auf der Intel-Karte an sich Prozessoren sind, die einen schätze mal abgespeckten Befehlsumfang eine x86-Architektur haben. Da kannst du mehr oder weniger einen normalen x86-Compiler nehmen und mehr oder weniger direkt deine Programme drauf laufen lassen, das ist der Punkt an der ganzen Sache.

Ich kann schon mal sagen, dass Larrabee sicher besser bei den Entwicklern ankommen wird als CUDA, weil man schlichtweg mehr damit anfangen kann. Was am Ende dann genutzt wird oder nicht weiss man dadurch aber noch längst nicht, da spielen zu viele sonstige Faktoren eine Rolle.
 
Deswegen kooperieren ja auch VIA un Nvidia. Zusammen sind die stark gegen Intel und AMD.
Man schue einfach mal auf die Leistung von VIA´s neuem Prozessor.(im Vergleich zu Intels Atom)
 
Hm, Intel packt die CPU auf die Grafikkarte und AMD packt dafür die Grafikkarte in die CPU, wird interessant werden was von beidem besser für den Kunden ist und was das beste Preis/Leistungs verhältnis hat.

Jedenfalls ist der Ring erneut freigegeben für Larrabee vs. Fusion (und man kann nur hoffen, das AMD das nicht in den Sand setzt).
 
Dumm nur, dass die aktuellen gpus auf was anderes ausgelegt sind und somit bei raytracing langsam sind.
Es spielt also nun keine rolle, ob die cpu oder die gpu raytracing optimiert wird.
Genauso kann es sein, dass nun intel die cpu um raytracing erweitert/optimiert.
Das würde fast mehr sinn ergeben als das ne gpu machen zu lassen. Dann rechnen die raytracing cpus die daten aus und eine 50 cent grafikkarte zeichnet einfach nur noch das errechnete bild.

Richtig realisiert kann das nvidia und ati in einer sekunde das leben aushauchen.

Was glaubt ihr, wieso intel mittlerweile daran arbeitet.

Die meisten haben ein brett vor dem kopf und sehen nur
intel vs. amd
oder
nvidia vs. ati

Intel wird da der lachende bei der ganzen sache sein können.
 
Entschuldige bitte, wenn ich dich nicht richtig verstehe?! Du meinst es ist besser eine CPU die Grafikberechnungen machen zu lassen .. ähh .. als ne GPU?
 
wie siehts mit den Preisen für Intel Gpus aus? Intel steht ja nicht gerade für günstige Produkte.

Ich glaube daran wird es dann letzenendes auch scheitern
 
Dein Beitrag ist gut argumentiert aber wie Cabby lehne ich dein Schlusskommentar ab (Der Kulturintendant des Hessischen Rundfunks sagte unserem Kurs unlängst, dass wohl 90% der missratensten Kommentare bei Interviews und anderer Redebeiträge ganz am Schluss gemacht werden).

Spass beiseite: Ich finde, es sieht schon jetzt nicht gut für den Kunden aus. Nvidia spielt mit uns Käufern ein Spiel mit eigenem Regelwerk. Geschwindigkeitssprünge und Preissenkungen werden genau dosiert und häppchenweise an den Verbraucher weitergegeben. Der Käufer einer 6800 Ultra darf sich nicht veräppelt fühlen: das täte er jedoch, wenn das Einsteigermodell der 7000er Serie (ist alles im gewissen Rahmen übertragbar auf andere Generationen) sie schon toppen würde. Also wird Scheibchenweise die neue Produktpalette aufgelegt, immer im Sinne einer Gewinnmaximierung und durch Kastration von Pipellines, Speicherbandbreite oder Speicher usw. angepasst an den Kaufpreis.
Soweit so normal, könnte man da meinen, ABER: In einem funktionierenden Wettbewerb müssten sich die Firmen untereinander dazu zwingen, die besten, schnellsten, preiswertestens Produkte auf den Markt zu werfen. Und gerade das ist nicht mehr der Fall.

Es gibt de facto gerade keinen Wettbewerb im Grafiksegment , Performanceklasse aufwärts. Deswegen mag AMD/ATI nicht als Firma Pleite gehen, aber wir Spieler/Nutzer leiden darunter.

Wann und ob ATI den Vorsprung noch einmal aufholen kann, ist imho fraglich. Zu forschungsintensiv, zu reziprok entwickeln sich Firmendynamiken (Aktienkurs, Personalkarusell, Konkurrenz), als dass Überraschungserfolge noch möglich wären. Die Antwort auf die Frage könnte der Vergleich zwischen dem r700 und dem g200 beeinflusen, aber ehrlich: Wer glaubt, dass ATI den leistungsfähigeren Chip (stromverbrauch?) entwickelt hat?

Und Intel? Ein Einstieg ins obere GPU Segment wäre denkbar, so wie nur Microsoft sein bleischweres Vista absetzen kann: Mit einem langem Atem, also fetten Rücklagen. Aber auf diesem Weg würde, bin ich fest überzeugt, ATI (vielleicht sogar AMD, wenigstens für Spieler), auf der Strecke bleiben. Und dann hätten wir nur einen Zweikampf Intel gegen Nvidia. Interssant fürwahr, aber für uns Kunden? Mittelfristig hui, langfristig pfui.
 
Wenn ich mich recht erinnere wird der Larrabee, dank seiner vielen Kerne, gerade für Raytracing geeignet sein und den sehr interessanten Artikeln von Daniel Pohl hier auf Computerbase (siehe Raytracing in Spielen 2.0) zufolge werden zukünftige Computerspiele nicht mehr auf das Verfahren der Rasterisierung sondern auf Raytracing setzen.

Nun jetzige Grafikkarten (Nvidia,ATi) sind vollkommen auf das Rasterisierungverfahren spezialisiert
und man hat noch nichts davon gehört, dass Nvidia oder ATi in die Richtung Raytracing entwickeln/forschen.
Sollten erste Coputerspiele mit Raytracingtechnik schon 2010 erscheinen könnte der Larrabee Intel einen großen Vorsprung verschaffen.
 
Entschuldige bitte,
die berechnungen, die für raytracing von nöten sind, haben nicht mehr viel mit der alten grafikberechnung zutun.
Außerdem schrieb ich von einer auf raytracingrechnenoperationen optimierten cpu. Es spielt kaum eine rolle ob man eine GPU oder eine CPU umoptimiert.
 
Glaube nicht, dass Intel seine "Lara" konkurrenzfähig bekommt. Naja, schön wärs: Mehr Konkurrenz, kleinere Preise!
Intel und nVidia streiten sich seit Monaten wie die vierjährigen, und dass nur wegen SLI und Larabee...
Naja, gut für uns AMDler.
 
Die hohen Preise und dieser Pseudo-Vorsprung ("Quad-Cores") sind die einzigen Gründe, warum ich Intel nicht mag.
 
Dem schließ ich mich an. Ich bin von der Ray Tracing Technologie auch sehr überzeugt gewesen und würde mich nicht wundern wenn Spieleschmieden in zukunft auch mal ein wenig in diese Richtung entwickeln.

Sollte sich dieses neue Verfahren dann als Durchbruch outen und Larrabee dadurch erstmal einen Vorsprung vor ATi und nVidia haben dann werden die beiden letzteren wohl ziemlich knabbern müssen um ihren Nachteil wieder hinzubiegen.

Intel selber wird dann natürlich weiterhin durchstarten und das richtig gut, da sie ja dann schon Erfahrungen mit der Entwicklung für Ray Tracing gemacht haben.


Man darf gespannt bleiben :)
 
Denke auch das es NV in Zukunft schwerer haben wird, ABER du solltest GPGPU nicht unterschätzen, wenn es NV gelingt die garade zu unendliche Leistung einer GPU durch Cuda in x86 Systemen anwendbar zu machen, sehe ich nur noch Fusionsprojekte dieser Leistung gewachsen, so wie es AMD mit dem Swift(Fusion Stufe 3, ca. 2015) plant, zb. 2CPUKerne 6GPUKerne wobei die GPU Kerne die Hauptleistung abarbeiten.

NV wird dann zb. 2 Via CPU Kerne haben die Leistung reicht locker da die GPUs sowieso die Hauptlast tragen und hier kommt dann das Kow-How von NV zum Zug und das könnte dann vor allen anderen liegen...

Bis jetzt kann jeder nur spekulieren, aber eines ist sicher ES WIRD WIEDER SPANNEND

Abwarten und Tee trinken wie immer (;
 
Zuletzt bearbeitet:
Die Kerne in Larrabee sind mit vielen Extrabefehlen für Grafikberechnungen ausgestattete IA-Prozessoren, kannst sie entweder als flexiblere GPUs oder spezialisiertere CPUs sehen, ein Mittelding zwischen den heutigen Grafikkarten und den CPUs.
Das mag jetzt nicht gut tönen, aber wenn man von der Rasterisierung weggeht, wird diese Flexibilität sehr angenehm. Wohin die Entwicklung geht, merkt man ja, die Shader kriegen bei jedem Update neue Befehle, man baut also die GPUs aus, genau das, was bei Larrabee der Fall ist. Und man hat einen Cache auf der Grafikkarte, unheimlich praktisch, v.a. bei Rekursiven Verfahren - wie z.b. Raytracing ;)
 
Zurück
Oben