Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Intels Larrabee-Grafik ab 2010 konkurrenzfähig?
- Ersteller Wolfgang
- Erstellt am
- Zur News: Intels Larrabee-Grafik ab 2010 konkurrenzfähig?
@Unyu
Dir ist schon klar, dass, wenn Raytracing mal auf nen Graka läuft viel mehr Vorteile bringen wird als die jetztige Rendermethode?
Lies dir mal den CB Atrike genau durch, vllt schlagst auch bei Wikipedia nach. Raytracing bring einige Vorteile mit sich.
Und das ne aktuelle CPU damit übervordert ist dürfte doch wohl jedem klar sein der die Rechenleistung von CPU und Graka vergleicht!
Dir ist schon klar, dass, wenn Raytracing mal auf nen Graka läuft viel mehr Vorteile bringen wird als die jetztige Rendermethode?
Lies dir mal den CB Atrike genau durch, vllt schlagst auch bei Wikipedia nach. Raytracing bring einige Vorteile mit sich.
Und das ne aktuelle CPU damit übervordert ist dürfte doch wohl jedem klar sein der die Rechenleistung von CPU und Graka vergleicht!
luxx
Lieutenant
- Registriert
- Dez. 2006
- Beiträge
- 703
ich kann mir gut vorstellen das nvidia von intel 2010 dick eine in die fresse bekommt
intel ist bestimmt rot vor wut wegen dem ganzen zeug was sie sich von nvidia gefallen lassen müssen.
die werden mal dick die taschen öffnen um dem netten nvidia mal zu zeigen was intel so drauf hat
wenn das was ich denke passieren könnte wäre das ziemlich hammer für uns da wird dann 4 graka hersteller hätten
S3 Graphics, Intel, AMD "Ati", Nvidia
dann der preissturzzzzzz
intel ist bestimmt rot vor wut wegen dem ganzen zeug was sie sich von nvidia gefallen lassen müssen.
die werden mal dick die taschen öffnen um dem netten nvidia mal zu zeigen was intel so drauf hat
wenn das was ich denke passieren könnte wäre das ziemlich hammer für uns da wird dann 4 graka hersteller hätten
S3 Graphics, Intel, AMD "Ati", Nvidia
dann der preissturzzzzzz
Du weißt doch garnicht, was 2010 sein wird. Oder hast du ne Kristallkugel?
Kann genauso gut sein, dass Intel von Nvidia im Grafikbereich die Rübe weggeschlagen bekommt, weil auch Nvidia, also die Konkurenz, nicht schläft und entsprechende Gegenmaßnahmen entwickeln wird.
Leute, bitte bleibt sachlich und spielt nicht den Hellseher.
Kann genauso gut sein, dass Intel von Nvidia im Grafikbereich die Rübe weggeschlagen bekommt, weil auch Nvidia, also die Konkurenz, nicht schläft und entsprechende Gegenmaßnahmen entwickeln wird.
Leute, bitte bleibt sachlich und spielt nicht den Hellseher.
Also der Befehlssatz von Larrabee ist von sich aus viel grösser, CUDA brauchen sie in der Form eigentlich nicht, weil die Kerne auf der Intel-Karte an sich Prozessoren sind, die einen schätze mal abgespeckten Befehlsumfang eine x86-Architektur haben. Da kannst du mehr oder weniger einen normalen x86-Compiler nehmen und mehr oder weniger direkt deine Programme drauf laufen lassen, das ist der Punkt an der ganzen Sache.
Ich kann schon mal sagen, dass Larrabee sicher besser bei den Entwicklern ankommen wird als CUDA, weil man schlichtweg mehr damit anfangen kann. Was am Ende dann genutzt wird oder nicht weiss man dadurch aber noch längst nicht, da spielen zu viele sonstige Faktoren eine Rolle.
Ich kann schon mal sagen, dass Larrabee sicher besser bei den Entwicklern ankommen wird als CUDA, weil man schlichtweg mehr damit anfangen kann. Was am Ende dann genutzt wird oder nicht weiss man dadurch aber noch längst nicht, da spielen zu viele sonstige Faktoren eine Rolle.
MrEisbaer
Commodore
- Registriert
- März 2007
- Beiträge
- 4.525
Hm, Intel packt die CPU auf die Grafikkarte und AMD packt dafür die Grafikkarte in die CPU, wird interessant werden was von beidem besser für den Kunden ist und was das beste Preis/Leistungs verhältnis hat.
Jedenfalls ist der Ring erneut freigegeben für Larrabee vs. Fusion (und man kann nur hoffen, das AMD das nicht in den Sand setzt).
Jedenfalls ist der Ring erneut freigegeben für Larrabee vs. Fusion (und man kann nur hoffen, das AMD das nicht in den Sand setzt).
GrinderFX
Commander
- Registriert
- Juli 2005
- Beiträge
- 2.249
Dumm nur, dass die aktuellen gpus auf was anderes ausgelegt sind und somit bei raytracing langsam sind.
Es spielt also nun keine rolle, ob die cpu oder die gpu raytracing optimiert wird.
Genauso kann es sein, dass nun intel die cpu um raytracing erweitert/optimiert.
Das würde fast mehr sinn ergeben als das ne gpu machen zu lassen. Dann rechnen die raytracing cpus die daten aus und eine 50 cent grafikkarte zeichnet einfach nur noch das errechnete bild.
Richtig realisiert kann das nvidia und ati in einer sekunde das leben aushauchen.
Was glaubt ihr, wieso intel mittlerweile daran arbeitet.
Die meisten haben ein brett vor dem kopf und sehen nur
intel vs. amd
oder
nvidia vs. ati
Intel wird da der lachende bei der ganzen sache sein können.
Es spielt also nun keine rolle, ob die cpu oder die gpu raytracing optimiert wird.
Genauso kann es sein, dass nun intel die cpu um raytracing erweitert/optimiert.
Das würde fast mehr sinn ergeben als das ne gpu machen zu lassen. Dann rechnen die raytracing cpus die daten aus und eine 50 cent grafikkarte zeichnet einfach nur noch das errechnete bild.
Richtig realisiert kann das nvidia und ati in einer sekunde das leben aushauchen.
Was glaubt ihr, wieso intel mittlerweile daran arbeitet.
Die meisten haben ein brett vor dem kopf und sehen nur
intel vs. amd
oder
nvidia vs. ati
Intel wird da der lachende bei der ganzen sache sein können.
lordnaikon
Ensign
- Registriert
- Apr. 2006
- Beiträge
- 153
Entschuldige bitte, wenn ich dich nicht richtig verstehe?! Du meinst es ist besser eine CPU die Grafikberechnungen machen zu lassen .. ähh .. als ne GPU?
Dein Beitrag ist gut argumentiert aber wie Cabby lehne ich dein Schlusskommentar ab (Der Kulturintendant des Hessischen Rundfunks sagte unserem Kurs unlängst, dass wohl 90% der missratensten Kommentare bei Interviews und anderer Redebeiträge ganz am Schluss gemacht werden).
Spass beiseite: Ich finde, es sieht schon jetzt nicht gut für den Kunden aus. Nvidia spielt mit uns Käufern ein Spiel mit eigenem Regelwerk. Geschwindigkeitssprünge und Preissenkungen werden genau dosiert und häppchenweise an den Verbraucher weitergegeben. Der Käufer einer 6800 Ultra darf sich nicht veräppelt fühlen: das täte er jedoch, wenn das Einsteigermodell der 7000er Serie (ist alles im gewissen Rahmen übertragbar auf andere Generationen) sie schon toppen würde. Also wird Scheibchenweise die neue Produktpalette aufgelegt, immer im Sinne einer Gewinnmaximierung und durch Kastration von Pipellines, Speicherbandbreite oder Speicher usw. angepasst an den Kaufpreis.
Soweit so normal, könnte man da meinen, ABER: In einem funktionierenden Wettbewerb müssten sich die Firmen untereinander dazu zwingen, die besten, schnellsten, preiswertestens Produkte auf den Markt zu werfen. Und gerade das ist nicht mehr der Fall.
Es gibt de facto gerade keinen Wettbewerb im Grafiksegment , Performanceklasse aufwärts. Deswegen mag AMD/ATI nicht als Firma Pleite gehen, aber wir Spieler/Nutzer leiden darunter.
Wann und ob ATI den Vorsprung noch einmal aufholen kann, ist imho fraglich. Zu forschungsintensiv, zu reziprok entwickeln sich Firmendynamiken (Aktienkurs, Personalkarusell, Konkurrenz), als dass Überraschungserfolge noch möglich wären. Die Antwort auf die Frage könnte der Vergleich zwischen dem r700 und dem g200 beeinflusen, aber ehrlich: Wer glaubt, dass ATI den leistungsfähigeren Chip (stromverbrauch?) entwickelt hat?
Und Intel? Ein Einstieg ins obere GPU Segment wäre denkbar, so wie nur Microsoft sein bleischweres Vista absetzen kann: Mit einem langem Atem, also fetten Rücklagen. Aber auf diesem Weg würde, bin ich fest überzeugt, ATI (vielleicht sogar AMD, wenigstens für Spieler), auf der Strecke bleiben. Und dann hätten wir nur einen Zweikampf Intel gegen Nvidia. Interssant fürwahr, aber für uns Kunden? Mittelfristig hui, langfristig pfui.
Spass beiseite: Ich finde, es sieht schon jetzt nicht gut für den Kunden aus. Nvidia spielt mit uns Käufern ein Spiel mit eigenem Regelwerk. Geschwindigkeitssprünge und Preissenkungen werden genau dosiert und häppchenweise an den Verbraucher weitergegeben. Der Käufer einer 6800 Ultra darf sich nicht veräppelt fühlen: das täte er jedoch, wenn das Einsteigermodell der 7000er Serie (ist alles im gewissen Rahmen übertragbar auf andere Generationen) sie schon toppen würde. Also wird Scheibchenweise die neue Produktpalette aufgelegt, immer im Sinne einer Gewinnmaximierung und durch Kastration von Pipellines, Speicherbandbreite oder Speicher usw. angepasst an den Kaufpreis.
Soweit so normal, könnte man da meinen, ABER: In einem funktionierenden Wettbewerb müssten sich die Firmen untereinander dazu zwingen, die besten, schnellsten, preiswertestens Produkte auf den Markt zu werfen. Und gerade das ist nicht mehr der Fall.
Es gibt de facto gerade keinen Wettbewerb im Grafiksegment , Performanceklasse aufwärts. Deswegen mag AMD/ATI nicht als Firma Pleite gehen, aber wir Spieler/Nutzer leiden darunter.
Wann und ob ATI den Vorsprung noch einmal aufholen kann, ist imho fraglich. Zu forschungsintensiv, zu reziprok entwickeln sich Firmendynamiken (Aktienkurs, Personalkarusell, Konkurrenz), als dass Überraschungserfolge noch möglich wären. Die Antwort auf die Frage könnte der Vergleich zwischen dem r700 und dem g200 beeinflusen, aber ehrlich: Wer glaubt, dass ATI den leistungsfähigeren Chip (stromverbrauch?) entwickelt hat?
Und Intel? Ein Einstieg ins obere GPU Segment wäre denkbar, so wie nur Microsoft sein bleischweres Vista absetzen kann: Mit einem langem Atem, also fetten Rücklagen. Aber auf diesem Weg würde, bin ich fest überzeugt, ATI (vielleicht sogar AMD, wenigstens für Spieler), auf der Strecke bleiben. Und dann hätten wir nur einen Zweikampf Intel gegen Nvidia. Interssant fürwahr, aber für uns Kunden? Mittelfristig hui, langfristig pfui.
emerald
Lt. Junior Grade
- Registriert
- Dez. 2004
- Beiträge
- 278
Wenn ich mich recht erinnere wird der Larrabee, dank seiner vielen Kerne, gerade für Raytracing geeignet sein und den sehr interessanten Artikeln von Daniel Pohl hier auf Computerbase (siehe Raytracing in Spielen 2.0) zufolge werden zukünftige Computerspiele nicht mehr auf das Verfahren der Rasterisierung sondern auf Raytracing setzen.
Nun jetzige Grafikkarten (Nvidia,ATi) sind vollkommen auf das Rasterisierungverfahren spezialisiert
und man hat noch nichts davon gehört, dass Nvidia oder ATi in die Richtung Raytracing entwickeln/forschen.
Sollten erste Coputerspiele mit Raytracingtechnik schon 2010 erscheinen könnte der Larrabee Intel einen großen Vorsprung verschaffen.
Nun jetzige Grafikkarten (Nvidia,ATi) sind vollkommen auf das Rasterisierungverfahren spezialisiert
und man hat noch nichts davon gehört, dass Nvidia oder ATi in die Richtung Raytracing entwickeln/forschen.
Sollten erste Coputerspiele mit Raytracingtechnik schon 2010 erscheinen könnte der Larrabee Intel einen großen Vorsprung verschaffen.
GrinderFX
Commander
- Registriert
- Juli 2005
- Beiträge
- 2.249
Entschuldige bitte,
die berechnungen, die für raytracing von nöten sind, haben nicht mehr viel mit der alten grafikberechnung zutun.
Außerdem schrieb ich von einer auf raytracingrechnenoperationen optimierten cpu. Es spielt kaum eine rolle ob man eine GPU oder eine CPU umoptimiert.
die berechnungen, die für raytracing von nöten sind, haben nicht mehr viel mit der alten grafikberechnung zutun.
Außerdem schrieb ich von einer auf raytracingrechnenoperationen optimierten cpu. Es spielt kaum eine rolle ob man eine GPU oder eine CPU umoptimiert.
Kottenpipel
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.186
Glaube nicht, dass Intel seine "Lara" konkurrenzfähig bekommt. Naja, schön wärs: Mehr Konkurrenz, kleinere Preise!
Intel und nVidia streiten sich seit Monaten wie die vierjährigen, und dass nur wegen SLI und Larabee...
Naja, gut für uns AMDler.
Intel und nVidia streiten sich seit Monaten wie die vierjährigen, und dass nur wegen SLI und Larabee...
Naja, gut für uns AMDler.
Kottenpipel
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.186
Die hohen Preise und dieser Pseudo-Vorsprung ("Quad-Cores") sind die einzigen Gründe, warum ich Intel nicht mag.
NoSyMe
Lt. Commander
- Registriert
- März 2008
- Beiträge
- 1.312
Dem schließ ich mich an. Ich bin von der Ray Tracing Technologie auch sehr überzeugt gewesen und würde mich nicht wundern wenn Spieleschmieden in zukunft auch mal ein wenig in diese Richtung entwickeln.
Sollte sich dieses neue Verfahren dann als Durchbruch outen und Larrabee dadurch erstmal einen Vorsprung vor ATi und nVidia haben dann werden die beiden letzteren wohl ziemlich knabbern müssen um ihren Nachteil wieder hinzubiegen.
Intel selber wird dann natürlich weiterhin durchstarten und das richtig gut, da sie ja dann schon Erfahrungen mit der Entwicklung für Ray Tracing gemacht haben.
Man darf gespannt bleiben
Sollte sich dieses neue Verfahren dann als Durchbruch outen und Larrabee dadurch erstmal einen Vorsprung vor ATi und nVidia haben dann werden die beiden letzteren wohl ziemlich knabbern müssen um ihren Nachteil wieder hinzubiegen.
Intel selber wird dann natürlich weiterhin durchstarten und das richtig gut, da sie ja dann schon Erfahrungen mit der Entwicklung für Ray Tracing gemacht haben.
Man darf gespannt bleiben
kasmo
Cadet 4th Year
- Registriert
- Mai 2008
- Beiträge
- 100
Denke auch das Intel bei den Treibern seine Nemesis finden wird. Das geht nunmal nicht von Heute auf Morgen, bei so vielen Spielen, das wird Jahre dauern bis die ausgereift sind...
Abwarten und Tee trinken -> richtig das ist immer eine gute Idee
Abwarten und Tee trinken -> richtig das ist immer eine gute Idee
Zuletzt bearbeitet:
kasmo
Cadet 4th Year
- Registriert
- Mai 2008
- Beiträge
- 100
Denke auch das es NV in Zukunft schwerer haben wird, ABER du solltest GPGPU nicht unterschätzen, wenn es NV gelingt die garade zu unendliche Leistung einer GPU durch Cuda in x86 Systemen anwendbar zu machen, sehe ich nur noch Fusionsprojekte dieser Leistung gewachsen, so wie es AMD mit dem Swift(Fusion Stufe 3, ca. 2015) plant, zb. 2CPUKerne 6GPUKerne wobei die GPU Kerne die Hauptleistung abarbeiten.
NV wird dann zb. 2 Via CPU Kerne haben die Leistung reicht locker da die GPUs sowieso die Hauptlast tragen und hier kommt dann das Kow-How von NV zum Zug und das könnte dann vor allen anderen liegen...
Bis jetzt kann jeder nur spekulieren, aber eines ist sicher ES WIRD WIEDER SPANNEND
Abwarten und Tee trinken wie immer (;
NV wird dann zb. 2 Via CPU Kerne haben die Leistung reicht locker da die GPUs sowieso die Hauptlast tragen und hier kommt dann das Kow-How von NV zum Zug und das könnte dann vor allen anderen liegen...
Bis jetzt kann jeder nur spekulieren, aber eines ist sicher ES WIRD WIEDER SPANNEND
Abwarten und Tee trinken wie immer (;
Zuletzt bearbeitet:
Die Kerne in Larrabee sind mit vielen Extrabefehlen für Grafikberechnungen ausgestattete IA-Prozessoren, kannst sie entweder als flexiblere GPUs oder spezialisiertere CPUs sehen, ein Mittelding zwischen den heutigen Grafikkarten und den CPUs.
Das mag jetzt nicht gut tönen, aber wenn man von der Rasterisierung weggeht, wird diese Flexibilität sehr angenehm. Wohin die Entwicklung geht, merkt man ja, die Shader kriegen bei jedem Update neue Befehle, man baut also die GPUs aus, genau das, was bei Larrabee der Fall ist. Und man hat einen Cache auf der Grafikkarte, unheimlich praktisch, v.a. bei Rekursiven Verfahren - wie z.b. Raytracing
Das mag jetzt nicht gut tönen, aber wenn man von der Rasterisierung weggeht, wird diese Flexibilität sehr angenehm. Wohin die Entwicklung geht, merkt man ja, die Shader kriegen bei jedem Update neue Befehle, man baut also die GPUs aus, genau das, was bei Larrabee der Fall ist. Und man hat einen Cache auf der Grafikkarte, unheimlich praktisch, v.a. bei Rekursiven Verfahren - wie z.b. Raytracing
Ähnliche Themen
- Antworten
- 44
- Aufrufe
- 6.648
- Antworten
- 29
- Aufrufe
- 5.497
- Antworten
- 66
- Aufrufe
- 11.554
- Antworten
- 77
- Aufrufe
- 11.970
- Antworten
- 46
- Aufrufe
- 6.800