Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Intels Larrabee-Grafik ab 2010 konkurrenzfähig?
- Ersteller Wolfgang
- Erstellt am
- Zur News: Intels Larrabee-Grafik ab 2010 konkurrenzfähig?
lobsteron
Cadet 2nd Year
- Registriert
- Mai 2004
- Beiträge
- 18
Ein Monopol hat man nur wenn man der einzige Anbieter auf einem Markt ist.
Da scheint irgendwas komplett an Dir vorbei gegangen zu sein.
Zudem bist Du nicht gewungen Core2Duo Extreme Modelle zu 1000€ zu kaufen, oder? Gibt immer noch genügend Alternativen.
Man MUSS nicht das teuerste kaufen - man KANN wenn man WILL!
Da scheint irgendwas komplett an Dir vorbei gegangen zu sein.
Zudem bist Du nicht gewungen Core2Duo Extreme Modelle zu 1000€ zu kaufen, oder? Gibt immer noch genügend Alternativen.
Man MUSS nicht das teuerste kaufen - man KANN wenn man WILL!
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
ich sehe die ganze entwicklung im moment eher kritisch für ati. nvidia tritt mit seinen aktuellen grafikkarten seit der 8800gtx (also seit 11/2006) leistungsmäßig auf der stelle und lutscht die architektur kommerziell bis zum letzten aus, solange ati leistungsmäßig nicht gefährlich wird. sobald aber ein konkurent auf dem markt erscheint, der weit mehr leistung zu bieten hat, muß nvidia reagieren. dass intel larabee entwickelt, weis nvidia sicher länger als wir und natürlich hat auch nvidia in der zwischenzeit was getan. da liegen die nächsten 3 oder 4 generationen vermutlich schon fertig in der schublade und warten nur darauf in produktion zu gehn.
falls ati bis dahin nicht wieder deutliche fortschritte gemacht hat und zu nvidias aktuellem entwicklungsstand aufschließen kann, wirds imho eng im performance-segment für ati.
intel hat ja in der vergangenheit schon experten und know how bei 3d-labs "eingekauft" und ist nunmal der chip-hersteller nr. 1.
ich denke dass ein deutlicher rückstand zu den beiden ersten am markt schnell das aus für einen der grafikkartenhersteller bedeuten kann. natürlich kann sich bis dahin das kräfteverhältnis ati/nv auch drehen, dann hat nv das problem. intel wird aufgrund seiner enormen recourcen wohl so oder so fuß fassen können. und wenns nicht sofort klappt dann eben später. und der name intel verkauft sich im oem-bereich ohnehin gut.
aber ich glaube dass der führende es so machen wird wie nv aktuell: leistungssteigerung nur so viel wie nötig und so viel geld wie möglich aus jeder chip-generation rausholen. so überlebt der zweite mit leichtem rückstand, aber der dritte kann nicht anders als schritt zu halten, weil der zweite ja nicht auch "warten" kann...
aber die branche ist so schnelllebig, da kann in 1,5 jahren noch ne menge passieren...
falls ati bis dahin nicht wieder deutliche fortschritte gemacht hat und zu nvidias aktuellem entwicklungsstand aufschließen kann, wirds imho eng im performance-segment für ati.
intel hat ja in der vergangenheit schon experten und know how bei 3d-labs "eingekauft" und ist nunmal der chip-hersteller nr. 1.
ich denke dass ein deutlicher rückstand zu den beiden ersten am markt schnell das aus für einen der grafikkartenhersteller bedeuten kann. natürlich kann sich bis dahin das kräfteverhältnis ati/nv auch drehen, dann hat nv das problem. intel wird aufgrund seiner enormen recourcen wohl so oder so fuß fassen können. und wenns nicht sofort klappt dann eben später. und der name intel verkauft sich im oem-bereich ohnehin gut.
aber ich glaube dass der führende es so machen wird wie nv aktuell: leistungssteigerung nur so viel wie nötig und so viel geld wie möglich aus jeder chip-generation rausholen. so überlebt der zweite mit leichtem rückstand, aber der dritte kann nicht anders als schritt zu halten, weil der zweite ja nicht auch "warten" kann...
aber die branche ist so schnelllebig, da kann in 1,5 jahren noch ne menge passieren...
Simpson474
Fleet Admiral
- Registriert
- Sep. 2006
- Beiträge
- 12.803
Ich bezweifle stark, dass die Karte im normalen Raster-Verfahren überhaupt an eine 6 Jahre alte Radeon 9700 Pro rankommen kann. Dafür sind die Recheneinheiten einfach zu komplex. Außerdem wird Larrabee wohl zunächst auch nicht mehr als 16 Cores besitzen, da hat nahezu jede Grafikkarte mehr "spezialisierte" Recheneinheiten.
Die Stärke von Larrabee liegt eher in der Vielseitigkeit. Man könnte die Karte zum Beschleunigen von Ray-Tracing (und das ist auch Intels Haupteinsatzpunkt für Larrabee), Video-Decoding, Video-Encoding, Physikberechnung, usw. verwenden.
Es ist ja auch nicht so, dass Intel der erste ist, der versucht, aus normalen Rechenkernen eine Grafikkarte zu bauen. Rendition hat das bereits 1996 geschafft, nur war es einfach nicht möglich, mit den aufwändigen Recheneinheiten in den Geschwindigkeitsbereich der anderen Grafikkarten zu kommen.
Die Stärke von Larrabee liegt eher in der Vielseitigkeit. Man könnte die Karte zum Beschleunigen von Ray-Tracing (und das ist auch Intels Haupteinsatzpunkt für Larrabee), Video-Decoding, Video-Encoding, Physikberechnung, usw. verwenden.
Es ist ja auch nicht so, dass Intel der erste ist, der versucht, aus normalen Rechenkernen eine Grafikkarte zu bauen. Rendition hat das bereits 1996 geschafft, nur war es einfach nicht möglich, mit den aufwändigen Recheneinheiten in den Geschwindigkeitsbereich der anderen Grafikkarten zu kommen.
nur wird die raytracing technologie nicht von heute auf morgen überall verwendet. Der Käufer würde für sein geld dann bestimmt auch ältere spiele mit kantenglättung und AF spielen aber falls die treiber da unausgereift sind wird er von den XY chips wahrscheinlich nur einen nutzen können ... und selbst da kann die framerate bei schlechten treibern ziemlich einbrechen. (Wobei ich bezweifel das Intel in so kurzer Zeit brauchbare Algorithmen entwickelt.
- Registriert
- Apr. 2004
- Beiträge
- 277
Also, kurz und gut für alle Raytracing ist eine Methode, nicht mehr und nicht weniger.
Wer diese Methode berechnet (CPU, GPU, GPGPU, Co-Prozessor...) steht nirgends geschrieben. Intel lässt Sie momentan über die CPU berechnen (als CPU-Hersteller logisch).
Früher hat auch keiner geglaubtdass Physik von der GPU berechnet werden wird, womöglich gehts bei Raytracing ähnlich.
Wer diese Methode berechnet (CPU, GPU, GPGPU, Co-Prozessor...) steht nirgends geschrieben. Intel lässt Sie momentan über die CPU berechnen (als CPU-Hersteller logisch).
Früher hat auch keiner geglaubtdass Physik von der GPU berechnet werden wird, womöglich gehts bei Raytracing ähnlich.
Steiner_mC
Ensign
- Registriert
- Mai 2007
- Beiträge
- 158
Also mit der Aussage das NV "die nächsten 3 oder 4 generationen vermutlich schon fertig in der schublade hat" wäre ich doch etwas vorsichtiger. Ganz so einfach ist es denn auch für nVidia nicht.
Steiner_mC
Ensign
- Registriert
- Mai 2007
- Beiträge
- 158
Ich vermute einfach mal das Intel mit geballter Rechenpower in Richtung Raytracing entwickelt. Das Verfahren ist einfach genial und angesichts des enorm steigenden Rechenaufwands von Grafikanwendungen auch dringend von nöten. Nicht umsonst fangen NV als auch ATI an ein Haufen Grafikkarten zusammen zu schalten, denn der Rechenaufwand für das Raster-Verfahren wird einfach immer imenser, trotz ausgefeiltester Techniken.
Sollte Raytracing im Jahre 2010 -12 wirklich schon aktuell sein und Intel in die Richtung entwickeln und wider erwarten ATi und NV nicht, siehts gut für Intel aus.
Sollte Raytracing im Jahre 2010 -12 wirklich schon aktuell sein und Intel in die Richtung entwickeln und wider erwarten ATi und NV nicht, siehts gut für Intel aus.
Robo32
Fleet Admiral
- Registriert
- Sep. 2006
- Beiträge
- 23.464
Raytracing kann sich erst durchsätzen, wenn eine grosse Zahl von Spielern diese HW verwendet, aber
- Spiele werden erst dann für Raytracing entwikelt, wenn die HW-Basis da is
- Spieler werden sich diese Karten erst kaufen, wenn es dafür Spiele gibt
Wahrscheinlich werden diese Karten am Anfang mit DX/OGL langsammer sein, daher für Spieler kein Kaufargument ...
Es wird noch schlimmer, als mit DX10 sein.
- Spiele werden erst dann für Raytracing entwikelt, wenn die HW-Basis da is
- Spieler werden sich diese Karten erst kaufen, wenn es dafür Spiele gibt
Wahrscheinlich werden diese Karten am Anfang mit DX/OGL langsammer sein, daher für Spieler kein Kaufargument ...
Es wird noch schlimmer, als mit DX10 sein.
amd und intel werden da schon richtung rt entwickeln.
amd gezwungener maßen um drannzubleiben und intel weil sie mehr markt (grafik) erschließen wollen.
rastergrafik wird ueber kurz oder lang aussterben, besonders wenn man irgendwann die stromkosten in die artikel/benchmarks mit aufnimmt. allerdings werden die vorangestellten probleme beim einstieg dadurch nicht geringer.
eventuell wird es einfach eine zeit lang patches fuer rt geben. es gibt ya auch quake3 und 4 geraytraced. daher kann ich mir das bei anderen spielen auch gut vorstellen. und ich denke auch die zeit kommt mit 2010-1012 gut hin.
amd gezwungener maßen um drannzubleiben und intel weil sie mehr markt (grafik) erschließen wollen.
rastergrafik wird ueber kurz oder lang aussterben, besonders wenn man irgendwann die stromkosten in die artikel/benchmarks mit aufnimmt. allerdings werden die vorangestellten probleme beim einstieg dadurch nicht geringer.
eventuell wird es einfach eine zeit lang patches fuer rt geben. es gibt ya auch quake3 und 4 geraytraced. daher kann ich mir das bei anderen spielen auch gut vorstellen. und ich denke auch die zeit kommt mit 2010-1012 gut hin.
florymonth
Ensign
- Registriert
- Feb. 2008
- Beiträge
- 129
Grafikkarten raytracen besser als Cpus.Wie oft soll das hier eigentlich noch erwähnt werden?
http://www.3dcenter.de/artikel/echtzeit-raytracing-der-universität-des-saarlandesMit Hilfe neuer Algorithmen will die Universität des Saarlandes die Berechnungszeit eines Strahls auf der CPU auf 1000 Takte reduziert bekommen haben. An der zweiten Front, einer GPU-Lösung (via CUDA auf einem G80) koste die gleiche Berechnung zwar etwa 15000 Takte, die Performance sei der CPU trotzdem um Faktor 2 bis 8 überlegen.
OuT.Of.rEAcH
Ensign
- Registriert
- Feb. 2008
- Beiträge
- 159
@ parr der war nice
Mr.Wifi
Banned
- Registriert
- Apr. 2008
- Beiträge
- 1.695
Meiner Meinung nach setzt Intel mit den ganzen Kamikazeaktionen und alleingängen die Zukunft des herkömmlichen PC s als Zockerplattform aufs Spiel.
Wie sollen Programmierer überhaupt gescheite Arbeit machen wenn sie sich dann selbst PC mäßig auf mehrere Plattformen konzentrieren müssen?
Den Preis wird der Zocker zahlen da das ganze Plattformgecrosse dazu führen wird das Spiele in 3 Jahren immer noch aussehen wie von 2006.
Wie sollen Programmierer überhaupt gescheite Arbeit machen wenn sie sich dann selbst PC mäßig auf mehrere Plattformen konzentrieren müssen?
Den Preis wird der Zocker zahlen da das ganze Plattformgecrosse dazu führen wird das Spiele in 3 Jahren immer noch aussehen wie von 2006.
Super genaue Aussage... Die Berechnung von einem Ray dauert mit CUDA 15x mal länger, das ist in etwa das, was ich mir vorgestellt hab, der Punkt ist, dass man das einpaar mal mehr parallel ausführen kann auf der Grafikkarte als auf einem CPU, Tatsache, weil die Grafikkarte bisschen mehr Einheiten hat als die 1, 2 oder 4 von einem CPU, ok einverstanden.
Aber genau dieser Punkt ist nicht mehr gültig wenn du Larrabee anschaust, dank den neuen Befehlen kann die Anzahl der Takte bestimmt noch deutlich gesenkt werden und man hat dann auch deutlich mehr Rechenkerne, ka wieviele sie draufpacken wollen, schätze mal unter 16 geht nichts, sprich damit hätten sie wenn man die Zahlen da oben nimmt, allein nur schon durch die Kerne mind. doppelte Geschwindigkeit gegenüber einer G80, ganz zu schweigen davon, dass wenn man dann komplexere Effekte einbauen will, die Anzahl Takte mit CUDA in die Höhe schnellen wird und durch nicht vorhandenes Caching eine effiziente Implementierung praktisch unmöglich wird...
Aber genau dieser Punkt ist nicht mehr gültig wenn du Larrabee anschaust, dank den neuen Befehlen kann die Anzahl der Takte bestimmt noch deutlich gesenkt werden und man hat dann auch deutlich mehr Rechenkerne, ka wieviele sie draufpacken wollen, schätze mal unter 16 geht nichts, sprich damit hätten sie wenn man die Zahlen da oben nimmt, allein nur schon durch die Kerne mind. doppelte Geschwindigkeit gegenüber einer G80, ganz zu schweigen davon, dass wenn man dann komplexere Effekte einbauen will, die Anzahl Takte mit CUDA in die Höhe schnellen wird und durch nicht vorhandenes Caching eine effiziente Implementierung praktisch unmöglich wird...
Gabb3r_gandalf
Lieutenant
- Registriert
- Jan. 2007
- Beiträge
- 584
tcha amd hat auch viel mit imageproblemen zu kämpfen, aber die angebotenen kampfpreise setzen sich doch immer mehr durch. also ich denke auch das die in dem letzten jahr schon stark gewachsenen vorteile für den verbraucher sich noch stark erweitern werden. wie schon viele fest gestellt haben, war es noch niemals billiger einen spieletauglichen pc zusammen zu stellen. und der markt entwickelt sich nun mal dahin, dass cpu+gpu verschmelzen, doch ich denke grade weil sich nvidia via an board angelt werden auch die das ein doer andere eisen im feuer haben und man sollte nicht unbedingt davon ausgehen, dass sie schlechter dastehen.
auf jeden fall wird es einen netten preiskampf geben und mehr konkurrenz in diesem "monopol"-bereich tut sicher sehhr gut!
auf jeden fall wird es einen netten preiskampf geben und mehr konkurrenz in diesem "monopol"-bereich tut sicher sehhr gut!
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.310
seh ich nicht so, - Intel ist so ziemlich die einzigste Firma die es sich leisten kann auch 5 Jahre mit einem Projekt in die ein oder andere falsche Richtung zu entwickeln. Vielleicht wird im Hinterzimmer gerade ein sich heutige Grafik anlehnendes, oder gar übertreffendes Grafikdemo auf Raytracing Basis entwickelt. Eine Engine dazu haben sie ja bereits (um nebenläuftige Entwicklungen zu fördern die irgendwann vielleicht auf dieser spezial Hardware laufen wird). Und selbige Hardware kommt eben auch von Intel. Wird vielleicht kommen *Glaskugel*
Stellt euch vor Intel revolutioniert auf einen Schlag den Grafikmarkt mit einer Karte + Software die alle staunen lässt, zeigt was machbar ist und wieviel Potential darin steckt. Hätte man eine volkommen spezialisierte GPU die erlaubt, und fast nur erlaubt, Raytracing Algorithmen zu berechnen, ist diese sicher zig mal schneller als ein heutiges 8 Kern System auf dem Quake 3 in grottiger Quali rennt. Intel hat die Mittel dazu eine Abteilung damit zu beschäftigen, Programmierer Jahre lang eine Engine und ein zugehöriges Softwarepaket schreiben lassen aufdessen sich später die Spiele Hersteller bedienen dürfen. Und die Hardware dazu befindet sich sicher schon in einem Frühstadium.
Intel darf nicht den Fehler machen eine Allroundkarte zu bauen. Es kann meiner Meinung nach keine Mischlösung für eine Karte geben. Jede hätte in ihrem Teilbereich ausreichend Reserven. Vielleicht könnte Intel damit trumpfen, dass eine 5 W Raytracing Karte eine heutige 200 W Karte in sowohl Qualität und Geschwindigkeit in den Schatten stellt. Somit beides auf einer Karte integrieren, raytracing wie 0815 GPU. Schon würde jeder nach einer solchen Karte und dem Spielematerial schreien.
Ich denke Raytracing wird kommen, nur dauert es in einem Markt wie der heute Jahre und kostet Mrd. dieses Risiko einzugehen, und demenstrechend träge ist er. Sowas geht nicht von heute auf morgen.
Game Publisher können es sich nicht leisten mal eben ein Raytracing-Spiel zu schreiben, vermutlich weil es einfach noch keine passende Hardware sowie die Soft und Hardware Schnittstellen gibt. Und auch einfach bei nahe 0 anfangen ist alles andere als einfach.
Und Software Raytracing macht eben alles andere als Spaß. Sieht grottig aus, ist zu langsam. Allerdings ist logarithmisches Verhalten bei Polygonen, exakte Spiegelungen etc wie bereits geschrieben von großem, sehr großem Vorteil. Und wenn es einen Kuchen gibt, will Intel das größe Stück.
Edit:
Schon lustig, wenn ich nicht will, dass meine Antwort auf einen Kommentar ausgeblendet wird, muss ich mit + bewerten um der Meute entgegenzuwirken ^^
Griffe ins Klo haben Intel nichmal beim P4 groß geschadet
Stellt euch vor Intel revolutioniert auf einen Schlag den Grafikmarkt mit einer Karte + Software die alle staunen lässt, zeigt was machbar ist und wieviel Potential darin steckt. Hätte man eine volkommen spezialisierte GPU die erlaubt, und fast nur erlaubt, Raytracing Algorithmen zu berechnen, ist diese sicher zig mal schneller als ein heutiges 8 Kern System auf dem Quake 3 in grottiger Quali rennt. Intel hat die Mittel dazu eine Abteilung damit zu beschäftigen, Programmierer Jahre lang eine Engine und ein zugehöriges Softwarepaket schreiben lassen aufdessen sich später die Spiele Hersteller bedienen dürfen. Und die Hardware dazu befindet sich sicher schon in einem Frühstadium.
Intel darf nicht den Fehler machen eine Allroundkarte zu bauen. Es kann meiner Meinung nach keine Mischlösung für eine Karte geben. Jede hätte in ihrem Teilbereich ausreichend Reserven. Vielleicht könnte Intel damit trumpfen, dass eine 5 W Raytracing Karte eine heutige 200 W Karte in sowohl Qualität und Geschwindigkeit in den Schatten stellt. Somit beides auf einer Karte integrieren, raytracing wie 0815 GPU. Schon würde jeder nach einer solchen Karte und dem Spielematerial schreien.
Ich denke Raytracing wird kommen, nur dauert es in einem Markt wie der heute Jahre und kostet Mrd. dieses Risiko einzugehen, und demenstrechend träge ist er. Sowas geht nicht von heute auf morgen.
Game Publisher können es sich nicht leisten mal eben ein Raytracing-Spiel zu schreiben, vermutlich weil es einfach noch keine passende Hardware sowie die Soft und Hardware Schnittstellen gibt. Und auch einfach bei nahe 0 anfangen ist alles andere als einfach.
Und Software Raytracing macht eben alles andere als Spaß. Sieht grottig aus, ist zu langsam. Allerdings ist logarithmisches Verhalten bei Polygonen, exakte Spiegelungen etc wie bereits geschrieben von großem, sehr großem Vorteil. Und wenn es einen Kuchen gibt, will Intel das größe Stück.
Edit:
Schon lustig, wenn ich nicht will, dass meine Antwort auf einen Kommentar ausgeblendet wird, muss ich mit + bewerten um der Meute entgegenzuwirken ^^
Griffe ins Klo haben Intel nichmal beim P4 groß geschadet
Zuletzt bearbeitet:
NUMA
Cadet 3rd Year
- Registriert
- Okt. 2007
- Beiträge
- 38
Kann man bereits sagen, welche Grafikkarten 2010 oder 2011 herauskommen? Sicherlich nicht, bei der Technologiesteigerung der letzten Jahre und der immer schnelleren Ablösung mit neuen Produkten scheint ein Blick in die Zukunft von 3 Jahren recht gewagt.
florymonth
Ensign
- Registriert
- Feb. 2008
- Beiträge
- 129
pezli schrieb:Super genaue Aussage... Die Berechnung von einem Ray dauert mit CUDA 15x mal länger, das ist in etwa das, was ich mir vorgestellt hab, der Punkt ist, dass man das einpaar mal mehr parallel ausführen kann auf der Grafikkarte als auf einem CPU, Tatsache, weil die Grafikkarte bisschen mehr Einheiten hat als die 1, 2 oder 4 von einem CPU, ok einverstanden.
Wer sagt denn,daß die notwendigen Takte nicht auch für Gpus noch massiv gesenkt werden können und das da schon die Fahnenstange erreicht ist???
Demokrator
Banned
- Registriert
- Feb. 2003
- Beiträge
- 2.288
Warum wird dieser Beitrag totgevotet? Man darf sehr wohl gespannt sein!
Intel hat es schon Mal mit diskreten Grafikkarten probiert und musste das Unterfangen dann abbrechen...
PS: ...... kiddies, die alles möglich totvoten, nur bisserl Spass zu haben :S
Intel hat es schon Mal mit diskreten Grafikkarten probiert und musste das Unterfangen dann abbrechen...
PS: ...... kiddies, die alles möglich totvoten, nur bisserl Spass zu haben :S
Ähnliche Themen
- Antworten
- 44
- Aufrufe
- 6.648
- Antworten
- 29
- Aufrufe
- 5.497
- Antworten
- 66
- Aufrufe
- 11.554
- Antworten
- 77
- Aufrufe
- 11.970
- Antworten
- 46
- Aufrufe
- 6.800