Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Larrabee so schnell wie GeForce GTX 285?
- Ersteller Wolfgang
- Erstellt am
- Zur News: Larrabee so schnell wie GeForce GTX 285?
Könnte einer en Link posten? ich hab von denen noch nicht viel gesehenNicht nur, dass Intel bereits diverse technische Details zum Grafikchip bekannt gegeben hat
Und, wenn sie schneller oder gleich schnell wie eine 285 ist dann ist Intel auf einen sehr guten Weg. Egal ob schneller oder gleich schnell, wäre schneller als alles andere was Intel bis jetzt gebaut hat und wenn das die erste Gamer Karte ist dann bitte, bin ich auf die zweite gespannt und dann könnten die Dinger richtig gefährlich werden für ATI und NV.
ich würde sagen das es auf den preis auch drauf ankommt wenn die so gut is wie ne 285 aber 100-200€mehr kostet für was würde man sich entscheiden?
Zuletzt bearbeitet:
Sind da P4 Kerne drinn?Nitschi66 schrieb:Es gab hier mal ne News nach der larabee so 300Watt verbrauchen soll
DerZAR
Lt. Junior Grade
- Registriert
- Nov. 2007
- Beiträge
- 505
Schonmal was von objektiv gehört???
Auch im Grafikkartenmarkt ist es wichtig, dass Konkurrenz das Geschäft belebt. So gibt es mehr Angebote und für den Endkunden bessere Preise. Also ist es nur gut, dass es weinen weiteren ernsthaften Grafikkartenhersteller gibt.
Allerdings wird es bei der Larrabee schwierig, da diese enorm vom Treiber abhängt, obwohl die Leistung eines neuen Konzepts schon angeblich mit denen aktueller Chips vergleichbar ist.
Auch im Grafikkartenmarkt ist es wichtig, dass Konkurrenz das Geschäft belebt. So gibt es mehr Angebote und für den Endkunden bessere Preise. Also ist es nur gut, dass es weinen weiteren ernsthaften Grafikkartenhersteller gibt.
Allerdings wird es bei der Larrabee schwierig, da diese enorm vom Treiber abhängt, obwohl die Leistung eines neuen Konzepts schon angeblich mit denen aktueller Chips vergleichbar ist.
Bl4ckbeard
Lt. Junior Grade
- Registriert
- März 2009
- Beiträge
- 352
Immerwieder lustig die Komentare der Intelliebhaber und hasser zulesen.
Eins wird dabei klar die Programmierer haben es in Zukunft noch schwerer, wobei die Spieleplattform PC unintressanter wird.
Eins wird dabei klar die Programmierer haben es in Zukunft noch schwerer, wobei die Spieleplattform PC unintressanter wird.
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Bald Intel only im System (MoBo, Prozzi, Graka, SSD und Netzteil haben sie ja schon, fehlt nur noch der Arbeitsspeicher
Gehäuse(Intel Logo mit $Zeichen beklebt) und ordentliche Soundkarte nicht vergessen

Schreibfehler 2 Buchstaben zuvielwobei die Spieleplattform PC (un)intressanter wird.

Zuletzt bearbeitet:
Sgt.Speirs
Commander
- Registriert
- Mai 2007
- Beiträge
- 2.415
Da Larrabee, wie silent-efficiency schon gesagt hat, Softwarerenderingpipelines hat und nicht feste Renderingpipelines wie ATI/Nvidia hat, ist die Performance mehr von der Programmierung abhängig. Desweiteren weiß noch niemand, wie weit Laarabee die Hardware bereits ausnutzt.Critter schrieb:Man kann mit einem besseren Treiber nicht über die Performance der Hardware hinaus.
@Dese:
killerpixel schrieb, dass Larrabee die Leistung einer GTX285 hat während in der News steht, dass (laut eines Intel-Partners) die Leistung derzeit einer GTX285 aufweißt. Das ist ein kleiner Unterschied. Und ob dies ein Intel-Partner sagt oder Intel selber ist in diesem Fall unrelevant.
Sgt.Speirs schrieb:killerpixel schrieb, dass Larrabee die Leistung einer GTX285 hat während in der News steht, dass (laut eines Intel-Partners) die Leistung derzeit einer GTX285 aufweißt.
Stand da aber nicht dass Larrabee die Leistung haben wird was eine GTX285 hat?
Grob gesagt besteht Larrabee aus vielen x86 kompatiblen Prozessorkernen, die über den Treiber die jeweilige Grafikschnittstelle bedienen (DirectX, OpenGL, etc.). Dieses Konzept eröffnet interessante Möglichkeiten.
_ Intel kann nahezu beliebige Softwareschnittstellen im Treiber unterstützen, ohne die Hardware anpassen zu müssen. Das gilt auch für neuere Versionen bestehender Schnittstellen. Theoretisch heute mit DirectX 10.1 arbeiten, morgen per Treiber Update mit DirectX 11 ...
_ Betriebssysteme und Anwendungen könnten die Prozessorkerne künftig mitnutzen, ohne auf spezielle Schnittstellen angewiesen zu sein, ganz anders als bei nVidias CUDA oder AMDs Stream. Nahezu jede multithreading-fähige Anwendung könnte man im Handumdrehen anpassen.
Ich sehe die Hauptkonkurrenz hier nicht direkt bei den GPU, sondern vielmehr bei CUDA und Stream. Allerdings ist zu erwarten, dass in der ersten Fassung der Energieverbrauch sehr hoch, die Leistung aber im Verhältnis dazu relativ niedrig sein dürfte. Spezialisten wie nVidia und AMD brauchen sich also ersteinmal nicht zu fürchten, auch wenn Larrabee tatsächlich so schnell wie ein heutiger GT200 arbeiten wird.
#Edith verweist auch auf: http://de.wikipedia.org/wiki/Larrabee_(GPU)
_ Intel kann nahezu beliebige Softwareschnittstellen im Treiber unterstützen, ohne die Hardware anpassen zu müssen. Das gilt auch für neuere Versionen bestehender Schnittstellen. Theoretisch heute mit DirectX 10.1 arbeiten, morgen per Treiber Update mit DirectX 11 ...
_ Betriebssysteme und Anwendungen könnten die Prozessorkerne künftig mitnutzen, ohne auf spezielle Schnittstellen angewiesen zu sein, ganz anders als bei nVidias CUDA oder AMDs Stream. Nahezu jede multithreading-fähige Anwendung könnte man im Handumdrehen anpassen.
Ich sehe die Hauptkonkurrenz hier nicht direkt bei den GPU, sondern vielmehr bei CUDA und Stream. Allerdings ist zu erwarten, dass in der ersten Fassung der Energieverbrauch sehr hoch, die Leistung aber im Verhältnis dazu relativ niedrig sein dürfte. Spezialisten wie nVidia und AMD brauchen sich also ersteinmal nicht zu fürchten, auch wenn Larrabee tatsächlich so schnell wie ein heutiger GT200 arbeiten wird.
#Edith verweist auch auf: http://de.wikipedia.org/wiki/Larrabee_(GPU)
Zuletzt bearbeitet:
Winterday;6160575 [B schrieb:_[/B] Betriebssysteme und Anwendungen könnten die Prozessorkerne künftig mitnutzen, ohne auf spezielle Schnittstellen angewiesen zu sein, ganz anders als bei nVidias CUDA oder AMDs Stream. Nahezu jede multithreading-fähige Anwendung könnte man im Handumdrehen anpassen.
Das ist einfach ein anderer Maschinencode. Da meist sowieso in einer Sprache wie C o.ä. programmiert wird sollte es egal sein in welchen Maschinencode der Kompiler die Hochsprache übersetzt. Außerdem ist der x86 Code sehr veraltet. Dass der für Grafikanwendungen taugen soll wundert mich nicht nur etwas.
@KingKarl: Es werden auch mehr Opel als Ferrari verkauft? Und? Wer ein gutes Auto haben will und das Geld hat kauft trotzdem keinen Calibra. ;-)
Leute...es ist ein offnes Geheimnis das Intel einen Fuss bei Toms-Hardware drinne hat .
Die berichten schon seit Jahren nicht mehr neutral !!
Langsam sollten die sich mal umbennen in Intel's-Hardware
Jeder der sich da auskennt weiß das .... !!!!!!!!!
Die berichten schon seit Jahren nicht mehr neutral !!
Langsam sollten die sich mal umbennen in Intel's-Hardware

Jeder der sich da auskennt weiß das .... !!!!!!!!!
@Critter: Die Unterschiede zwischen nVidia/AMD GPU und Intels Larrabee sind grösser als Du meinst. Man kann beispielsweise einen G200 nicht einfach mit C programmieren. Zudem muss bei nVidia die CUDA Schnittstelle genutzt werden.
Larrabee besteht aber praktisch aus modifizierten Pentium Kernen und können x86 Code ausführen. Hier lässt sich sehrwohl ein C Compiler einsetzen, um schnell zum Ziel zu kommen. Das Problem besteht aber nun darin, die vorhandenen Kerne so gut wie nur irgend möglich zu nutzen, und das dürfte gar nicht so leicht sein.
Larrabee besteht aber praktisch aus modifizierten Pentium Kernen und können x86 Code ausführen. Hier lässt sich sehrwohl ein C Compiler einsetzen, um schnell zum Ziel zu kommen. Das Problem besteht aber nun darin, die vorhandenen Kerne so gut wie nur irgend möglich zu nutzen, und das dürfte gar nicht so leicht sein.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.327
@ Winterday
yeah, endlich jemand der kapiert hat. Mich wundert nur dass aus der verhassen x86 Architektur soviel rauszuquetschen ist. Ich dachte einst Larrabee wird ein hochoptimierter Raytracing Prozessor, bzw viele davon. Naja, Parallelisierung heißt wohl der Begriff und der ist äußerst dehnbar.
yeah, endlich jemand der kapiert hat. Mich wundert nur dass aus der verhassen x86 Architektur soviel rauszuquetschen ist. Ich dachte einst Larrabee wird ein hochoptimierter Raytracing Prozessor, bzw viele davon. Naja, Parallelisierung heißt wohl der Begriff und der ist äußerst dehnbar.
Zuletzt bearbeitet:
Öhm, dachte wir wären hier bei CB *zw*Toxi1965 schrieb:Leute...es ist ein offnes Geheimnis das Intel einen Fuss bei Toms-Hardware drinne hat .
Die berichten schon seit Jahren nicht mehr neutral !!
Langsam sollten die sich mal umbennen in Intel's-Hardware![]()
Jeder der sich da auskennt weiß das .... !!!!!!!!!
Ergänzung ()
Winterday schrieb:@Critter: Die Unterschiede zwischen nVidia/AMD GPU und Intels Larrabee sind grösser als Du meinst. Man kann beispielsweise einen G200 nicht einfach mit C programmieren. Zudem muss bei nVidia die CUDA Schnittstelle genutzt werden.
Larrabee besteht aber praktisch aus modifizierten Pentium Kernen und können x86 Code ausführen. Hier lässt sich sehrwohl ein C Compiler einsetzen, um schnell zum Ziel zu kommen. Das Problem besteht aber nun darin, die vorhandenen Kerne so gut wie nur irgend möglich zu nutzen, und das dürfte gar nicht so leicht sein.
#Edith merkt noch an, dass Compiler Hochsprachen-Code (C, C++, Pascal, etc.) in Maschinencode umsetzen, nicht verkehrt herum![]()
Klar gibt es Unterschiede. Aber Cuda und Stream kannst du auch mit C Programmieren. Klar muss man auf einiges achten. Eine Schnittstelle gibt es dann sicher auch bei dem Larrabee.
Zur Edith, ist klar. Oder wie herum hast du das gelesen?
W0lfenstein
Commander
- Registriert
- Apr. 2007
- Beiträge
- 3.066
Wenn das wirklich so sein sollte, dann ein großes GZ an Intel.
Ich meine, einfach mal so quasie aus dem nichts eine GK auf den Markt zu schmeissen die es mit einer 285er aufnehmen könnte ist schon nicht schlecht.
Wie dem auch sei, ich für meinen Teil glaube das Intel weder ATI und Nvidia gefährlich werden kann. ATI und Nvidia haben einfach einige Jahre mehr Erfahrung auf dem Gebiet.
Das kann Intel nunmal nicht so einfach einholen.
Darum gehe ich davon aus das der Launch der GK sicher nicht so reibungslos von statten gehen wird wie es sich Intel wünschen wird.
Alleine schon wegen dem Treibern. ATI und Nvidia haben sogar jetzt noch z.T. Probleme mit denen obwohl sie diese schon seid vielen Jahren programmieren.Und wenn gerade bei den Intel GK's soviel vom Treiber abhängt kann sich jeder ausmahlen wie es zum Launch der Gk ausschauen wird ^^.
Aber wer weiss ? Evtl. wird uns Intel doch noch ganz schön überraschen.
Zumindest wirds interessant werden.
Ich meine, einfach mal so quasie aus dem nichts eine GK auf den Markt zu schmeissen die es mit einer 285er aufnehmen könnte ist schon nicht schlecht.
Wie dem auch sei, ich für meinen Teil glaube das Intel weder ATI und Nvidia gefährlich werden kann. ATI und Nvidia haben einfach einige Jahre mehr Erfahrung auf dem Gebiet.
Das kann Intel nunmal nicht so einfach einholen.
Darum gehe ich davon aus das der Launch der GK sicher nicht so reibungslos von statten gehen wird wie es sich Intel wünschen wird.
Alleine schon wegen dem Treibern. ATI und Nvidia haben sogar jetzt noch z.T. Probleme mit denen obwohl sie diese schon seid vielen Jahren programmieren.Und wenn gerade bei den Intel GK's soviel vom Treiber abhängt kann sich jeder ausmahlen wie es zum Launch der Gk ausschauen wird ^^.
Aber wer weiss ? Evtl. wird uns Intel doch noch ganz schön überraschen.
Zumindest wirds interessant werden.
Ähnliche Themen
- Antworten
- 73
- Aufrufe
- 9.272
- Antworten
- 5
- Aufrufe
- 1.594
- Antworten
- 31
- Aufrufe
- 2.370
- Antworten
- 5
- Aufrufe
- 1.461
- Antworten
- 869
- Aufrufe
- 209.027