Beim Raytracing? Und was ist mit der Rechenleistung um diesen Raytracing Baum oder wie auch immer dieses Ding hies zu berechnen?Reaver schrieb:Zur Frage der Skalierung, nach dem Siggraph Paper, benötigen sie 24 CPU-Kerne um 60 fps z.B. in Gears of War zu erreichen.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Larrabee so schnell wie GeForce GTX 285?
- Ersteller Wolfgang
- Erstellt am
- Zur News: Larrabee so schnell wie GeForce GTX 285?
noskill
Lieutenant
- Registriert
- Sep. 2008
- Beiträge
- 925
bnomis1 schrieb:Wenn man bedenkt, wie dreist die Marketingabteilungen dieser Welt so umgehen (denke da an die Leistunghcohrechnung der PS3 und der Xbox 360), dann wundert es mcih gar nciht, das die sagen, das Ding ist so gut wie ne 285.
Noch ein Denkanstoß: die ATi 2900 XTX wa der 8800 GTX in der theoretischen Rechenleistung auch gewaltigüberlegen, in der Realität spielgelte sich nichts davon wieder...
Eben!
Nvidia hat die längste Erfahrung bei den Treibern und ausserdem auch die breiteste Erfahrung, denn im Gegensatz zu ATI, die vielleicht mal einen Treiber für Mac (also unix) entwickelt haben (oder von Apple haben machen lassen?), hat nvidia seit Jahren schon auch komplette Treiberunterstützung für Linux und Unix.
Allerdings bauen die Leute von Intel gerade ihre Grafiktreiber komplett um, es könnte also durchaus sein, dass der Larrabee auch den 3D Markt angreifen soll.
Im Artikel heißt es, dass beim kommenden Larrabee vermehrt der Treiber Rechenaufwand übernimmt, zumindest eine wichtigere Rolle als bei den Konkurrenten AMD und Nvidia spielt.
Heißt das also das bei Nutzung des Larrabees die CPU mehr ausgelastet ist?
Gruß Alex
Heißt das also das bei Nutzung des Larrabees die CPU mehr ausgelastet ist?
Gruß Alex
Suxxess
Admiral
- Registriert
- Feb. 2005
- Beiträge
- 7.213
Die Geforce GTX 285 ist ja auch Schrott und kein High-End-Segment...noch weit von der Performance des High-End-Segment. Derzeit würde Larrabee in etwa die Leistungen einer GeForce GTX 285 aufweisen können.
Entweder differenziert man den Satz und sagt, dass sie beim Raytracing mit der Grafikkarte mithalten soll, oder man lässt den Nebensatz mit der Geforce GTX 285 weg. Aber so macht er keinen Sinn.
Entweder er kann mithalten oder er ist eine lahme Gurke im 3D Spielebereich, beides gleichzeitig geht nicht...
Euphoria
Admiral
- Registriert
- Apr. 2007
- Beiträge
- 9.123
Also wenn er die Leistung einer GTX285 packt ist das Ding schon spitze.
Es soll ja im Grunde onboard Grafik ersetzen und nicht für High End Gaming da sein.
Ich denke das Problem werden RAM und Hitze darstellen, denn soweit ich das verstanden habe wird es den RAM des Rechners nutzen.
Verbrauch wär mal interessant....
Es soll ja im Grunde onboard Grafik ersetzen und nicht für High End Gaming da sein.
Ich denke das Problem werden RAM und Hitze darstellen, denn soweit ich das verstanden habe wird es den RAM des Rechners nutzen.
Verbrauch wär mal interessant....
Kleiner Onkel
Newbie
- Registriert
- Feb. 2009
- Beiträge
- 2
Irgendwie wird Intel zu General Motors der Elektronik Branche. Alles herstellen wollen was geht , nur um noch mehr Geld zu machen.
Naja, über die neue Konkurrenz kann man sich freuen, wenn man nicht weiß wie Intel mit seinen Mitstreitern umgeht.
gruß
Naja, über die neue Konkurrenz kann man sich freuen, wenn man nicht weiß wie Intel mit seinen Mitstreitern umgeht.
gruß
Öhm und warum hat der DIE dann 600mm². Das hört sich schon so an als ob man ganz oben mitmischen will.Arhey schrieb:Es soll ja im Grunde onboard Grafik ersetzen und nicht für High End Gaming da sein.
Wiesi21
Lieutenant
- Registriert
- Aug. 2008
- Beiträge
- 855
Naja, ich bin nach wie vor der Meinung, dass Intel langfristig gesehen den anderen Herstellern das Fürchten lehren wird.
Natürlich ist die Effizienz einer Softwarepipeline lange nicht so hoch wie die einer in Hardware gegossenen. Dafür sind keine Redesigns bzw. neue Chips erforderlich um neue Schnittstellen zu unterstützen.
Intel hat damit das einzig richtige getan, sie verwenden Technologien mit denen sie sehr lange Erfahrungen haben.
Wenn man sich die Qualität der Intel Compiler mal ansieht, und wie sehr sie die Ausnützung ihrer Hardware beherrschen, glaub ich nicht, dass die Treiber das Problem werden.
Bisher hat man sich einfach nicht darauf konzentriert (wozu auf Games optimieren, wenn die Chipsätze ohnehin viel zu schwach sind?)
Larrabee wird einfach eine sehr flexible Hardware für beinahe universellen Einsatz, und genau dorthin bewegen sich die anderen GPU-Hersteller auch mit jedem weiteren Chip. Diese müssen mit jeder neuen Schnittstelle ein neues Hardwaredesign entwerfen, Intel muss stattdessen die Software anpassen und kann in den Chip alle Verbesserungen und Erfahrungen aus dem CPU Bereich (Spartechniken, Herstellungsprozess etc.) einfließen lassen.
Fazit: Ich glaub zwar auch, dass Larrabee bei Erscheinen nicht ganz im High End Bereich aufschlagen wird, aber eine Leistungsteigerung wird viel schneller und einfacher möglich sein, als bei der Konkurrenz (wenn deren künftige Chips ähnlich aufgebaut bleiben wie die aktuellen) vorallem da Larrabee technologiebedingt wohl kaum mit Multi-GPU Problemen zu kämpfen haben wird, da die "Arbeitsaufteilung" eben schon in Software im Treiber passiert und nicht erst auf den einzelnen GPUs/Karten...
in anderen Bereichen wie GPU-Computing kann man wohl auch eine sehr gute Leistung erwarten, da es durch die x86 Architektur möglich wäre, dass der Larrabee der CPU bei allen rechenaufwändigen Arbeitschritten, für welche er geeignet ist, unter die Arme greift, ohne dass Softwarehersteller ihre Programme anpassen müssen. (multithreaded x86 Programme sollten ohne Anpassung laufen)
Natürlich ist die Effizienz einer Softwarepipeline lange nicht so hoch wie die einer in Hardware gegossenen. Dafür sind keine Redesigns bzw. neue Chips erforderlich um neue Schnittstellen zu unterstützen.
Intel hat damit das einzig richtige getan, sie verwenden Technologien mit denen sie sehr lange Erfahrungen haben.
Wenn man sich die Qualität der Intel Compiler mal ansieht, und wie sehr sie die Ausnützung ihrer Hardware beherrschen, glaub ich nicht, dass die Treiber das Problem werden.
Bisher hat man sich einfach nicht darauf konzentriert (wozu auf Games optimieren, wenn die Chipsätze ohnehin viel zu schwach sind?)
Larrabee wird einfach eine sehr flexible Hardware für beinahe universellen Einsatz, und genau dorthin bewegen sich die anderen GPU-Hersteller auch mit jedem weiteren Chip. Diese müssen mit jeder neuen Schnittstelle ein neues Hardwaredesign entwerfen, Intel muss stattdessen die Software anpassen und kann in den Chip alle Verbesserungen und Erfahrungen aus dem CPU Bereich (Spartechniken, Herstellungsprozess etc.) einfließen lassen.
Fazit: Ich glaub zwar auch, dass Larrabee bei Erscheinen nicht ganz im High End Bereich aufschlagen wird, aber eine Leistungsteigerung wird viel schneller und einfacher möglich sein, als bei der Konkurrenz (wenn deren künftige Chips ähnlich aufgebaut bleiben wie die aktuellen) vorallem da Larrabee technologiebedingt wohl kaum mit Multi-GPU Problemen zu kämpfen haben wird, da die "Arbeitsaufteilung" eben schon in Software im Treiber passiert und nicht erst auf den einzelnen GPUs/Karten...
in anderen Bereichen wie GPU-Computing kann man wohl auch eine sehr gute Leistung erwarten, da es durch die x86 Architektur möglich wäre, dass der Larrabee der CPU bei allen rechenaufwändigen Arbeitschritten, für welche er geeignet ist, unter die Arme greift, ohne dass Softwarehersteller ihre Programme anpassen müssen. (multithreaded x86 Programme sollten ohne Anpassung laufen)
Zuletzt bearbeitet:
Euphoria
Admiral
- Registriert
- Apr. 2007
- Beiträge
- 9.123
@Critter
Das ist schon klar, aber im Grunde sollte es erstmal die OnBoard Grafik ablösen und erst in zweiter Linie als richtige Grafikkarte fungieren.
Für einige wär das ganze sicherlich nicht schlecht, aber erstmal abwarten was das Teil am Ende wirklich leisten wird.
Das ist schon klar, aber im Grunde sollte es erstmal die OnBoard Grafik ablösen und erst in zweiter Linie als richtige Grafikkarte fungieren.
Für einige wär das ganze sicherlich nicht schlecht, aber erstmal abwarten was das Teil am Ende wirklich leisten wird.
i!!m@tic
Lt. Commander
- Registriert
- Apr. 2009
- Beiträge
- 1.455
yurij schrieb:@sebastian: wir reden hier ständig von sachen, die normale menschen erst in ein paar jahren überhaupt zu gesicht bekommen
Schon klar *gg* Aber manche legen hier los als würden die Fakten wie nach einem Test schon auf dem Tisch liegen und machen Produkte nur aufgrund einer Aussage irgendeins x-beliebigen Mitarbeiters runter, für sowas hab ich kein Verständnis.
drago-museweni
Admiral
- Registriert
- März 2004
- Beiträge
- 9.162
Naja wenn der jetzt erst so schnell wie die GTX285 sind Sie schon noch ein stück hinten drann möchte nicht wissen was Nvidia und ATI schon in ihren Laboren, am laufen hatt.
Floletni
Commander
- Registriert
- Sep. 2007
- Beiträge
- 2.321
killerpixel schrieb:Falsch, es steht da er soll so schnell sein...
Und noch ne an den Treibern gefeilt werden muss, weil es bei LRB auf eine gute Treiberkonfiguration drauf ankommt. Also kann er bei einer besseren Programmierung noch schneller sein und ist steckt ja auch erst in den Kinderschuhen. Da gibts noch viel zu optimieren.
Ich frage mich ja was heisst "so schnell wie eine GTX285"? Gleiche theoretische Rechenleistung? Gleiche Zahl FPS bei Crysis @ höchsten Details und maximaler Auflösung? Gleiche FèS bei FarCry @ Low Details ohenAA/AF ^^Gleich schnell bei GPGPU Anwendungen? Alleine das finde ich schon so dehnbar, dass konkrete Rückschlüsse wohl kaum möglich sind. Mal abgesehen davon, dass mabn nicht weiss ob die masse an Karten diesen Speed erreicht oder eine von 100 selektionierten Laborkartenplus die schon genannten Dinge bei welchem Stromverbrauch und und und
Zudem bleibt noch die Frage offen was wird die Kartekosten und wann wird sie kommen. Intel muss Gas geben wenn sie den Anschluss nicht verlieren wollen kaum nachdem sie ihn gefunden haben...
Zudem bleibt noch die Frage offen was wird die Kartekosten und wann wird sie kommen. Intel muss Gas geben wenn sie den Anschluss nicht verlieren wollen kaum nachdem sie ihn gefunden haben...
Die theoretische Rechenleistung wird auf jeden Fall deutlich höher liegen, zumindest bei Doubleprecision. Die Aussage bezieht sich sicherlich auf konkrete 3D-Benchmarks.Critter schrieb:Ich denke mal das heist gleiche theoretische Leistung.
noskill
Lieutenant
- Registriert
- Sep. 2008
- Beiträge
- 925
Wiesi21 schrieb:Fazit: Ich glaub zwar auch, dass Larrabee bei Erscheinen nicht ganz im High End Bereich aufschlagen wird, aber eine Leistungsteigerung wird viel schneller und einfacher möglich sein, als bei der Konkurrenz (wenn deren künftige Chips ähnlich aufgebaut bleiben wie die aktuellen) vorallem da Larrabee technologiebedingt wohl kaum mit Multi-GPU Problemen zu kämpfen haben wird, da die "Arbeitsaufteilung" eben schon in Software im Treiber passiert und nicht erst auf den einzelnen GPUs/Karten...
Dass die Leistungssteigerung deswegen leichter möglich ist, halte ich auch für ein Gerücht.
Mit jeder neuen Grafikgeneration (also fast jährlich) steigert sich die Leistung der Grafikhardware um ungefähr 75% und da sind Treiberoptimierungen nicht drin!
Um das zu erreichen müsste Intel jedes Jahr die Anzahl der Recheneinheiten auf dem Larrabee fast verdoppeln.
Das geht aber nur wenn sich der Produktionsprozess jährlich halbieren würde, was aber nicht der Fall ist.
Auch dass Multi-GPU Probleme bei Intels Larrabee der Vergangenheit angehören würden halte ich für ein Gerücht.
Zum einen hat Nvidia auch sogut wie keine Probleme mehr mit SLI und ausserdem treten die Probleme eher durch die Syncronisation beider GPUs auf.
Zuletzt bearbeitet:
(na ok sagen wir mal 75%)
Ähnliche Themen
- Antworten
- 73
- Aufrufe
- 8.613
- Antworten
- 5
- Aufrufe
- 1.568
- Antworten
- 31
- Aufrufe
- 2.338
- Antworten
- 5
- Aufrufe
- 1.443
- Antworten
- 869
- Aufrufe
- 208.874