News Larrabee so schnell wie GeForce GTX 285?

silent-efficiency schrieb:
Es geht nicht um Shader. Shader sind auch frei Programmierbar. Es geht um die Fixed-Function-units. Larrabee hat nur die TMUs als Fixed-Function Units. Alles andere wird frei Programmierbar auf den Kernen ausgeführt. Hier spricht man dann von Softwarerenderingpipeline, während die Renderingpipeline von nvidia und ATI in Hardware gegossen ist und eben nur die Shader frei programierbar sind...

So programmierbar wie die Shader eben.

Zur Softwarerenderpipeline:

Das das bei 3D Anwendunen besser sein soll, als eine Hardware-Pipeline wage ich zu bezweifeln.
Beim Programmieren von Software hat man die Auswahl zwischen unübersichtlich (=hohe Fehlerrate) oder ineffiezent.
Der einzige Vorteil ist die hohe Flexibilität und daher kann ich mir als Einsatzort auch nur die Konkurrenz zu CUDA und Stream vortstellen.
 
Bl4ckbeard schrieb:
Eins wird dabei klar die Programmierer haben es in Zukunft noch schwerer, wobei die Spieleplattform PC unintressanter wird.
deine aussagen zu lesen ist noch amüsanter. aufwendiger als es vor der allgemeinen durchsetzung von directx war wird es auch dank lareebee nicht werden. und ich sehe auhc nicht, warum es das im vergleich zu heutigen stand werden sollte. das meiste wird durch bibliotheken ala directx und anderer ohnehin transparent gehalten.

und im übrigen, falls das nachteilig für den pc wäre, dann hätten das die konsolen schon lägst spüren müssen.

@Sgt.Speirs:
nein. in deinem eigenen zitat von killerpixl steht genau das gegenteil: killerpixel hat geschrieben er "SOLL" so schenll sein und dass DAS ein entscheidender unterschied ist zu einem Faktum "hat". DU schreibst darauf er soll noch einmal die news lesen.
das ließ mich vermuten du würdest denken der chip hätte tatsächlich diese leistung. da du das mit deiner neuen aussage anders darstellst solltest du nicht die news nochmal lesen sondern das zitat von killerpixel.

er hat NICHT das gesagt, was du glaubst verstanden zu haben!
 
@Critter
Einer der es versteht, und nicht alles so wieder gibt was man einem versucht einzureden!

@Crow1985
Dir ist schon klar das die Interne Grafikkarte von Intel der letzte Müll ist, und die Treiber möglich von einem Azubi im ersten Lehrjahr geschrieben wurden, so billig sind die.

@BTT
Was einige hier meinen....
Denkt Ihr wirklich eine Firma kann eben so in ein komplexen Revier wildern? Nein!
Da wo heute ATI und Nvidia ist, da kann man nicht "mal eben" so einsteigen und gleich noch die High-End Karten angreifen. Dazu fehlt das Know-How und die Erfahrung..
Klar stehlt Intel igp´s her, doch die sind unterste Nahrungskette, auch wenn sie oft verbaut werden(Knebel-Verträge *g) Eine gleich Günstige von ATI oder Nvidia würde die locker aufrauchen und dazu noch mehr Strom sparen.

Klar kann man jetzt nicht 100% sagen, wo sich die Karte platzieren wird, aber s.o wohl nicht im Mid-High Bereich.
Das wird bestimmt ne Low-level Karte, die gerade mal mit der vorletzen versionen der beiden Hersteller (amd/nvidia) irgend wie mit halten kann.
 
@Winterday
ich sehe die Hauptkonkurrenz hier nicht direkt bei den GPU, sondern vielmehr bei CUDA und Stream. Allerdings ist zu erwarten, dass in der ersten Fassung der Energieverbrauch sehr hoch, die Leistung aber im Verhältnis dazu relativ niedrig sein dürfte. Spezialisten wie nVidia und AMD brauchen sich also ersteinmal nicht zu fürchten, auch wenn Larrabee tatsächlich so schnell wie ein heutiger GT200 arbeiten wird.
Sehr schön zusammengefasst, sehe das ganauso wie du.

Im allgemeinen rechne ich mit einem Gamingflop und einer guten GPGPU Konkurrenz(mit schwacher Energieeffizienz) zu ATI und NV. Aufgrund der Flexibilität von Larabee in einigen Fällen sogar außer Konkurrenz...
 
volcem schrieb:
@Crow1985
Dir ist schon klar das die Interne Grafikkarte von Intel der letzte Müll ist, und die Treiber möglich von einem Azubi im ersten Lehrjahr geschrieben wurden, so billig sind die.

Was ändert das daran, dass sie Marktführer sind?
Dem Durchschnittuser ist es egal, ob die Treiber müllig sind oder nicht.
 
Ich vermute, Intel machts mit dem Ding so wie bei den SSDs: Längere Zeit beobachten, heimlich Entwicklung vorantreiben und dann auf einmal den Knaller zünden.
 
Ich weiß nicht so recht ob sich Larrabee wirklich mit herkömmlichen Grakas messen kann oder will - ATI und Nvidia haben ihre GPUs zu 100% auf die aktuelle 3D Grafikprogrammierung angepasst durch unzählige Shadereinheiten die jeweils nur bestimmte Aufgaben erledigen können dies dafür aber zusammen hochparallel.
Dadurch dass Larrabee von "normalen" CPU Kernen abstammt sollte es in der Parallelisierung klar unterlegen sein (solange die nicht auch mehrere Hundert Kerne auf ein DIE packen können), der Vorteil muss also in der Flexibilität liegen. Vielleicht setzt man hier schon eher auf neue Grafikengines die nicht mehr die alte rasterisierung verwenden sondern zukunftsträchtigere Konzepte ala Voxel-Grafik (id-tech6-engine) und raytracing.
 
Crow1985 schrieb:
Was ändert das daran, dass sie Marktführer sind?
Dem Durchschnittuser ist es egal, ob die Treiber müllig sind oder nicht.
Nein ist es nicht. Wenn man den Rechner 2x pro Arbeitstag neu starten muss weil auf dem Bildschirm nur noch Pixelbrei zu sehen ist wünscht man sich schon eine Grafikkarte eines ordentlichen Herstellers. Vorallem wenn der Bootvorgang dank Netinstallers über 5min dauert.
 
gut das es mal zu nvidia konkurenz geben wird. irgendwann kommt dann bestimmt auch nen quad oder octo core larrabe raus die werden pervers schnell sein denke ich. und dann kann man auch im highendsegmend zwischen verschiednen karten auswählen! juhu
 
In meinem Netbook werkelt eine Intel IPG und da hatte ich noch kein Pixelbrei.

quad oder ocate core larrabe
Der Larrabee soll doch schon von Beginn an min. 16 Kerne haben, wahrscheinlich sogar eher 32 oder 48.
Vllt. sogar 16 Kerne: Low-End; 32 Kerne: Mainstream/Performance; 48 Kerne: Highend :spekulier:
 
Zuletzt bearbeitet:
volcem schrieb:
Denkt Ihr wirklich eine Firma kann eben so in ein komplexen Revier wildern? Nein!
Da wo heute ATI und Nvidia ist, da kann man nicht "mal eben" so einsteigen und gleich noch die High-End Karten angreifen. Dazu fehlt das Know-How und die Erfahrung..
Klar stehlt Intel igp´s her, doch die sind unterste Nahrungskette, auch wenn sie oft verbaut werden(Knebel-Verträge *g) Eine gleich Günstige von ATI oder Nvidia würde die locker aufrauchen und dazu noch mehr Strom sparen.

Klar kann man jetzt nicht 100% sagen, wo sich die Karte platzieren wird, aber s.o wohl nicht im Mid-High Bereich.
Das wird bestimmt ne Low-level Karte, die gerade mal mit der vorletzen versionen der beiden Hersteller (amd/nvidia) irgend wie mit halten kann.

Nun ja Intel ist ja nicht irgend eine Firma und sie will da auch nicht eben mal mitmischen. Intel hat sicher das nötige Know-How und auch genug Budget. Und wie Lange arbeitet Intel jetzt schon an Larrabee? 2006 erfuhr man das erste mal davon soweit ich das noch weiß und hierbei muss man auch sagen dass wohl schon einige Zeit entwickelt wurde, also in der Entwicklung von Larrabee stecken wohl 5 Jahre oder mehr. Also in dieser Zeit ist es für Intel sicher möglich ganz oben mitzumischen.

Ja du sagst selbst man kann es jetzt nicht sagen wo die Karte sein wird aber gleichzeitig tust du so als wüsstest du es genau.

@Topic Sollte das mit der GTX 285 stimmen wäre das doch eine recht gute Nachricht. Mit Treibern und ein paar kleinen Veränderungen in der Architektur ist sicher noch eine Menge Leistung drinnen, vorallem wenn man bedenkt das die Treiber wohl noch ganz am Anfang sind da es ja seit Kurzem erst die ersten Waffer gibt.
Ich warte aber mal gespannt was wirklich aus Larrabee wird.
 
Nur so schnell wie eine GeForce GTX 285?

Also Intel! Da hätten wir doch deutlich mehr erwartet! ;)
 
volcem schrieb:
Klar kann man jetzt nicht 100% sagen, wo sich die Karte platzieren wird, aber s.o wohl nicht im Mid-High Bereich.
Das wird bestimmt ne Low-level Karte, die gerade mal mit der vorletzen versionen der beiden Hersteller (amd/nvidia) irgend wie mit halten kann.

Ich glaube da tust du dem Larrabee Unrecht. Der wird speziell für RayTracing entwickelt (und später dafür auch programmiert) und da sieht auch Intel seine große Stärke (ich im übrigen auch). Ich bin allerdings skeptisch, wie die den Übergang von Direct3D zu Raytracing mit dieser "Zwischenlösung" schaffen wollen? Denn der Larrabee muss auch aktuelle (Nicht-Raytracing-)Spiele darstellen können um überhaupt ernst genommen zu werden und da ist wohl seine Schwäche (ist jetzt eine Vermutung von meiner Seite).
Also ist jetzt die Frage: ist der im Raytracing so schnell wie eine GTX in D3D oder eine GTX in Raytracing? Oder sollte Intel tatsächlich geschafft haben bei D3D gleich zu ziehen?

Mit D3D meine ich die aktuellen 3D-Engines (ich weis das das evtl nicht ganz korrekt ist, sorry. ich schliese da auch OpenGL mit ein (auch wenns was komplett anderes ist...))
 
Wenn ich das richtig verstehe und Larabee keine dedizierten ROPs besittz, dürfte es wahrscheinlich zu starken leistungseinbrüchen mit AA/AF führen. So etwas kann einfach nicht effizient berechnet werden ohne spezialisierte dedizierte units.

Damit sehe ich eher das bestreben Intels auf dem (noch wenig erforschten) raytracing gebiet fuss zu fassen. Denn im rasteriesierungsverfahren wird intel meiner meinung nach jahre brauchen um überhaupt die erfahrenen spezialisten nvidia und ati einzuholen.

Das wäre im prinzip eine gute entscheidung richtung tesla, high performance computing und raytracing zu gehen. Also in den profesionellen bereich.
Und wenn der chip auch nur ein bisschen was mit rasterisierung anfangen kann, finden sich sicherlich auch willige kunden aus dem gaming bereich.
Die (ferne) zukunft liegt wahscheinlich sowieso beim raytracing. Raytracing ist in den vielen bereichen der rasterisierung deutlich überlegen und lässt sich unglaublich gut parallelisieren.
 
Zuletzt bearbeitet:
Zur Frage der Skalierung, nach dem Siggraph Paper, benötigen sie 24 CPU-Kerne um 60 fps z.B. in Gears of War zu erreichen. Larrabee wird wohl im Highend-Bereich 64-80 Kerne haben (meine Vermutung).
Die Leistungssteigerung ist dabei nicht linear (siehe Paper), es ist ja auch sehr aufwendig die Parallelität in der Programmierung auszunutzen.


Und jemand hat hier noch scherzhaft gemeint, es sind P4 Kerne, eigentlich noch älter, einer der ersten Pentiumversion mit einer VPU Einheit, 64Bit und weiteren Erweitungen, natürlich im modernen Fertigungsprozess.
 
Zuletzt bearbeitet:
Hier wird schon wieder dauernd über ungelegte Eier geredet, wartet doch einfach ab. Genauso bleibt abzuwarten wie es mit den Treibern klappt, bei Grafikkarten ist das etwas anderes als bei einem Prozessor oder einem Chipsatz, gerade die Karte wird aufgrund ihrer Technik von den neuen Treibern speziell leben, wenn diese nicht gut genug sind und nur selten geupdatet werden ist das eher ein Problem.
 
Wenn man bedenkt, wie dreist die Marketingabteilungen dieser Welt so umgehen (denke da an die Leistunghcohrechnung der PS3 und der Xbox 360), dann wundert es mcih gar nciht, das die sagen, das Ding ist so gut wie ne 285.

Noch ein Denkanstoß: die ATi 2900 XTX wa der 8800 GTX in der theoretischen Rechenleistung auch gewaltigüberlegen, in der Realität spielgelte sich nichts davon wieder...
 
Zurück
Oben