News Kommt Larrabee auch ohne DirectX/OpenGL aus?

Das ist doch immer wieder das Selbe. Intel fetzt sich mit NVIDIA.
NVIDIA macht CUDA, Intel baut Grafik APIs in sein CPUs ein. Bin schon mal gespannt wo das hinführt....

Vielleicht werden wir irgendwann allgemein Aufgaben mit der Graka machen und fürs Zocken nehmen wir dann die CPU XD
 
Da ja Larrabee keine echte Grafikkarte sein wird - sondern eine normale CPU - so wird der DirectMode wohl wirklich der normale Zugriff auf die CPU sein.

Bei einer normalen Grafikkarte (naja in der letzten Zeit habe ich mich nicht mehr so sehr damit beschäftigt, aber beim PowerVR DC war es noch so) stellt diese Register zu Verfügung in welche z.B. die von der GPU benötigten Informationen zu einer Textur (Farbformat, Größe, Startadresse im RAM) geschrieben werden können. Um Dreiecke zu zeichnen (ja, auch heutige Grafikkarten können immer noch nicht mehr als ein Dreieck zeichnen) schreibt man auch einfach den Aufbau der Dreiecke und die Startadresse der Dreiecks-Eckpunkte in ein bestimmtes Register der Grafikkarte.

Was dann in der Grafikkarte abläuft, ist bis auf die Shader fest verdrahtete Hardware. Die Grafikkarte stellt z.B. einige Z-Buffer-Tiefentest-Variationen zu Verfügung (die wieder über ein Register ausgewählt werden können) aber man kann die GPU nicht so umprogrammieren, so dass diese z.B. nach der PowerVR Methode ohne Z-Buffer arbeitet. Man kann die Implementierung von AA oder AF nicht ändern, auch das ist fest durch die Hardware festgelegt.

Bei Larrabee wird das anders werden. Diese wird grundsätzlich ein Software-Renderer, welcher wohl alle diese Funktionen in Software implementiert (wie bei älteren Spielen üblich, bei HL1 kann man z.B. noch den Software-Modus wählen). Eins ist relativ klar, eine Chance hat dieser DirectMode sicher nicht im Direct3D und OpenGL Emulationsmodus. Die stärke liegt wohl darin, dass man dann Larrabee z.B. RayTracing- oder Video-Beschleunigung verwenden kann.

Man sollte auch nicht vergessen, dass Intel nicht der erste Hersteller wäre, der es mit einem solchen Konzept versucht - und sie sind dann auch nicht der erste Hersteller, der mit diesem Konzept untergeht ;)
 
Zuletzt bearbeitet:
Larrabee kümmert ohne einen Leistungsvergleich eigentlich garnicht.

Wenn die wirklich nur aus CPU´s besteht, hat sie bei Cuda-ähnlichen Anwendungen doch nie eine Chance. Das zeigt schon der Leistungsvergleich bei FAH von einer 8800GTX zu einem Intel Quad. Selbst 16 Quads könnten nicht mithalten.

Da sollte Intel schon mit mehr kommen als nur CPU´s auf einer eigenen Karte.

Raytracing würde ich interessant finden, aber selbst wenn es schon soweit ist, muss es doch erst die Unterstützung von erfolgreichen Spielen haben.

Wahrscheinlich kann man sich das dann so vorstellen, dass Larrabee im D3D oder OpenGL saulangsam ist, aber bei Raytracing dann nicht. Wer will dann zwei Grafikkarten im System haben?

Ich würd sagen "abwarten und Tee trinken". Nichts wird so heiss gegessen, wie es gekocht wird und Intel muss erstmal beweisen, dass ihr Produkt mithalten kann. Die Verschiebungen geben einen Hinweis darauf, dass es das zur Zeit nicht kann.

FSBKiller schrieb:
Das ist doch immer wieder das Selbe. Intel fetzt sich mit NVIDIA.
NVIDIA macht CUDA, Intel baut Grafik APIs in sein CPUs ein. Bin schon mal gespannt wo das hinführt....
Zumindest führt es zu Mitbewerb und der drückt die Preise, was für uns nur gut sein kann.
 
Zuletzt bearbeitet:
Hallo @llerseits!

Ich möchte an dieser Stelle mal meine 2 Cent in die Runde werfen:

1. Wozu brauche ich Larrabee (oder irgendein vergleichbares Konzept)?
  • für CUDA o.ä.?! Könnte vielleicht im Bereich des HPC für wissenschaftliche / wirtschaftliche Einsatzgebiete interessant sein. Für den Hausgebrauch langt eine einigermaßen leistungsfähige Hardware schon heute (siehe z. B. hier)
  • zum Raytracing?! Und das bringt mir dann genau was?! Physikalisch korrekt simulierte optische Eindrücke. Ah ja, und was die Raster-Grafikkarten heutzutage darstellen sieht meistens doch arg unrealistisch aus ;) Weiterer Nutzen wie zum Beispiel die Verwendung der Daten zur Kollisionsabfrage oder ähnlichen physikalischen Effekten sind momentan noch nicht einsatzreif bzw. es ist völlig unklar, ob es jemals funktionieren wird.
  • um meine Wohung zu heizen?! Könnte gut sein, falls Fudzilla recht haben sollte... :smokin:

2. Weitere Gründe, die gegen Larrabee sprechen:
  • Intel tritt gegen eine Technologie an, die in den letzten 15 Jahren Zeit gehabt hat, sich auf die Anforderungen (realistische und schnelle Darstellung von 3D-Objekten) perfekt einzustellen. Da wird Intel einen seeehr schweren Stand haben.
  • Die benötigte Rechenleistung lässt sich abschätzen und liegt für ein Raytracing-Spiel in 720p und 45 fps bei ca. 1500 GFLOPS. Larrabee wird 2009 voraussichtlich mit einer Leistung von etwa 500 GFLOPS an den Start gehen (Quelle: c't 15/08, Seite 160). Und die Grafikkarten-Hersteller werden bis dahin sicher nicht auf ihren Händen sitzen (siehe z. B. hier, wobei darauf zu achten ist, dass sich die Zahlen der GPUs auf Single-Precision bezieht)
  • Zuletzt stehen der Wunsch nach besserer Geometriedarstellung (d. h. mehr Polygonen) auf der Liste der Wünsche der Spiele-Entwickler nicht gerade an vorderster Stelle.

Fazit: Larrabee wird ebenso wie die Cell-CPU seine Nische finden. Für den Durchbruch auf dem Massenmarkt sehe ich keinen triftigen Grund. Von daher ist für mich als Nutzer aus meiner Sicht unerheblich, welche API letztlich benutzt wird.
 
Zuletzt bearbeitet: (Mehr Bezug zum Topic)
Wer sagt denn auch, dass Intel es auf die Spielergemeinde abgesehen hat???
Intel hält sich aber noch fleissig bedeckt wie mir scheint.


bye Hübie
 
macmaxx schrieb:
Sechs Direct Mode Spiele zum Start. Das müssten ja eigentlich absolute Grafikkracher sein sonst würde es ja keine Sinn machen. Schließlich will man das Potenzial der Karte und von Direct Mode zeigen. Aber was für Spiele sollen das sein?


Die nächste Frage die sich stellt ist, unterstützen diese Spiele auch D3D/DX und OpenGL oider eben nur Direct Mode? Weil nur Direct Mode wäre sowas von unsinnig, glaube kaum das sich da ne Spiele schmiede drauf einlässt sich selbst künstlich die Verkaufszahlen zu beschneiden nur weil man sich an ne Intel Grafikkarte bindet.

Die Spiele werden entweder von Intel, oder von Intelpartnern sein, die dann massivst von Intel unterstützt werden. Aber slebst wenn sich Intel mit der Aktion einigermaßen etablieren kann so bleibt doch die Frage offen ob Intel genug Marktanteil erlangen kann, um die Spieleindustrie zu überzeugen das Larrabee eine lohnenswerte Plattform ist.

Was die restlichen Anwendungsgebiete angeht so muß man abwarten wie es sich entwickelt, wie zugänglich Direct Mode für Programmierer ist und wie groß das Interesse der Kunden wird. Wenn es so wie beim ersten Vorstoß Intels auf den Grafikkarten Markt wird dann wird´s wieder ein kurzes Gastspiel.
 
Naja, wenn Intel 6 Spiele exklusiv für Larabee proggen läßt, dann wäre es nur konsequent die Spiele mit einer Engine auszustatten die nur auf Larabee akzeptabel läuft :evillol:
Also vermute ich es wird ein Mix aus Raytracing und Physikberechnungen gezeigt werden der sich mit anderen Karten so nicht realisieren läßt.
Würden sie nur das Spiel XYZ nehmen und für Larabee anpassen, dann gäbe es nicht den A-Ha Effekt, es würde wohl kaum die Qualtität des Originals mit herkömmlicher Technik erreichen. IMHO muß ein Spiel von Grund auf für Larabee vorgesehen sein um dessen Vorzüge nutzen zu können. AFAIK hat Larabee keine speziellen Shader oder ähnliches in Hardware, es macht also keinen Sinn eine Spieleengine für Larabee und herkömmliche Karten parallel zu entwickeln.
 
hübie schrieb:
Wer sagt denn auch, dass Intel es auf die Spielergemeinde abgesehen hat??? [...]

Das ist letztlich irrelevant, denn auf wen wollen sie es sonst abgesehen haben?! Auf Büro-Fritzen (sorry, mir fällt grad kein besserer Ausdruck ein)?! Wohl kaum, denen langt idR ein Single Core Prozessor. Bild-/Videobearbeitung?! Gibts schon die passenden GPGPU-Schnittstellen bzw. sind in Entwicklung. Bleibt imho außer wissenschaftlicher Verwendung und einigen Nischenprodukten nicht mehr allzu viel übrig. Und warum Intel dafür so einen Haufen Geld für R&D ausgeben sollte, ist mir ehrlich gesagt ziemlich schleierhaft!
 
Das klingt zwar plausibel, ist aber spekulativ :P

Ich könnte mir durchaus auch vorstellen, das in dem Chip mehrere Rechenwerke sind. Damit meinte ich nicht getrennte Kerne, sondern eben eine "konservative" Grafikkarte mit unified shadern, ROPs, TMUs etc... und eben einer Art CPU/FPU für Effektphysik/KI und/oder ähnlichem (mehr fiel mir net ein ;D), welche dann eben über den direct mode angesprochen wird.

Das dürfte aber A) recht komplex sein und B) ganz schön teuer (Caches etc).

---- Das nur mal so als Idee meinerseits. Vielleicht sagt ihr auch das is totaler Unsinn ;) ----


bye Hübie
 
Zurück
Oben