News Larrabee als Consumer-Grafikkarte ist Geschichte

-=Azrael=- schrieb:
[...]
Im übrigen kann dies Intel auch egal sein, Intel ist schon der grösste GPU Hersteller der Welt.
[...]

Ja sieht man ja was die Erfahrung aus onboard Chips gebracht hat: nix

Edit:

@FredKune
Ich glaube nicht das wir Raytracing jemals bei uns im Rechner sehen werden, in 10 bis 15 Jahren wird alles in der cloud laufen inkl. Spiele, man wird höchsten ein Client haben an dem man nichts ändern darf/kann.

Äh ? Wtf !! Das bezweifel ich aber ganz stark :D Da bau ich mir meine eigene Cloud die im Keller läuft und an der auch gezockt wird ^^

Und Raytracing wird kommen mein Freund. 10 Jahre is ne verdammt lange Zeit und Raytracing skaliert einfach saugut. Mit anständingen Multicore Systemen sollte das auch in 5 Jahren kaum noch ein Problem mehr sein.
 
Zuletzt bearbeitet:
-=Azrael=- schrieb:
Ich glaube nicht das wir Raytracing jemals bei uns im Rechner sehen werden, in 10 bis 15 Jahren wird alles in der cloud laufen inkl. Spiele, man wird höchsten ein Client haben an dem man nichts ändern darf/kann.
Unwahrscheinlich weil es auf absehbare Zeit für die meisten Haushalte keine entsprechenden Anbindungen geben wird. Den Output von nem Spiel bekommste in brauchbarer Qualität alleine von der Bandbreite schon bei den meisten DSL-Anschlüssen nicht hin (zumal du bei realtime nicht effizient encodieren kannst), von den Latenzen mal gar nicht zu sprechen.
Cloud-Computing halte ich für nen Mode-Hype der wieder verschwinden wird weils schlichtweg kaum sinnvolle Einsatzzwecke gibt und jedes Handy in 10 Jahren genug Rechenleistung haben wird um alles selber zu berechnen.
 
Jo mag sein das Raytracing kommt, das wirst du höchsten auf deinem Bildschirm sehen, die Hardware wird irgendwo in einem Rechenzentrum stehen wo CPU's mit hunderten von Cores arbeiten und Grafikkarten ala Fermi Spiele zu dir nach Hause streamen, Datenträger wirst du nicht mehr kaufen können. Aussagen dazu gibt es genug in der Software/Hardware und Spielebranche. Es gibt schon ein Grund warum immer mehr Spielehersteller ihre eigene Netzwerke ala Battle Net aufbauen , nun kannst du auch über Games for Windows Live spielen kaufen etc. Es wird zwar dauern aber es wird kommen so oder so ähnlich. Schon alleine aus dem Grund weil man dann endlich den Informationsfluss im Internet steuern kann und wenn du dir mal die Politik anguckst dann wollen das so gut wie alle.



@Blutschlumpf
Oh je wieder mal das Bandbreiten Problem...... schönes Märchen. Jo latenzen und co sind noch ein Problem deswegen wird das ganze auch nicht von heute auf morgen gehen, wobei jetzt schon Firmen in der Cloud arbeiten, schau dir doch einfach mal die Forschung von Intel, AMD und Co an.
 
Zuletzt bearbeitet:
@Azrael
Wir werden keine Spiele in der "Cloud" spielen. Ich weiß, dass es momentan cool ist zu sagen, dass etwas in der "Cloud" läuft, aber es wird nicht lange dauern, bis die Leute nach dem Hype merken, dass man nicht auf magische Weise alle Probleme lösen kann, weil "die Cloud" das schon irgendwie erledigt. Die Rechenleistung wird auch bei einer Cloud nicht irgendwo hergezaubert. Das scheinen die meisten Cloud-Anhänger zu vergessen.

Und das Bandbreiten-Problem ist durchaus vorhanden. 1920x1200 bei 30fps heißt 66MB/s und mir ist keine Anbindung bekannt, die das leistet. Selbst mit JPEG wird man bei akzeptabler Qualität nicht unter 6-7MB/s kommen, also 48-56 MBit/s und die müssen KONSTANT verfügbar sein und nicht nur auf dem Werbeprospekt der ISPs.
Und mit Latenzen von 200ms und mehr will auch keiner spielen.

@[TLR]Snoopy:
Das Rendering gegen die Wand fährt ist keine Spekulation, sondern Tatsache. Und da AMD und NVidia schon mit ihren Rendering-Grafikkarten überfordert sind und es nicht einmal schaffen ihre Treiber auf alle großen Spiele zu optimieren, ist es ziemlich sicher zu behaupten, dass die beiden im Bereich Raytracing nicht gerade riesige Geheimprojekte am Laufen haben.
 
Zuletzt bearbeitet:
Pat schrieb:
Dafür kann sich Intel aber genau SOLCHE Forschungsarbeit leisten, und auch, wenn ein grosses Projekt wie Larrabee nichts wird, geht Intel nicht gerade (fast) Bankrott wie andere Unternehmen. No risk no fun. So kommt evolutionäres neues zustande... seid froh dass Intel das Geld dazu hat. Wo wären wir ohne Intels Forschung?

Würde es Intel nicht machen würden es einfach andere Firmen machen.
Hätte Intel nicht den Markt seit Jahren künstlich zu seinen Vorteilen manipuliert (Stichwort EU Verfahren, Strafen mit Verstoß gegen das Kartellrecht usw) könnten (!, nicht müssen) wir schon sehr viel weiter sein, weil viel mehr Firmen forschen könnten, da unter Umständen mehr Mittel zur Verfügung stünden
 
Servus!

Verständlich wenn s nicht rund läuft und leistungsmäßig zu schwach ist.

Aber sehr schade, hätte gerne ein paar Benchmarks mit Intel, AMD & Nvidia gesehen. Kommt vielleicht noch mit der 2.Generation
Mfg
 
Ein Satz mit X, das war wohl nix Intel:stacheln: Dafür habt Ihr nun wirklich nicht das knoff-hoff!

Schuster bleib bei deinen Leisten:evillol:

Da hat sich irgendwer erstmal ziemlich weit aus dem Fenster gehängt und laut gegröllt, am Ende war´s heiße Luft und ne menge versenkter Kohle.
 
FredKune schrieb:
Ist doch gar nicht so schlecht. Gerade bei einem so großen Markt sollte man nicht mit einer Krücke starten oder ein Produkt rausbringen, das nur einigermaßen mithalten kann.
Wir haben doch schon bei anderen Dingen (wie z.B. Hyperthreading) gesehen, dass Intel - nach einiger Zeit - durchaus etwas Brauchbares zaubern kann.
In 2 oder 3 Jahren sieht das mit Larrabee vielleicht schon anders aus. Irgendwann muss ohnehin der Sprung von Rendering auf Raytracing kommen und dann kann Intel die anderen immer noch weg pusten.

Patric_ schrieb:
Schade schade, ein dritter Grafikkartenhersteller würde vielleicht wieder (noch?) mehr Schwung ins Geschäft bringen...

Intel CPU + Intel Chipsatz + Intel Grafik

herrlich! (Achtung: Fanboy-Gelaber ;))

jau ... das mit dem fanboy stimmt xD

wobei -> wenn man sieht, was intel bisher bei der grafiksparte abliefert, bekommt man das kotzen und freut sich über AMD/ATI und nVidia :) ( speziell in der notebooksparte )
 
Da hat ja Nvidia richtig Schwein gehabt. :D

Wie hätte sich Nvidia da noch durchsetzen können, wenn alle Notebooks und Komplettpcs mit larrabee ausgerüstet worden wären? (*Schmiergeld sei Dank*) :)
 
Und tschüss.
Da dürfte wohl ein Traum für Viele geplatz sein, wie Übermächtig & supertoll ja Intel ist.

Und haben sie in der Vergangenheit mit WiMax, Netburst, Itanium schon viele Flops.
Atom ist ja auch nicht das, was es werden sollte.

Kurz gesagt, Intel hat schon lange keine neue Architektur rausgebracht, die das werden soll, wie es geplant war.
Der Erfolg beruht noch auf der Pentium III - Evolution, der eben verdammt gut war.

Mal sehen, wie es Atom geht, wenn Bobcat genau auf Netbook bzw. zwischen Netbook & CULV/Neo entworfen wurde.
Bis jetzt versagt ja Atom noch im ARM-Markt, wo es eben wie beim GPU-Markt ein fairer und hartumkämpfter Markt gibt und nicht so unfair wie im CPU-Markt mit süßen Rabatten.

Sieht langfristig schlecht aus für Intel, weil die Kartell-Untersuchungen in den letzten Tagen ausgeweitet wurden und mit Bulldozer & Bobcat in einem Jahr wieder ordentlichen Gegenwind bekommt, den sie mit Rabatten dann nicht mehr so leicht beschränken können.
 
Da wurde wieder ein TamTam gemacht und am Ende kommt nix raus.

Was da wieder Gelder verschwendet wurden und kostbare Zeit. Gerade so Firmen sollten doch gute Planer haben um soetwas zu vermeiden!
 
Schade! Denke Intel wird nicht aufgeben eine eigene Grafikkarte zu entwickeln ... wird jedoch noch lange dauern.
 
Na wer hätte das gedacht? Es ist eben nicht einfach, mal eben so in kurzer Zeit an den beiden Platzhirschen zu sägen, die seit rund 10 Jahren erfolgreich auf dem Gebiet operieren und ein unglaubliches KnowHow besitzen. Intel startet ja praktisch bei Null, da man deren integrierte Grafik nicht wirklich ernst nehmen kann, wenn es um mehr als das Rendern des Desktops geht.
 
@ alle die glauben damit wäre Ratracing verschoben oder:

MEDIC-on-DUTY schrieb:
Raytracing (voxel tech) im Gamesektor ist damit aber nicht vom Tisch. Carmack wendet teile dieser Technik bereits in der Tech5 Engine an.
Eine extra Grafikkarte wird in Zukunft wohl nicht mehr für Office und mehr notwendig sein. ...
Id Tech 6 wird Voxel Raycasting mit Sicherheit nicht auf der CPU, sondern auf der GPGPU berechnen. Ich kann nachher noch das alte Interview mit Tim Sweeny (Epic, Unreal-Engine-Guru) raussuchen, aber gerade dank GPGPU ist Nvidia und ATI eben in keinerlei Sackgasse sondern offen für jedes alternative renderingverfahren - dank GPGPU kann man auf den Grafikkarten jedes Renderingverfahren berechnen lassen, das man will. ;)
 
Zuletzt bearbeitet:
Ich sage, dass man sich in der heutigen Zeit nicht auf Risiken einlassen sollte.
Intel kann etwas und das sehr gut: Prozessoren herstellen.

Ich habe zwar nichts gegen Forschung, im Gegenteil, aber Intel macht top CPUs und da sollten sie vorerst einfach bleiben bevor sie sich auf etwas einlassen, dass nicht fruchtet.

Das AMD/ATI und Nvidia die Nase im Grafiksektor vorne haben ist ja auch kein Geheimnis - die sind ja schon lange dabei.

Dafür - finde ich und meiner Meinung hat niemand was hinzuzufügen, dass negativ ist - macht Intel die besten CPUs der Welt und hat auch da im mobilen als auch desktop-sektor alle trümpfe in der Hand (<- nochmal: ist meine Meinung daher kein Fanboy Gelaber)
 
Update
Schwubbs, hier ist das Interview:
Twilight of the GPU: an epic interview with Tim Sweeney
" I expect that in the next generation we'll write 100 percent of our rendering code in a real programming language—not DirectX, not OpenGL, but a language like C++ or CUDA. A real programming language unconstrained by weird API restrictions. Whether that runs on NVIDIA hardware, Intel hardware or ATI hardware is really an independent question. You could potentially run it on any hardware that's capable of running general-purpose code efficiently. "

"... but now that you have completely programmable shaders, the idea that you divide your scene up into triangles rendered in a certain order to a large framebuffer using fixed-function rasterizer features is really an anachronism. With all that general hardware underneath, why do you want to render scenes that way when you have more interesting possibilities available? "
 
Zurück
Oben