News Larrabee als Consumer-Grafikkarte ist Geschichte

Bitboys Episode 2 - lächerlich...

Der einzige Chip (neben 3DFX) der jemals mit ATI und nVidia mithalten konnte war der Kyro von PowerVR der damals der GeForce 2 den Arsch versohlt hat, seitdem nie wieder. Der S3 Chrome vielleicht noch ein bisschen. Bei den Matrox Millenium Karten ist es schon so lange her, dass man sie kaum noch erwähnen kann. Und Intel? Einzig der GMA 4500 für Notebooks, aber der hat so bescheidene Treiber, dass man ihn auch eher meiden will.
 
Zuletzt bearbeitet:
anima322 schrieb:
Dafür - finde ich und meiner Meinung hat niemand was hinzuzufügen, dass negativ ist - macht Intel die besten CPUs der Welt und hat auch da im mobilen als auch desktop-sektor alle trümpfe in der Hand (<- nochmal: ist meine Meinung daher kein Fanboy Gelaber)

absolutes fan-boy-geschwaller :lol: selten so eine scheisse gelesen! also echt biggest bullshit ever ...

und dem ist etwas hinzuzufügen ... deine aussage ist genauso arschlos wie die tatsache, dass ich mich dazu hinreissen lassen, das hier noch mal zu sagen und dafür sicher nen negativen punkt bekomme ...

warum intel so "gut" und bekannt ist, wissen alle ... rabatte, restriktionen und der Sprung mit dem PIII ...
 
darBane schrieb:
absolutes fan-boy-geschwaller :lol: selten so eine scheisse gelesen! also echt biggest bullshit ever ...

und dem ist etwas hinzuzufügen ... deine aussage ist genauso arschlos wie die tatsache, dass ich mich dazu hinreissen lassen, das hier noch mal zu sagen und dafür sicher nen negativen punkt bekomme ...

warum intel so "gut" und bekannt ist, wissen alle ... rabatte, restriktionen und der Sprung mit dem PIII ...
Bestechung und Erpressung hast Du noch vergessen
Die Mafia machts auch nicht anders..:D
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1257400514
 

Anhänge

  • Mafiaimage02.jpg
    Mafiaimage02.jpg
    62,4 KB · Aufrufe: 710
Zuletzt bearbeitet:
MountWalker schrieb:
" I expect that in the next generation we'll write 100 percent of our rendering code in a real programming language—not DirectX, not OpenGL, but a language like C++ or CUDA. A real programming language unconstrained by weird API restrictions. Whether that runs on NVIDIA hardware, Intel hardware or ATI hardware is really an independent question. You could potentially run it on any hardware that's capable of running general-purpose code efficiently. "

Ich glaube der Mann kennt nicht die Macht von Standards. Standards stehen für relativ billige Lösungen und billige Lösungen gewinnen heutzutage i.d.R. Wenn nicht für das Zusammenspiel mit den etablierten APIs gesorgt wird, interessiert das niemanden.
 
@darBane

Der Umgangston ist nicht schlecht...

Sicher klingts nach Fanboy, da auch AMD mal weit vorne war (sicher vor seiner Zeit), aber so müssen wir doch sicher nicht miteinander reden oder? ;)
 
Eine zu erwartende News.

Ich persönlich habe nicht erwartet, d. Intel so schnell im Consumer-Bereich mitmischen kann. Schwarzmalen braucht man deswegen noch lange nicht.

Was aus der News rauszulesen ist, d. wir wohl Produkte für den professionellen GPGPU-Bereich erwarten dürfen. Das macht auch durchaus Sinn. Auf diesem "Neuland" stellt man sich nicht unmittelbar einem langjährig etabliertem Konkurrenten. Bleibt also abzuwarten, wie sich dieser Bereich weiterentwickelt.

Im Gegensatz zu anderen Meinungen sehe ich diese News eher ungünstig für nVidia. Für mich sieht es fast so aus, als bestünde die Gefahr, d. sich nVidia zwischen ATI (Cosnsumerbereich) und Intel (GPGPU) aufreiben könnte. Zumindest langfristig gesehen.
 
DAS ist der Brüller des Jahres!
Erst groß herumtönen, und dann letztendlich den Schwanz einziehen!
Schuster bleib bei deinen Leisten, sag ich da nur...
Einfach nur lachhaft und imageschädigend... :king:
 
@FredKune
Wenn du das geschriebene nicht verstehst, dann unterstelle mir nicht, dass ich gesagt hätte, Rendering ist der alleinige Weg.
Nochmals zur Erinnerung was du geschrieben hast.
FredKune
Intel wird spätestens dann mit dem Larrabee-Konzept, was ja weiter entwickelt wird, gut dastehen, wenn NVidia und AMD mit ihrem Rendering-Ansatz gegen die Wand fahren und der Umstieg auf Raytracing notwendig ist.

Deine Aussage ist reine Spekulation, weil diese Spekulation nur dann eintreffen kann, wenn AMD und Nvidia nichts machen. Du kannst zu 100% (schade dass es nicht 1 Million Prozent gibt) nicht sagen, was AMD und Nvidia oder andere Firmen planen und machen werden. Insofern ist deine Aussage nichts wert, sondern nur irgendwie ein Verteidigen der Firma Intel mit dem hätte, könnte , würde, ohne stichhaltige Punkte, also reine Spekulation.
 
@FredKune

Versteh mich nicht falsch, ich bin kein Freund der Cloud und ich nehme das Thema zu ernst als das ich es als Hype abstempeln würde. Die Datenkrake Google ist dann dagegen ein Heiliger.
Wenn die Hardware da ist , dann werden auch die Telekomunikationsunternehmen die entsprechenden Leitungen verlegen, ob sie wollen oder nicht.Warum sollte man in eine Infrastruktur investieren, wenn sie noch gar nicht benötigt wird, sondern erst in 10, 15 oder 20 Jahren. Die Masse der Endverbraucher wird die Cloud ohne nach zufragen akzeptieren, sobald es für die Massen verfügbar ist, weil da ja alles schön einfach ist.
 
naja persönlich find ichs lächerlich von intel. gross rumprotzen von wegen high end grafikkarte auf dem markt bringen mit neuen möglichkeiten für software entwickler bla bla. und dann doch nur alles heisse luft für den endverbraucher.
und selbst wenn intel mal eine high end grafikkarte kauft haben sie es mit diesem rumgeprotze bei mir als kunde verspielt.
 
@Eisenfaust
Da bist du genau der richtige um den Schaden zu beheben. Schnell nach China fahren und die Reiskörner nachzählen ob alle noch da sind.
 
-=Azrael=- schrieb:
Wenn die Hardware da ist , dann werden auch die Telekomunikationsunternehmen die entsprechenden Leitungen verlegen, ob sie wollen oder nicht.
Genau da liegt der Knackpunkt. Kein Unternehmen wird Leitungen verlegen wo es sich nicht lohnt und es gibt meiner Meinung nach kein auch nur kleines Anzeichen dafür dass es sich in den nächsten Jahren (vermutlich Jahrzehnten) irgendwo für die Masse lohnen wird.
Bei 2/3 der Haushalte in DE dürften aktuell noch die gleichen Telefonadern wie vor 30 Jahren benutzt werden, das einzige was sich geändert hat ist die Art der Übertragung (Analog -> ISDN -> ADSL -> ADSL2+/VDSL), aber auch da ist man bei den meisten Haushalten an den Grenzen des machbaren angekommen. Kabel, UMTS oder Satellit werden da auch nicht viel mehr rausholen.
Sieh doch der Realität ins Auge, die Geschwindigkeitssprünge über Kupfer ebben ab und neue Kabel oder Fasern werden höchsten in wenigen Städten verlegt wo es sich rentieren kann (viele Leute auf wenig Raum). Hier in der Gegend gibt es genug Leute die bestenfalls DSL2000 bekommen, ich kenne auch Leute die noch mit DSL-Lite oder ISDN ins Netz gehen.
Cloud-Computing -> forget it.

Abgesehn davon bringt es für Spiele selbst mit der optimalen Anbindung einfach nichts, wozu als Anbieter Rechenleistung (und somit Kosten) ohne Ende aufwenden wenn das ganze viel einfacher (und günstiger) auf dem Home-PC gerendert werden kann.
 
Das Projekt ist auf "Eis" gelegt, und wird erst Softwareseitig weiterentwickelt.

Die Überschrift von CB ist malwieder grausam schlecht gewählt .... hallo subjektive Ansicht!
 
Ich profezeihe Euch hiermit die Zukunft:
AMD wird, trotz aller Anstrengungen dies zu verhindern, untergehen!
Die Chancen auf eine Wiederbelebung stehen nach wie vor sehr schlecht.
Darauf hin wird es ein Monopol von NVidia mit astronomischen Preisen geben.
Genau das wird eintreffen, denn AMD wird sich nicht erholen können,
der Schlag war einfach zu tief...

Sayonara
 
Mitch O'Neil schrieb:
Ich profezeihe Euch hiermit die Zukunft:
AMD wird, trotz aller Anstrengungen dies zu verhindern, untergehen!
Die Chancen auf eine Wiederbelebung stehen nach wie vor sehr schlecht.
Darauf hin wird es ein Monopol von NVidia mit astronomischen Preisen geben.
Genau das wird eintreffen, denn AMD wird sich nicht erholen können,
der Schlag war einfach zu tief...

Sayonara

ich hoffe das war pure ironie.....wenn nicht --> :lol:
 
-=Azrael=- schrieb:
@FredKune
[...]
Warum sollte man in eine Infrastruktur investieren, wenn sie noch gar nicht benötigt wird, sondern erst in 10, 15 oder 20 Jahren. Die Masse der Endverbraucher wird die Cloud ohne nach zufragen akzeptieren, sobald es für die Massen verfügbar ist, weil da ja alles schön einfach ist.

Du vergisst, dass man selbst in 10 Jahren immernoch Straßen dafür aufreissen muss.
Und das ist verdammt teuer.
Wenn die Telekom erst mal mit ihrem VDSL fertig ist, wird da erst mal lange Zeit nix kommen.
 
blaub4r schrieb:
Wenn man drüber nachdenkt, könnte das glatt der Larrabee gewehsen sein. Deshalb das Entwickler Mainboard ;) . Aber alles Spekulationen ;)

Eher nicht. Von Larrabee ist ein DIE-Shot veröffentlich wurden und der hatte nicht viel mit dem neulich vorgestellten zu tun. Auf dem DIE-Shot waren 32 Kerne zu erkennen und beim neulichen Projekt waren es 48.

digitalangel18 schrieb:
Der 48Core Prototyp hat nichts mit dem Larrabee zu tun ;)

Genau
 
Zurück
Oben