News Larrabee so schnell wie GeForce GTX 285?

@Luebke

Ich weiss das die Karten nicht zum spielen gedacht sind. Doch wirbt Intel mit seinen Karten dafuer, das man mit den Intel Karten keine extra Grafikkarte braucht um auch neue Spiele und auch fuer Zukuenftige Spiele KEINE Grafikkarte dazukaufen muss.
 
ich kann mir aber nicht vorstellen, dass intel mit dieser politik beim larrabee weitermachen kann. hier stehn sie im wettbewerb. wenn die den larrabee auch so stiefmütterlich behandeln wie ihre gma950 krücken, dann werden sie über kurz oder lang in keinem gamerrechner mehr auftauchen.
 
gruffi schrieb:
Larrabee skaliert nur bis zu einer gewissen Anzahl an Kernen linear. Hier hast du eine Übersicht dazu. So bei etwa 32 Kernen, mit denen vermutlich das Top Modell gelauncht wird, nimmt der Performancezuwachs ab. Es macht ab einem gewissen Punkt also keinen Sinn mehr, weitere Karten im Rechner zu verbauen.
Mal abgesehen davon wird dann auch die Effizienz unglaublich schlecht. Larrabee in 45 nm ist sogar noch deutlich grösser (600-700 mm²?) als der GT200 in 55 nm (<500 mm²). Dh, wenn man gerade mal auf diesem Niveau liegt, ist die Performance pro mm² noch um einiges schlechter. Von AMD Dimensionen will ich gar nicht erst anfangen. Und dass Larrabee einiges an Strom brauchen wird, ist wohl auch abzusehen.

Ja alles skalliert nur bis zu einer gewissen Anzahl von Kernen, aber was hat das mit der Anzahl der Grafikkarten zu tun? Dann berechnet jede ihrenen eigenen Teil, von daher ist das völlig egal wie gut die Karte mit mehr Kernen skalliert, da man ja dann 2x32 Kerne hat und nicht 64Kerne... . Ich halte es auch nicht für unwahrscheinlich das Larrabee schon in 32nm kommt, vorallem da Intel ja hier schon relativ weit ist. Ein größerer Chip bedeutet nicht zwingend höherer Stromverbrauch, sieht man ja bei Nvidia, einzig der Gewinn wird verkleinert, sieht man auch bei Nvidia.



Das halte ich für ein Gerücht. Wie viel Prozent war nochmal der RV770 leistungsfähiger als der RV670? Und wie Prozent an Performance hat man seit dem Launch des RV770 noch mit Treibern herausgeholt? Das spricht ganz klar für Hardware. Was man sagen kann, ist, dass Intel durch die Treiber wohl mehr herausholen kann als AMD oder nVidia. Trotzdem bleibt die Kapazität der Hardware der limitierende Faktor.

Ja und die Treiber werden seit Jahren entwickelt, sie werden nur etwas verbessert und an die Zeit angepasst und neue Grafikkarten werden unterstützt.
 
Irgendwann muß man den Grundstein legen und so liegt die Gefahr stets bei jenen, die den ersten Schritt wagen. Intels Wurf wird sicherlich eine gewisse Zeit der Reife benötigen, bis sich sowohl Hardware- als auch Softwarehersteller des neuen Konzeptes angenommen haben werden. Im Übrigen heißt diese Meldung doch: im kommenden Jahr wird es günstig Chipsatzgraphik geben, die einer brandneuen GTX285 entspricht. Das wird dann der Fall sein, wenn die GTX285 durch eine NV300 basierte GPU abgelöst werden wird. Folglich ist es doch eine sehr gute Nachricht!
 
Wiesi21 schrieb:
tut mir leid, aber das ist einfach nicht richtig.
Die Spezifikationen sind eindeutig. ;)

Wiesi21 schrieb:
OpenCL wird ja nur benötigt, um die Hersteller dazu zu bringen ihre Grafikhardware um die benötigten Features zu erweitern, da sie bisher einfach noch zu eingeschränkt dafür sind. (Man hat dann einfach noch mehr mögliche Shader, da die Graka ja hierüber programmiert wird)
ein x86 Prozessor kann solche Berechnungen in Software ohnehin tätigen... (die DX10 Softwarerenderingschnittstelle läuft bereits auf allen Prozessoren, und Larrabee wird nur die Geschwindigkeit von unbrauchbar auf spielbar beschleunigen, da er pro Kern 4*mehr Ausführungseinheiten besitzt als ein heutiger i7, ne weit kürzere Pipeline, schnellere GRam Anbindung und einige beschleunigende special Function Units.)
Nope. Erstmal wird die Hardware um nichts erweitert. OpenCL bietet die Möglichkeit, die Funktionalität über bisherige Möglichkeiten hinaus, zB OpenGL Shader, zu nutzen. OpenCL ist sozusagen deshalb entstanden, um dem Programmierer ein weiteres Paradigma auf High Level Ebene zu ermöglichen. Welches zB ISO C fehlt. x86 hat damit gar nichts zu tun. Theoretisch kannst du auch deinen Toaster mit C programmieren. Und daher wird Larrabee die x86 Kompatibilität diesbezüglich auch nicht helfen. Es geht eben nicht um Hardware Support, sondern um erforderliche sprachliche Paradigmen.

Wiesi21 schrieb:
OpenCL basiert auf C, was aber nur bedeutet, dass es sich ähnlich programmieren lässt, nicht mehr nicht weniger. Open CL kann man vielleicht in Zukunft auch in Java programmieren
Gut möglich. Paradigmen sind schliesslich nicht auf eine Sprache beschränkt. Momentan ist das aber nicht der Fall und die Spezifikation auch nicht dementsprechend verabschiedet. Insofern ist es völlig legitim, OpenCL als C99 Erweiterung für parallele Programmierung zu sehen.
Und nochmal, das ist immer noch kein Vorteil für die x86 Kompatibilität. Solche Sprachen arbeiten portabel, sind also auf keine konkrete Architektur festgelegt. Das heisst also noch lange nicht, dass die jeweilige Sprache diesbezüglich für x86 besser geeignet ist als zB für ATIs oder nVidias Architektur. Das wiederum hängt vielmehr von der gesamten erforderlichen Funktionalität ab als dem Vorhandensein eines prallelen Programmiermodells.

Wiesi21 schrieb:
Ich bin jetzt zwar schon länger weg von C, aber ich frage mich wo du Probleme bei der Parallelprogrammierung siehst?
Nun, ich bin immer noch sehr intensiv mit C und C++ tätig. ;) Und die Problematik ist ja nicht neu. Dies zu erläutern, würde den Rahmen aber hier sprengen. Wenn es dich interessiert, würde ich empfehlen, dich mal in Lösungen wie Cilk, UPC oder ähnlichem einzulesen. Die Idee hinter OpenCL ist ja nicht neu.
Nur mal ein Beispiel, du lässt zwei Berechnungen durchführen, A und B. Der Compiler kann aber nicht immer zweifelsfrei feststellen, ob er dies parallel durchführen kann, zB aufgrund von zur Übersetzungszeit nicht aufzulösenden Abhängigkeiten. Hier muss man entsprechende Hilfestellung geben. ISO C unterstützt sowas aber nicht.

Wiesi21 schrieb:
Die Rechenlast kann ich schon von der Programmierung her, auf viele Threads aufteilen, der Compiler "übersetzt" dann eben noch. dies reicht bei x86 eben schon aus
Auf Kern Ebene ja, aber nicht auf ALU Ebene. Es macht keinen Sinn, zB 16 Multiplikationen auf 16 Threads zu verteilen. Der dafür notwendige Overhead ist so gross, dass man diese 16 Operationen schneller und effizienter in einem Thread berechnen kann. Und viel mehr als ein Vec16 Rechenwerk ist ein Larrabee Kern letztendlich nicht. Etwas überspitzt formuliert.

FKorni schrieb:
Ja alles skalliert nur bis zu einer gewissen Anzahl von Kernen, aber was hat das mit der Anzahl der Grafikkarten zu tun? Dann berechnet jede ihrenen eigenen Teil, von daher ist das völlig egal wie gut die Karte mit mehr Kernen skalliert, da man ja dann 2x32 Kerne hat und nicht 64Kerne...
Und der Unterschied ist konkret welcher? Ich gehe mal davon aus, Intel wird schon wissen, was sie da ermittelt haben. Und ob die 64 Kerne nun auf einer Karte oder mehreren verbaut sind, ist daher erstmal unerheblich. Für alles weitere würde ich vorschlagen, du wartest ab, bis es diese Karten zu kaufen gibt. Dann kannst du immer noch darüber philosophieren, wie die Unterschiede zwischen einer und mehreren Karten bezüglich Skalierung ausfallen.

FKorni schrieb:
Ich halte es auch nicht für unwahrscheinlich das Larrabee schon in 32nm kommt
Nochmal das Design neu aufsetzen? Wenn man sich bis weit 2010 hinein oder gar 2011 Zeit lässt, gut möglich.

FKorni schrieb:
Ein größerer Chip bedeutet nicht zwingend höherer Stromverbrauch
Wo habe ich etwas von höherem Stromverbrauch geschrieben? Und in Bezug wozu?
 
Zuletzt bearbeitet:
Da bin ich mal mal gespannt wie gut sie sich schlagen wird oder ob das nur ein Gerücht ist. Wenn es stimmen sollte hat Intel mal mist gebaut, könnte aber auch gut sein das ein Typ 2 gleich von Larrabee 2010 noch kommt, den Larrabee wird ja schon lange dran gebastelt.
 
nunja ich bin ja skeptisch was mein Erwartungen betrifft, hört euch nurmal den
Namen genaur an "Larrabee" klingt irgendwie nach viel Gelaber:D
 
Hallo,

ich bin echt gespannt, wie sich der Ansatz von Intel schlagen wird.
Mit der Leistung einer GTX 285 könnte sie zwar nicht mit der nächsten Generation von Nvidia/ATI mithalten, im Vergleich zu den bisherigen Intel-Grakas wäre es aber ein riesiger Sprung.

ciao Tom
 
gruffi schrieb:
Nochmal das Design neu aufsetzen? Wenn man sich bis weit 2010 hinein oder gar 2011 Zeit lässt, gut möglich.


Wo habe ich etwas von höherem Stromverbrauch geschrieben? Und in Bezug wozu?

Wäre in jedem Fall billiger und gegebenfalls bewahrt man dann Larrabee vor einem schlechten Ruf.
Du solltest schon wissen was du selbst geschrieben hast, aber bei meinem letzten Post hab ich dich zitiert, dort der letzte Satz.
 
Ich glaub den ganzen Käse erst wenn er da ist.... Allerdings sehe ich derzeit sowieso keinen großen Bedarf für steigende Grafikkartenperformance. Schließlich stagniert der Spielemarkt eh fröhlich vor sich hin und ein Flop bzw. Bugspiel nach dem anderen erscheint. Die Spiele die viel gespielt werden brauchen selten enorme Grafikpower und alle die es brauchen hat man nach ca. 10h durchgespielt......
Im Prinzip kann das alles Intel nur in die Hände spielen, da sie länger Zeit haben ihr Produkt auszufeilen. Für mich steht Intel nicht gerade für Inovation, eher für horrende Preise und max. Gewinnspannen. Hätte AMD nich so die Zeichen der Zeit damals verpasst, hätte ich mir auch sicher nicht meinen E6750 geholt (auch wenn der sicher nicht schlecht ist).
Überhaupt finde ich den CPU Markt derzeit sehr viel spannender als den Grafikkartenmarkt. Bei Grafikkarten hat sich im Prinzip seit der 8800gtx nicht wirklich was getan. Sowohl AMD als auch ATI haben mMn derzeit die wirkliche Chance ihre Position auszubauen. ATI muss quasi "nur" an ihre gute 4800 Serie mit der 5800 Serie anknüpfen. AMD muss mMn vorallem an der TDP schrauben und ihre Preise weiter ziemlich niedrig halten, außerdem müssen "4850e" in 45nm her, mit noch deutlich niedrigerer TDP. Einen Atom wollen sie ja noch bringen. Wenn sie das schaffen und durch den Verkauf ihrer Fabriken auch noch schneller auf 32nm kommen und so die Lücke zu Intel verkleinern können, haben sie mMn wirklich gute Karten.
Intel und Nvidia haben mMn beide das Problem, dass ihnen quasi der entsprechende CPU bzw. GPU Partner fehlt. Das ist mMn für den immer wichtiger werdenden IGP Markt von einiger Bedeutung. Denn der Markt für i5, i7, Ph2 X4 etc. und entsprechenden Grafikkarten ist denke ich mit ca. 10-20% des Marktes recht klein, der Markt für HDPCs, Bürorechner etc etc. ist jedoch riesig und gerade der HDPC Markt hat enormes Wachstumspotential.
Hier kann AMD/ATI richtig auftrupfen, den 775 IGP Boards sind unbezahlbar im Vergleich zu nem 780g/gx (oder selbst nem 8300) Board.

Insofern ist es mMn sehr fraglich inwieweit überhaupt der Larrabee gebraucht wird. Ich denke nicht das er den AMD & Nvidia Karten das Wasser reichen wird können, somit wird er schon zum Veröffentlichungszeitpunkt im Prinzip "veraltet" sein, außerdem wird er denke ich net zum Spottpreis angeboten wie wir Intel kennen. Für den Low-End bzw. eben den HDPC Markt wird er aber zu "gut" sein.
Ich halte das ganze Projekt deshalb auch mehr oder weniger für unsinnig. Aber es reiht sich gut mit den i7 ein. Wenn der i5 so wird wie ich denke, dann kann man den auch noch getrost dazu zählen. So wie AMD vor Jahren, als Intel seine starken Duals gebracht hat, hat jetzt Intel ein wenig die Zeichen der Zeit verkannt. Übrigens auch Nvidia, die allerdings schon zum erscheinen der 260/280 GPU. In den letzten Jahren findet am PC Markt eine evoltion statt, die es bisher so nicht gab. Zum einen beginnt die Leistung immer mehr zu stagnieren, dies führt zu enorm getiegenen Lebenserwartungen von PCs (mal ausgenommen wirkliche Spielerechner) und zum anderen sinken die Preise für quasi alle PC Komponenten enorm. Auch das stellt mMn den Larrabee noch mehr in Frage. Für Intel wäre denke ich besser sich auf ihre CPUs und Chipsätze zu konzentrieren und gleichzeitig stärker mit Nvidia zusammen zu arbeiten. Den Nvidia braucht letztendlich Intel nicht weniger. Nicht auszudenken was Nvidia erwartet wenn AMD z.B. ein ausgereiftes "Hybrid Sli" zusammen bringt. Dann kann nämlich ATI der GDDR5 Kontroller und dessen Energieproblem so egal sein, wenn die Grafikkarte IDLE sowieso abgeschaltet ist. Überhaupt ist die Leistungsaufnahme aktueller CPUs und Grafikkarten ein echtes Problem, nach allem was ich so lese und auch was man aus den Personenkreisen die man kennt so höhrt, kaufen die Leute vorallem aus zwei Gründen immer weniger Hardware: Entweder weil sie einen Rechner besitzen der ihen ausreicht, oder weil ihnen die Leistungsaufnahme zu krass ist.
Wer nämlich eine Stromrechnung zu bezahlen hat und nicht nur 5mins am Tag vorm PC verbringt, dem liegt an seinem Stromverbrauch.
Mfg
 
Dr.Pawel schrieb:
Nicht auszudenken was Nvidia erwartet wenn AMD z.B. ein ausgereiftes "Hybrid Sli" zusammen bringt. Dann kann nämlich ATI der GDDR5 Kontroller und dessen Energieproblem so egal sein, wenn die Grafikkarte IDLE sowieso abgeschaltet ist.
Nur auf einer AMD-Platine. Wer was schnelleres als einen Phenom II will, muss aber ein Board für eine Intel-CPU kaufen.
 
FKorni schrieb:
Du solltest schon wissen was du selbst geschrieben hast, aber bei meinem letzten Post hab ich dich zitiert, dort der letzte Satz.
Und wo steht da etwas von besser oder schlechter? Nur falls du den dezenten Hinweis nicht verstanden hast, davon steht NICHTS dort.
 
@y33h@
Wer mehr Leistung als bei einem Phenom II will holt sich sowieso nicht nur Intel CPU, sondern meistens auch eine nvidia Graka.
Und diese Leute interessiert der Idle Verbrauch sowieso nicht ;)

AMD und ATI sind meiner Meinung nach immernoch was für den "Normalverbraucher" mit knappem Budget.

@Topic
2 TFlop sind wahrscheinlich auch rein theoretischer Wert und in Spielen wird das ganze wohl kaum an die richtigen Grafikkarten rankommen.
Aber mal abwarten und Tee trinken, denn die Taktraten sehen schon gewaltig aus.
 
Ich denke Preisbewusst kaufen und ein knappes Budget ist schon ein kleiner Unterschied. Schlichte Tatsache ist derzeit, dass AMD besser aussieht was Preis/Leistung angeht.
Schneller ist Intel übrigens hauptsächlich in Benchmarks, sowie Profianwendungen wie Bildbearbeitung etc., gerade bei Spielen geben sich Ph2, 45nm 775 Quads und der i7 ziemlich wenig.
Aber wiegesagt wer das Geld hat kann für sein i7 System gerne das doppelte zu einem 940 System zu zahlen, der darf das gerne tun und der Rechner kann dann auch seine 5% schneller sein^^. Sehr sehr viele Leute haben aber z.B. noch gute alte Hardware wie guten DDR2 Speicher und gerade hier lohnt sich ein umstieg auf i7 oder ein AM3 System schlichtweg überhaupt nicht.
Nehmen wir doch das billige Beispiel ich wollte aufrüsten (in meinem Leistungsbreich finden sich wahrscheinlich die meisten derzeitigen Systeme wieder). Da mein Board keine 45nm Quads abkann würde die Wahl entweder auf i5/i7 oder auf nen AMD System fallen. Jetzt habe ich die Wahl, entweder ich kaufe mir ein i7 System was ca. 250€ für die CPU, 200 fürs Board und 90€ für den Speicher macht. Oder ich kaufe mir einen 940 für 155 und nen Board für ca. 100€ und nutze meinen Speicher dazu. Für 10% mehr Performance beim Intel System würde ich 250-300€ mehr zahlen, was mMn in keinem Verhältniss steht. Selbst wenn man keinen alten Speicher hat und sich nen 955, AM3 und DDR3 holt, steht der immer noch viel besser da als ein i7.
Ich bin wiegesagt gespannt auf den Larrabee, was ich persönlich davon halte spielt eigentlich keine Rolle, da schlicht nichts wirklich konkretes bekannt ist und das Erscheinungsdatum auch noch so weit entfernt ist....
Mfg
 
das ist ja alles schön und gut
aber wenn intel schon an einer grafikkarte arbeitet die so schnell sein soll wie eine gtx285 dann würd ich sagen, könnten die auch mal (für die leute die es brauchen) schnellere onboardkarten rausbringen die mit denen von ati wenigstens mithalten können
 
Arhey schrieb:
Und diese Leute interessiert der Idle Verbrauch sowieso nicht
Mich schon. Ich sehe keinen Sinn darin, dass meine HW im idle für nichts und wieder nichts Strom säuft.
 
Arhey schrieb:
Und diese Leute interessiert der Idle Verbrauch sowieso nicht

Meine Wenigkeit legt auch großen Wert auf Sparsamkeit im Idle. Mir will es auch nicht in den Kopf, warum ich für manche Grafikkarten im Leerlauf immernoch ein halbes Atomkraftwek brauche. Aber nichtsdestotrotz wird ebenfalls unterschätzt, was die Summe aller kleineren bzw. anderen Komponenten an Strom zieht: Hier sind 2, 3 Festplatten drin, 3x 120er Lüfter, Hauptarbeitsspeicher pulvert auch immer noch mit maximaler VRAM und Frequenz und so weiter und so fort ...

Arhey schrieb:
AMD und ATI sind meiner Meinung nach immernoch was für den "Normalverbraucher" mit knappem Budget.

An der These ist was dran.
AMD strahlt mit seiner Produktpalette aber auch einen gewissen Pragmatismus aus. Es gibt Leute, die kein Interesse daran haben Unsummen in ein i7-System inkl. High-End-Grafikkarte auszugeben. Das Gros der Leute hier würde höchst wahrscheinlich auch mit einem Prozessor wie einem PII 920 für 120EURO inkl. Grafikkarte für 160EURO, beispielsweise eine GTX260 oder eine HD4890 auch ganz glücklich werden. Man lässt sich im Allgemeinen von der Leistungsfähigkeit anderer, teurer Hardware blenden und vergisst dabei völlig, dass diese gegenüber den eigenen Ansprüche und Bedürfnisse gänzlich überproportioniert sind und flüchtet sich dann in der Aussage bzw. Ausrede, dass es eine zukunftssichere Investition sei.

Wenn ich mein GameSys aufrüste, versuche ich einen möglichst kosteneffektiven Weg zu fahren.
Warum soll ich einen E8600 kaufen, wenn ein E7500 für meine Zwecke auch völlig ausreicht?
Warum soll ich einen PII955 kaufen, wenn ein 920 völlig ausreicht?
Warum soll ich eine GTX285 kaufen, wenn eine GTX260 völlig ausreicht?
Warum soll ich eine HD4890 kaufen, wenn eine HD4870 völlig ausreicht?

Und ehrlich gesagt, hatte ich mit meiner Schiene noch nie Probleme irgendein Spiel nicht in qualitativ hohen Settings spielen zu können. Dann ist es eben im Fall der Fälle keine 8-fache Kantenglättung sondern eben 4-fache. - reicht mir völlig.
Für das gesparte Geld gehe ich dann zum Beispiel lieber mit meinen Freunden lecker Essen oder sonst was.
 
MacPok schrieb:
... 2, 3 Festplatten drin, 3x 120er Lüfter, ...
Also die Lüfter sind nen Witz, ein 80cm Lüfter verbraucht bei 2000 U/min ca. 1 W, ein 120er mit 1000 U/min vermutlich das gleiche, also deren verbruach ist pedantischer als Erbsenzählerei. ;) Die 9 Watt, die eine übliche 7200 U/min 3,5" Festplatte verbaucht sind da schon mehr, aber gegen eine 100-Watt-Grafikkarte, welche schon untere Mittelklasse ist, ist das trotzdem nichts - ganz zu schwiegen von den 200-W-Highend-Karten. ;)
 
Zurück
Oben