Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
low und midendbereich mit fermi ausschuss ist imho unrealistisch, weil dich chips viel zu groß und stromhungrig sind. man kann bei einer gpu ja nicht einfach ein stück abschneiden wie von einem apfel und den rest nutzen.
wenn dann kann es nur sein, dass man die ableger der architektur vorziehen wird, da bei kleinen chips die yields deutlich besser sind. aber sowas ist eher unüblich. hat ati damals mit der hd2k auch nicht gemacht.
in dem bereich ist dx11 uninteressant und mit gt210, gt220 und gt240 schon ein billig produzierbares produkt vorhanden.
Tja vielleicht ist NV gar nicht dabei sich gegen ATI zu rüsten . Vielleicht ist denen ATI auch Scheiß egal. Vielleicht wollen die einfach sich gegen Intel rüsten und etwas dem Laberree oder wie man den schreibt entgegensetzen. Vielleicht überlassen Sie ATI gerne mal das Feld. Ich meine der 300 geht in eine ganz andre Richtung als ATI. NV und Intel gehen eigentlich den gleichen Weg. Nur NV mit GPUChips für die Grafik und Intel mit CPUs für die Grafik. Ich denke das sich der Markt in Richtiung Intel verschieben wird und NV das erkannt hat und daran arbeitet. Wenn es so kommt, dann wird ATI noch ganz alt aussehen den die 6er Reihe geht weiter den Weg den sie jetzt auch gehen und das wäre der falsche. Naja wir werden es sehen.
nur hast du das kleine Detail übersehen, dass in der theoretischen leistung die radeons schon seit langem schneller sind, und der cypress selbst im GPGPU den G200 überflügelt.
Einen Cypress als Workstation Grafikkarte mit 4gb speicher düfte keine Assembly nieder machen.
Sorry, aber nVidia muss von der Rohleistung noch ein gutes Stück aufholen zu ATI Karten, guck die mal vergleiche bei GPU Projekten von Boinc an, wo die ATI Karten die Aufgaben wesentlich schneller bewältigen.
Noch hat nVidia den vorteil durch Cuda deswegen ist zb die Folding@Home app noch so schlecht für die ATI
Gut jetzt verlasse ich mein Wissen mal aber ich versuche es.
Theoretische Leistung ist halt Theorie. Der 300 und Intel gehen einen ganz anderen Weg als ATI. Allein die Entwicklung ist eine ganz andere. Wenn also NV und Intel erfolg haben müsste ATI nachziehen und genau dort sehe ich das Problem. Sicher haben sie einen Teil der Erfahrung aber nur einen Teil und würde das ganze Konzept von ATI über den Haufen werfen. So habe ich es wenigstens verstanden. Fakt ist doch was am Monitor ankommt und gemessen wird und stand heute sprich ohne ATI und dem 5000 Chip war NV immer schneller als ATI-Theroie hin oder her. Preis mal bei Seite nur Leistung betrachten. Aber Cuda hat es gerichtet. Wir befinden uns an einem Zeitpunkt in dem der Grafikbereich irgendwie neu erfunden wird. So habe ich das im Gefühl und Intel ist schon länger dabei und NV irgendwie mit dem 300 und eventuell basteln sie schon länger drauf hin.
Oder bin ich jetzt in einem ganz falschen Zug?
Don Geilo
Mhh renden wir vom gleichen? Ich rede vom Gamen und nicht von diesem Projekt. Wobei ich da gerne mal mitmachen würde aber es noch nicht richtig verstanden habe was ich wie wo eintellen muss in der Software. Wobei ich meine gehört zu haben und das auf CB das NV dort und im Bereich GPGPU unschlagbar ist und ATI dort kämpft aber nicht weiter kommt und es nicht schafft sein Produkt richtig zu vermarkten und Cuda schon viel weiter ist und mehr Akzeptanz findet. Naja nicht ganz mein Gebiet von daher nicht böse sein es ist kein Wissen dahinter zumindestens kein richtiges.
Theoretische Leistung ist in sachen GPGPU nicht nur Theorie. Die Theorie klappt in diesem Falle nämlich ganz gut. CUDA bremst ATI Karten ganz schön aus das ist korrekt. Allerdings haben ATI Karten immernoch theoretisch die ganz klar stärkere Leistung. Man siehe das neue Spiel von Futuremark. Hier schlägt sogar eine HD4870 eine GTX285. (Shaderlastiges Spiel)
Also ich halte den Larrabee noch immer für eine Totgeburt. Er hat den Vorteil der schnelleren Miniaturisierung (32nm sollte Intel schneller hinkriegen als TSMC) aber die Nachteile einer X86 Architektur (die ja überhaupt nicht perfomant ist... auch wenn die Cores beim Larrabee natürlich optimiert wurden).
Am Ende bleibt eine zu hohe Leistungsaufnahme bei zu wenig Leistung. Und der Fokus auf Raytracing macht die Sache noch schwieriger. Für den Gaming-Bereich ist die Raytracing Leistung nicht ausreichend und bringt zu wenig optische Qualität (dazu "faked" die derzeitige Rasterisierungstechnik einfach zu gut) und für den GPU-Computing Bereich ist die Verwandschaft mit der eigentlichen Cpu zu hoch als dass Larrabee hier durch unglaubliche Performance von sich Reden machen könnte.
Zum "Zerschneiden" des Grafikchips: Ich denke das ist stark Designabhängig. Natürlich kann man nicht einfach einen beliebeigen Lasercut durch die Gpu machen. Aber man kann beim Design schon verschiedene (möglichst kleine) Kompartimente einplanen die autonom funktionieren. (z.B. in den Shadereinheiten) Bei Defekten in diesem Teil tut dann der Lasercut nicht weh ;-)
Zumal die Fehler im Chip ja nicht vollkommen zufällig auftauchen dürften sondern an einigen (besonders dicht gepackten) Stellen gehäuft. Und das wurde vorher mit Simulationen bestimmt durchgespielt und das Design des Chips dementsprechend angepasst sodass eine "Zerstückelung" in Low und Midend erleichtert wird.
ist natürlich reine Spekulation...
Ergänzung ()
Das besondere am Fermi ist doch dass er nativ C++ versteht und damit theoretisch genauso flexibel wie ein x86 Chip ist (also hat er auch die gleiche Felxibilität wie Larrabee)
Damit wäre doch jeder Raytracer mit wenigen Anpassungen in der Lage den Fermi als Cpu-Ersatz zu benutzen.
Und ab hier ist all die theoretische GPUPU Leistung nur noch Theorie. Ganz einfach weil ein Ati Pendant kein C++ kann.
Natürlich könnte man einen Renderer speziell für eine Ati GPU schreiben und über DirectX 11 ansprechen. Allerdings wäre das
a.) ein großer Aufwand
b.) gäbe es Fälle die schlicht nicht berechnet werden können weil auch ein Compute Shader nicht annähernd so flexibel ist wie einer der nativ c++ versteht.
@M.(to_the)K.: charly hat (wie ungefähr die hälfte der user hier auch) richtig geraten. wobei bei charly wohl vor allem propaganda gegen nvidia im vordergrund stand und da es grad schlecht bei nv läuft auch nah damit an die wahrheit gekommen ist. wenn ich immer im rahmen des realistischen vom schlechtesten fall ausgehe, werde ich auch unweigerlich gelegentlich damit richtig liegen. andersrum wenn ich auf den besten fall setze aber genauso.
die x86 architektur ist ebenso performant wie die shaderarchitektur bei ati oder nvidia. sie kann arbeiten, die auf die entsprechenden befehlssätze bauen, deutlich schneller bewältigen. bei parallelisierten berechnungen jedoch muss sie massiv hinter der shader-architektur zurückstecken. alles eine frage der anwendung.
und da intel mit unsummen von geld ausgestattet ist, können sie entsprechende standarts "erzwingen".
ich würde den larrabee nicht unterschätzen, auch wenn ich anfangs anders gedacht habe. aber die entwicklung bei nvidia deutet auf einen wandel im grafiksegment hin. also nimmt nvidia intels larrabee sehr ernst.
Mit DX11 hat sich der vorteil von der Leichteren CUDA programmierung wohl erledigt, und ja dein Wissen ist nur halbwissen. Aber wenn du das weißt !? Wieso schreibste den was ?
Die ATI Karten Leisten halt einfach viel mehr FLOPS als die nVidias und gerade bei GPUCOMPUTING sieht man das sehr deutlich.
Ganz einfach Don Geilo weil ich sonst nix neues lernen kann. Fragen, vermuten und verbessert werden finde ich die einfachste Art zu lernen. Sicher sollte man überdenken was der andere sagt und verbessert und nicht blind glauben aber ich denke du verstehst was ich meine. Ich behaupte ja nicht etwas und sage nicht das ich Recht habe sondern ich versuche es zu begreifen und zu verstehen wo ich meine Lücken habe. Das ist doch legitim oder? Vorallem wenn es darum geht nächstes Jahr eine neue Grafikkarte zu kaufen und dafür sicher wieder ca 400 Euro über den Tisch wandern.
Und was die Flops betrifft, soll der 300 da nicht ordentlich mehr haben. Aber ich denke das wird man erst wissen wenn er mal kommt oder? Ich meine die Aussagen alle hier sind voll mit Vermutungen und Meinungen aber ich muss es von Anfang an ja verstehen und Lücken füllen. Wie soll ich sonst nächstes Jahr entscheiden was die bessere ist. Weil CB meint es am Preis festmachen zu müssen? Nene das ist mir zu einfach.
Intel kann auch rechnen. Und wenn der Larrabee aufgrund seiner grundlegenden Architektur nicht konkurrenzfähig ist und man mehr in die Forschung investieren muss als es das Marktsegment im Endeffekt zurückgeben kann dann wird Intel das Larrabee Projekt stoppen.
Auf jeden Fall gibt es eine Investitionsgrenze. Die liegt derzeit bei 6.55 Milliarden Dollar.
Das wäre nämlich die Marktkapitalisierung von Nvidia (aka Börsenwert). Rechne 25% drauf und du hättest den Kaufpreis für Nvidia. Und zwar für einen ganzen Grafikbereich + Mobile Segment.
2/3 aller NV Karten werden immer noch im Gamer bereich verkauft. Wenn der Gewinn im profi bereich 2/3 ausmacht liegt das nur daran das dafür einfach mehr bezahlt wird.
Genau da liegt der Hase begraben wenn NV es nicht schafft GPus zu produziernen die auch im Gamerbereich Geld verdienen siehts böse aus. Mit ihren riesen Monsterchips wird das auch beim Fermi nichts werden. Genau wie bei den vorgänger Chips. Das ist das gravierende problem das NV hat.
Stimme dir zu, nur dein Post hörte sich ein wenig danach an als wenn du uns von deiner Meinung überzeugen willst. Also Sorry von mir.
Naja wer weiß wieviel GFlops der Fermi haben wird, aber er muss ja erstmal ordentlich aufholen, der GT200 hat gerade mal 1.063 GFLOPs, das ist soviel wie eine 4850...
NV müsste die GFLOPs also verdreifachen. Und dann ist sie in GPUCOMPUTING wohl auch vorne, zumindest wenn es um simple sachen wie das Collatz problem oder so geht.
Das halte ich nicht für unmöglich. Der Aufbau von einer 4870 zu einer 5870 hat sich leicht aber entscheidend geändert.
Wo die 4870 einen Block aus vielen kleinen Cores hatte sind es bei der 5870 schon 2 solcher Blöcke a 800 Shader. Ati kann hier einfach einen Block aus 800 Shadern dazumachen und dem Block ein 128 bit SI geben. Tadaaaaa! Schon ist die neue 6870 mit 2400 Shadern und 384 bit SI da.