News Nvidias „Fermi“ zur CES 2010?

Status
Für weitere Antworten geschlossen.
low und midendbereich mit fermi ausschuss ist imho unrealistisch, weil dich chips viel zu groß und stromhungrig sind. man kann bei einer gpu ja nicht einfach ein stück abschneiden wie von einem apfel und den rest nutzen.
wenn dann kann es nur sein, dass man die ableger der architektur vorziehen wird, da bei kleinen chips die yields deutlich besser sind. aber sowas ist eher unüblich. hat ati damals mit der hd2k auch nicht gemacht.
in dem bereich ist dx11 uninteressant und mit gt210, gt220 und gt240 schon ein billig produzierbares produkt vorhanden.
 
Tja vielleicht ist NV gar nicht dabei sich gegen ATI zu rüsten . Vielleicht ist denen ATI auch Scheiß egal. Vielleicht wollen die einfach sich gegen Intel rüsten und etwas dem Laberree oder wie man den schreibt entgegensetzen. Vielleicht überlassen Sie ATI gerne mal das Feld. Ich meine der 300 geht in eine ganz andre Richtung als ATI. NV und Intel gehen eigentlich den gleichen Weg. Nur NV mit GPUChips für die Grafik und Intel mit CPUs für die Grafik. Ich denke das sich der Markt in Richtiung Intel verschieben wird und NV das erkannt hat und daran arbeitet. Wenn es so kommt, dann wird ATI noch ganz alt aussehen den die 6er Reihe geht weiter den Weg den sie jetzt auch gehen und das wäre der falsche. Naja wir werden es sehen.
 
Lübke schrieb:
man kann bei einer gpu ja nicht einfach ein stück abschneiden wie von einem apfel und den rest nutzen.
Doch wird per Laser gemacht. Ist schon seit Jahren gang und gebe.
 
@Mister79

nur hast du das kleine Detail übersehen, dass in der theoretischen leistung die radeons schon seit langem schneller sind, und der cypress selbst im GPGPU den G200 überflügelt.
Einen Cypress als Workstation Grafikkarte mit 4gb speicher düfte keine Assembly nieder machen.


gruß
 
MMh, wie es scheint war charlie diesmal näher an der wahrheit dran als sonst.

Hätte ich garnicht erwartet das chrlies vorherhsage wirkjlich so eintrifft, aber doch, CHARLIE HATTE RECHT!!
 
@Mister79

Sorry, aber nVidia muss von der Rohleistung noch ein gutes Stück aufholen zu ATI Karten, guck die mal vergleiche bei GPU Projekten von Boinc an, wo die ATI Karten die Aufgaben wesentlich schneller bewältigen.
Noch hat nVidia den vorteil durch Cuda deswegen ist zb die Folding@Home app noch so schlecht für die ATI
 
Schinzie

Gut jetzt verlasse ich mein Wissen mal aber ich versuche es.

Theoretische Leistung ist halt Theorie. Der 300 und Intel gehen einen ganz anderen Weg als ATI. Allein die Entwicklung ist eine ganz andere. Wenn also NV und Intel erfolg haben müsste ATI nachziehen und genau dort sehe ich das Problem. Sicher haben sie einen Teil der Erfahrung aber nur einen Teil und würde das ganze Konzept von ATI über den Haufen werfen. So habe ich es wenigstens verstanden. Fakt ist doch was am Monitor ankommt und gemessen wird und stand heute sprich ohne ATI und dem 5000 Chip war NV immer schneller als ATI-Theroie hin oder her. Preis mal bei Seite nur Leistung betrachten. Aber Cuda hat es gerichtet. Wir befinden uns an einem Zeitpunkt in dem der Grafikbereich irgendwie neu erfunden wird. So habe ich das im Gefühl und Intel ist schon länger dabei und NV irgendwie mit dem 300 und eventuell basteln sie schon länger drauf hin.

Oder bin ich jetzt in einem ganz falschen Zug?

Don Geilo

Mhh renden wir vom gleichen? Ich rede vom Gamen und nicht von diesem Projekt. Wobei ich da gerne mal mitmachen würde aber es noch nicht richtig verstanden habe was ich wie wo eintellen muss in der Software. Wobei ich meine gehört zu haben und das auf CB das NV dort und im Bereich GPGPU unschlagbar ist und ATI dort kämpft aber nicht weiter kommt und es nicht schafft sein Produkt richtig zu vermarkten und Cuda schon viel weiter ist und mehr Akzeptanz findet. Naja nicht ganz mein Gebiet von daher nicht böse sein es ist kein Wissen dahinter zumindestens kein richtiges.
 
Zuletzt bearbeitet:
Theoretische Leistung ist in sachen GPGPU nicht nur Theorie. Die Theorie klappt in diesem Falle nämlich ganz gut. CUDA bremst ATI Karten ganz schön aus das ist korrekt. Allerdings haben ATI Karten immernoch theoretisch die ganz klar stärkere Leistung. Man siehe das neue Spiel von Futuremark. Hier schlägt sogar eine HD4870 eine GTX285. (Shaderlastiges Spiel)
 
Also ich halte den Larrabee noch immer für eine Totgeburt. Er hat den Vorteil der schnelleren Miniaturisierung (32nm sollte Intel schneller hinkriegen als TSMC) aber die Nachteile einer X86 Architektur (die ja überhaupt nicht perfomant ist... auch wenn die Cores beim Larrabee natürlich optimiert wurden).
Am Ende bleibt eine zu hohe Leistungsaufnahme bei zu wenig Leistung. Und der Fokus auf Raytracing macht die Sache noch schwieriger. Für den Gaming-Bereich ist die Raytracing Leistung nicht ausreichend und bringt zu wenig optische Qualität (dazu "faked" die derzeitige Rasterisierungstechnik einfach zu gut) und für den GPU-Computing Bereich ist die Verwandschaft mit der eigentlichen Cpu zu hoch als dass Larrabee hier durch unglaubliche Performance von sich Reden machen könnte.

Zum "Zerschneiden" des Grafikchips: Ich denke das ist stark Designabhängig. Natürlich kann man nicht einfach einen beliebeigen Lasercut durch die Gpu machen. Aber man kann beim Design schon verschiedene (möglichst kleine) Kompartimente einplanen die autonom funktionieren. (z.B. in den Shadereinheiten) Bei Defekten in diesem Teil tut dann der Lasercut nicht weh ;-)
Zumal die Fehler im Chip ja nicht vollkommen zufällig auftauchen dürften sondern an einigen (besonders dicht gepackten) Stellen gehäuft. Und das wurde vorher mit Simulationen bestimmt durchgespielt und das Design des Chips dementsprechend angepasst sodass eine "Zerstückelung" in Low und Midend erleichtert wird.

ist natürlich reine Spekulation... :)
Ergänzung ()

Das besondere am Fermi ist doch dass er nativ C++ versteht und damit theoretisch genauso flexibel wie ein x86 Chip ist (also hat er auch die gleiche Felxibilität wie Larrabee)
Damit wäre doch jeder Raytracer mit wenigen Anpassungen in der Lage den Fermi als Cpu-Ersatz zu benutzen.
Und ab hier ist all die theoretische GPUPU Leistung nur noch Theorie. Ganz einfach weil ein Ati Pendant kein C++ kann.
Natürlich könnte man einen Renderer speziell für eine Ati GPU schreiben und über DirectX 11 ansprechen. Allerdings wäre das

a.) ein großer Aufwand
b.) gäbe es Fälle die schlicht nicht berechnet werden können weil auch ein Compute Shader nicht annähernd so flexibel ist wie einer der nativ c++ versteht.
 
epospecht schrieb:
Also ich halte den Larrabee noch immer für eine Totgeburt.

Intel wird Larrabee erst rausbringen wenn die Leistung stimmt. Intel hat Geld ohne Ende und eigene Fabs. Keine Chance für ATI und Nvidia. Wart's ab!
 
@M.(to_the)K.: charly hat (wie ungefähr die hälfte der user hier auch) richtig geraten. wobei bei charly wohl vor allem propaganda gegen nvidia im vordergrund stand und da es grad schlecht bei nv läuft auch nah damit an die wahrheit gekommen ist. wenn ich immer im rahmen des realistischen vom schlechtesten fall ausgehe, werde ich auch unweigerlich gelegentlich damit richtig liegen. andersrum wenn ich auf den besten fall setze aber genauso.

die x86 architektur ist ebenso performant wie die shaderarchitektur bei ati oder nvidia. sie kann arbeiten, die auf die entsprechenden befehlssätze bauen, deutlich schneller bewältigen. bei parallelisierten berechnungen jedoch muss sie massiv hinter der shader-architektur zurückstecken. alles eine frage der anwendung.
und da intel mit unsummen von geld ausgestattet ist, können sie entsprechende standarts "erzwingen".
ich würde den larrabee nicht unterschätzen, auch wenn ich anfangs anders gedacht habe. aber die entwicklung bei nvidia deutet auf einen wandel im grafiksegment hin. also nimmt nvidia intels larrabee sehr ernst.
 
Zuletzt bearbeitet:
ich finde es lohnt sich nicht mehr, auf den fermi zu warten.
wer jetzt eine high end karte will, greift zur 5870.

denn kurz nach fermis verfügbarkeit kommt dann schon die 6000-er serie von ati, die (hoffentlich) besser ist als der fermi.

oder man wartet eben gleich bis zur 6k serie.
 
@Mister79

Mit DX11 hat sich der vorteil von der Leichteren CUDA programmierung wohl erledigt, und ja dein Wissen ist nur halbwissen. Aber wenn du das weißt !? Wieso schreibste den was ?

Die ATI Karten Leisten halt einfach viel mehr FLOPS als die nVidias und gerade bei GPUCOMPUTING sieht man das sehr deutlich.
 
elastic schrieb:
ich finde es lohnt sich nicht mehr, auf den fermi zu warten.
wer jetzt eine high end karte will, greift zur 5870.

denn kurz nach fermis verfügbarkeit kommt dann schon die 6000-er serie von ati, die (hoffentlich) besser ist als der fermi.

oder man wartet eben gleich bis zur 6k serie.

Und du glaubst de 6k Serie ist in 6 Monaten draußen?

Und wo kaufst du jetzt die 5870?
Denn all zu oft sieht man die ja nicht:D
 
Ganz einfach Don Geilo weil ich sonst nix neues lernen kann. Fragen, vermuten und verbessert werden finde ich die einfachste Art zu lernen. Sicher sollte man überdenken was der andere sagt und verbessert und nicht blind glauben aber ich denke du verstehst was ich meine. Ich behaupte ja nicht etwas und sage nicht das ich Recht habe sondern ich versuche es zu begreifen und zu verstehen wo ich meine Lücken habe. Das ist doch legitim oder? Vorallem wenn es darum geht nächstes Jahr eine neue Grafikkarte zu kaufen und dafür sicher wieder ca 400 Euro über den Tisch wandern.

Und was die Flops betrifft, soll der 300 da nicht ordentlich mehr haben. Aber ich denke das wird man erst wissen wenn er mal kommt oder? Ich meine die Aussagen alle hier sind voll mit Vermutungen und Meinungen aber ich muss es von Anfang an ja verstehen und Lücken füllen. Wie soll ich sonst nächstes Jahr entscheiden was die bessere ist. Weil CB meint es am Preis festmachen zu müssen? Nene das ist mir zu einfach.
 
Zuletzt bearbeitet:
@c80

Intel kann auch rechnen. Und wenn der Larrabee aufgrund seiner grundlegenden Architektur nicht konkurrenzfähig ist und man mehr in die Forschung investieren muss als es das Marktsegment im Endeffekt zurückgeben kann dann wird Intel das Larrabee Projekt stoppen.

Auf jeden Fall gibt es eine Investitionsgrenze. Die liegt derzeit bei 6.55 Milliarden Dollar.
Das wäre nämlich die Marktkapitalisierung von Nvidia (aka Börsenwert). Rechne 25% drauf und du hättest den Kaufpreis für Nvidia. Und zwar für einen ganzen Grafikbereich + Mobile Segment.
 
2/3 aller NV Karten werden immer noch im Gamer bereich verkauft. Wenn der Gewinn im profi bereich 2/3 ausmacht liegt das nur daran das dafür einfach mehr bezahlt wird.
Genau da liegt der Hase begraben wenn NV es nicht schafft GPus zu produziernen die auch im Gamerbereich Geld verdienen siehts böse aus. Mit ihren riesen Monsterchips wird das auch beim Fermi nichts werden. Genau wie bei den vorgänger Chips. Das ist das gravierende problem das NV hat.
 
@Mister79

Stimme dir zu, nur dein Post hörte sich ein wenig danach an als wenn du uns von deiner Meinung überzeugen willst. Also Sorry von mir.

Naja wer weiß wieviel GFlops der Fermi haben wird, aber er muss ja erstmal ordentlich aufholen, der GT200 hat gerade mal 1.063 GFLOPs, das ist soviel wie eine 4850...


4870
1.200 GFLOP/s
4890
1.360 GFLOP/s
5850
2.090 GFLOP/s
5870
2.720 GFLOPs
GTX285
1.063 GFLOPs

NV müsste die GFLOPs also verdreifachen. Und dann ist sie in GPUCOMPUTING wohl auch vorne, zumindest wenn es um simple sachen wie das Collatz problem oder so geht.
 
lxmichi schrieb:
Und du glaubst de 6k Serie ist in 6 Monaten draußen?

Und wo kaufst du jetzt die 5870?
Denn all zu oft sieht man die ja nicht:D

Das halte ich nicht für unmöglich. Der Aufbau von einer 4870 zu einer 5870 hat sich leicht aber entscheidend geändert.
Wo die 4870 einen Block aus vielen kleinen Cores hatte sind es bei der 5870 schon 2 solcher Blöcke a 800 Shader. Ati kann hier einfach einen Block aus 800 Shadern dazumachen und dem Block ein 128 bit SI geben. Tadaaaaa! Schon ist die neue 6870 mit 2400 Shadern und 384 bit SI da.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben