News TSMCs 40-nm-Yields weiterhin unter 50 Prozent?

naja der herstellungsprozess ist aber ähnelnd.
wenn es an der DIEgröße liegt okay... dann mal vielleicht auf mehrkerner / X2 umswitchen -.- kann ja nicht ewig so weiter gehen!
 
Immernoch unter 50?`Das schmerzt NV bestimmt derb.
 
Das Nvidia nen 200mm² größeren Chip rausbringen muss um ATI zu schlagen zeigt wie überlegen ATI ist.

Erstes Fail
Fermi ist eigentlich als GPGPU chip gedacht gewesen und nicht fürs zocken.

Ende des Jahres wird ATI seine nächste Grafikkartengeneration rausbringen.

Zurzeit sieht es eher nach Q1/Q2 2011 aus.

Spätestens da hat NVIDIA endgültig verloren.

Das weißt du woher?

Da wird CUDA und das tolle Brillen-3D auch net mehr helfen.

Zweites Fail

Guck doch mal was shcon von CUDA so untersützt wird.
Ich bin mir sicher, die Zukunft des Gaming liegt in 3D.
Ist nur eine Frage der Zeit wann es von ATi kommt.
Ich sehe dein Zitat:
ATi 3D!!11 Eine Revulotion! Nie zuvor da gewesen! Jetzt kann NV einpacken
 
Oh Shurkien - ein verfächter NVs :D

Erstes Fail
Fermi ist eigentlich als GPGPU chip gedacht gewesen und nicht fürs zocken.
Fail - Fermi ist als modulare GPU Einheit Gedacht welche logisch (und nicht virtuel) angepasst werden kann.


Zurzeit sieht es eher nach Q1/Q2 2011 aus.
Das ist genauso spekulation wie das sie Q4 2010 rauskommt - alles humbug, von daher streichen!


Guck doch mal was shcon von CUDA so untersützt wird.
Ich bin mir sicher, die Zukunft des Gaming liegt in 3D.

CUDA /= 3D! CUDA ist eine von NV gepushte physik. Berechnung, Konkurrenz dazu seitens ATi gibt es wird aber dank des "featering NVs Firmen gegenüber" sicher kaum Chance haben, da hat NV die Nase vorn.

3D ist meiner Meinung nach Humbug! Viele User (darunter ich) haben kein Bock auf eine Farbverfälschende, oder Unscharfe, oder beides zusammen, Brille auf der Nase. Wenn 3D vernünftig realisiert wird wäre es nett... bis dahin Zielgruppe max. <30 Jahre und gelegentliche Kinobesucher...
 
CoffeeJunkie schrieb:
Sind bei den schlechten Cypress-Yields denn schon die teildeaktivierten/-defekten Derivate einberechnet? Oder beziehen sich die 20% nur auf voll funktionelle Chips?

Die 5800er Serie hatte zu keinem Zeitpunkt seit Launch so eine schlechte Yield. Mit so einer besch.... yield bringt man einfach keine Chips auf den Markt. 5870/5850/5830 haben zusammen sicher deutlich mehr als 50%. Vermutlich eher an die 70-80%.

Geringe Verfügbarkeit resultiert einfach aus geringer Kapazität bei TSMC (NVIDIA/ATI vermutlich 50/50, dazu kommen die ganzen lowend Sachen, da bleibt nimmer viel übrig) kombiniert mit einem attraktiven Preis und hoher Nachfrage.

sseidelsrb schrieb:
Hat Anfang des Jahres nicht gesagt sie hätten bereits 2 Mio Karten verkauft?

Wie geht das wenn pro Quartal nur 80.000 Wafer produziert werden?

27000 Wafer pro Monat, bei angenommener Verteilung 50:50 --> ATI:NVIDIA bleiben 13500 Wafer für ATI. Macht allein für Cypress (von dem ca. 150 auf einen Wafer passen) ca. 2 Mill. pro Monat. Bei den kleineren entsprechend mehr.

Allerdings muss man berücksichtigen, das im September, als Cypress startete, noch wesentlich weniger Wafer produziert wurden und einige Chips aufgrund von defekten nicht verwendet werden können.

Im Juli waren es nur 9000 Wafer

Ich denke die 50%, von denen Digitimes hier spricht, beziehen sich rein auf die GTX 4x0.

Alles andere macht gar keinen Sinn, da die "Gesamt-Yield" (was ein Quark) schonmal bei 60% war.

Außer Fermi ist so schlecht (zu fertigen), das er die Gesamtbilanz derart ruiniert :evillol::king::volllol:
 
Shurkien schrieb:
Erstes Fail
Fermi ist eigentlich als GPGPU chip gedacht gewesen und nicht fürs zocken.
Ich weiß. Aber da se nix gleichwertiges zu bieten haben müssen das Monster jetzt für den Gamingmarkt rausbringen. Sieht für mich nach einer Verzweiflungstat aus.

Shurkien schrieb:
Zurzeit sieht es eher nach Q1/Q2 2011 aus.
Da habe ich andere News gelesen... Wir werden es ja sehen.


Shurkien schrieb:
Das weißt du woher?
Ist halt zu erwarten.

Shurkien schrieb:
Zweites Fail

Guck doch mal was shcon von CUDA so untersützt wird.
Ich bin mir sicher, die Zukunft des Gaming liegt in 3D.
Ist nur eine Frage der Zeit wann es von ATi kommt.
Denke es wird da eher Rrichtung OpenCL gehen. Das hat viel mehr Vorteile, da es wesentlich mehr Platformen unterstützen wird.
Ich bin mir auch sicher, das es in Richtung 3D gehen wird. Aber net mit ner Brille. Keiner will sich ne Brille aufsetzen um 3D Zeugs zu sehen. Stell dir mal vor du willst nen Videoabend mit deinen besten Freunden machen und brauchst dann für jeden eine 3D Brille für 100€. Teuer Spaß wa? Ohne gehts auch. Das brauch halt nur noch nen bissl Zeit. Hab diesen Effekt selber schonmal bei einem Prototypen gesehen. Ist viel beeindruckender wenn man dafür keine Brille braucht ;)
 
DUNnet schrieb:


Moment!
Ich habe NIE gesagt das CUDA was mit 3D zutun hat.

Stell dir mal vor du willst nen Videoabend mit deinen besten Freunden machen und brauchst dann für jeden eine 3D Brille für 100€. Teuer Spaß wa? Ohne gehts auch

Sicherlich.
Nur wann wird das ausgereift sein und was wird das kosten?
Ich denk ma da is die Brille billiger.

Bevor die Technik ohne Brille ausgereift ist werden die Brillen bestimmt sehr günstig zu haben sein (Ich tipp auf ~15-30€ pro Nase).
Viele weinen dann wohl wieder vonwegen kein gemütliches chillen blabla..
Ich bin Brillenträger und hab schon mit dieser 3D Brille gespielt, anfangs sehr störend, nach ner Zeit ist man so in dem Spiel drin das man nix mehr mitkriegt.
 
Also, nen CPU braucht nen vollkommen anderen Prozessablauf als nen GPU, auch UMC kann keine GPU fertigen...

Globalfoundries baut derzeit die Fab in Dresden aus, dass dort ATI/Nvidia gefertigt werden kann in bis zu 22nm...

TSMC ist halt nen Taiwaner, die ballern ohne ende Wafer durch die Fab ohne dabei mal richtig die Prozesse in den Griff zu bekommen... kann mich nicht erinnern das TSMC jemals 90%+ gehabt hätte, wie z.B. Infineon oder AMD in Dresden.

Es werden derzeit jede menge neue Fabs gebaut, ich denke das wird bald kein Thema mehr sein, aber bis dahin ists ende 2011...

Ich denke auch das Globalfoundries TSMC ganzschön aufträge abnimmt, sobald die Fab in Dresden Volumen macht und die in New York ebenso...

Intel hat ja eigene Fabs und auch die Kohle immer auf die neusten Upgrades für die Tools zu setzen, das kann TSMC nicht :) daher wird Intel auch mit den Tik Tok modell erstmal keine Probleme haben und bald in 2xnm fertigen.


War nur eine Frage der Zeit bis TSMC einbricht, solange aber genug Nachfolger am Markt bereitstehen, wird alles gut :D
 
Ich bin kein Brillenträger und will es auch net werden ;)

Wird sich net durchsetzen. Glaub mir. Wir sprechen uns in ein paar jahren nochmal ;)
 
Intruder66 schrieb:
Kann das heißen, dass es dann später irgendwann GTX 4XX-Karten mit 512 Cuda-Cores gibt?

das kann ich mir gut vorstellen, weil es gab doch zu erst eine GTX 260 192Stream-Prozessoren, danach hatte Nvidia eine GTX260² mit 216 Stream-Prozessoren rausgebracht, was für ne ver*rsche :freak:
 
3D geht auch ohne Brille, die Technik existiert sie muss nur "Massentauglich" werden...

Wer jetzt auf den Quark von Nvidia setzt, kann sein Geld auch gleich verbrennen :D

Im Kino z.B. gehts auch ohne Elektrische Shutter brille oder Rot/Cyan... also selbst die sind schon weiter als Nvidia und AMD hat 3D quasi auch fast am Start... also mal die Bälle flach halten.

Der Support für Cuda liegt auch daran das viel Geld und Software von Nvidia rausgehauen wurde um das zu pushen, wird über kurz oder lang aber von OpenCL gekillt werden, wozu sich auf eine Hardware beschränken, wenn mit OpenCL selbst nen GMA von Intel ordentlich Leistung liefert... und das Gratis :D
 
Och Gott. Wenn ich nur daran denke.
Ende/Anfang 2008/2009 als ich anfing mir ein paar Karten anzusehen (weil ich genug von meiner 8500GT 512MB hatte).
Da hatte ich nicht selten sowas wie "haja, wart doch noch ein bissl, bald kommen die DX11 Karten! wow, DX11 und so!" gelesen.

Nun ja, jetzt werde ich wohl HD58XX und Fermi mit meiner GTX275 896MB Golden Sample (damals NEU! 170€) überspringen! :lol:
Wenn dann schon HD5870 doch was hat die mir eigentlich zu bieten (wow DX11!) und 2 bis 3 Frames mehr in 2 bis 3 Spielen (wow!). Und die Stromersparnis gleicht da nichts wieder aus!

Trotzdem. Die Nacht von Freitag auf Samstag also? Klingt gut!
 
Naja, ist schon deutlich mehr als 2-3 Frames und das überall, aber kranker Optimismus stirbt dirkekt nach der Hoffnung :P

Und erlebe mal DX11, dann wirste es nichtmehr verspotten :P

Leute leute, dinge die man nicht kennt schlecht machen, weil man sich zu feige ist einzugestehen, dass man doch neidisch ist :D
 
so wie ich das sehe steckt TSMC kaum mehr Geld in den Problem behafteten 40nm Prozess.
denn in 2010Q3 startet der 28nm Prozess.
2011Q1 soll es dann erste Grafikkarten in 28nm geben.
da gibt es doch keinen Sinn noch Milliarden in den 40nm umbau zu investieren.

hier mal eine Interessante Grafik: TSMC
45% Fertigt TSMC noch im >100nm Prozess, hätte ich nicht erwartet.
 
na immerhin 480. für die gtx 470 sind laut derzeitigen spekulationen "nur" 448 angesetzt. mit bis zu 480(1D) shadern hat nvidia genau wie ati die anzahl gegenüber den vorgängern verdoppelt. außerdem hat nvidia das speicherinterface vergrößert (320bit für gtx470 und 386bit für gtx480) und setzt zum ersten mal gddr5 speicher in einer high end karte ein. das die karten mit etwa 650mhz chiptakt laufen hatte nvidia schon bestätigt aber sie wollten den auf bis zu 750mhz bringen. in jedem fall ist es nicht weniger als früher. mit diesen eckdaten sollten die neuen karten gar nicht so schlecht da stehen. warten wir das ende der woche ab und dann sind wir alle ein stück schlauer.
 
to0st0n3d schrieb:
Ich bin kein Brillenträger und will es auch net werden ;)

Wird sich net durchsetzen. Glaub mir. Wir sprechen uns in ein paar jahren nochmal ;)

Ich sagte auch nicht das sich das durchsetzen wird.
Ich verspreche dir, die Monitore etc wo 3D ohne Brille geht werden in den ersten 2-5Jahren so übertrieben teuer sein das sich das nur Enthusiasten holen werden
 
Ja, aber vorraussichtlich resultiert das nur in wenigen % mehrleistung dafür in einem Verbrauch der auf 5970 Niveau liegt und das bei weniger Leistung...

Fermi ist eine Karte für OpenGL und GPGPU, nix für Gamer, wer glaubt das Nvidia die Spieler irgendwas bedeuten, hat sich gewaltig geschnitten :D

Der GT200 ist auch nur nen Abklatsch der Profiserie, der zufällig gut war... bei Fermi wirds anders aussehen :D -meine Meinung-
 
Noch was Interessantes, die 80.000 Wafer beziehen sich also wohl doch auf 8" bzw. 200mm Wafer.
in Wirklichkeit könnte es also nur 35.000 12" Wafer geben (bei 40nm setzen sie vermutlich nur 300mm Wafer ein)

1) Figures represent number of 6” wafers. Conversion to 8”-equivalent wafers is obtained by dividing this number by 1.78.
(2) Figures represent number of 12” wafers. Conversion to 8”-equivalent wafers is obtained by multiplying this number by 2.25
 
Hmmm, da ich nur ein eingeschränktes räumliches Sehvermögen habe, geht an mir die ganze 3D-Technik vorbei. Meinen Kontostand und meine Frau wird's freuen, die hält das auch alles für Firlefanz.
Mir scheint, ich kann in den nächsten Jahren viel Geld sparen:D
 
und es geht in die zweite Runde...NVIDIA vs. ATI, mal ehrlich, seid ihr es nicht langsam leid?
 

Ähnliche Themen

Zurück
Oben