Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News TSMCs 40-nm-Yields weiterhin unter 50 Prozent?
- Ersteller Volker
- Erstellt am
- Zur News: TSMCs 40-nm-Yields weiterhin unter 50 Prozent?
S
Shurkien
Gast
Das Nvidia nen 200mm² größeren Chip rausbringen muss um ATI zu schlagen zeigt wie überlegen ATI ist.
Erstes Fail
Fermi ist eigentlich als GPGPU chip gedacht gewesen und nicht fürs zocken.
Ende des Jahres wird ATI seine nächste Grafikkartengeneration rausbringen.
Zurzeit sieht es eher nach Q1/Q2 2011 aus.
Spätestens da hat NVIDIA endgültig verloren.
Das weißt du woher?
Da wird CUDA und das tolle Brillen-3D auch net mehr helfen.
Zweites Fail
Guck doch mal was shcon von CUDA so untersützt wird.
Ich bin mir sicher, die Zukunft des Gaming liegt in 3D.
Ist nur eine Frage der Zeit wann es von ATi kommt.
Ich sehe dein Zitat:
ATi 3D!!11 Eine Revulotion! Nie zuvor da gewesen! Jetzt kann NV einpacken
DUNnet
Lt. Commander
- Registriert
- Sep. 2008
- Beiträge
- 1.612
Oh Shurkien - ein verfächter NVs
CUDA /= 3D! CUDA ist eine von NV gepushte physik. Berechnung, Konkurrenz dazu seitens ATi gibt es wird aber dank des "featering NVs Firmen gegenüber" sicher kaum Chance haben, da hat NV die Nase vorn.
3D ist meiner Meinung nach Humbug! Viele User (darunter ich) haben kein Bock auf eine Farbverfälschende, oder Unscharfe, oder beides zusammen, Brille auf der Nase. Wenn 3D vernünftig realisiert wird wäre es nett... bis dahin Zielgruppe max. <30 Jahre und gelegentliche Kinobesucher...
Fail - Fermi ist als modulare GPU Einheit Gedacht welche logisch (und nicht virtuel) angepasst werden kann.Erstes Fail
Fermi ist eigentlich als GPGPU chip gedacht gewesen und nicht fürs zocken.
Das ist genauso spekulation wie das sie Q4 2010 rauskommt - alles humbug, von daher streichen!Zurzeit sieht es eher nach Q1/Q2 2011 aus.
Guck doch mal was shcon von CUDA so untersützt wird.
Ich bin mir sicher, die Zukunft des Gaming liegt in 3D.
CUDA /= 3D! CUDA ist eine von NV gepushte physik. Berechnung, Konkurrenz dazu seitens ATi gibt es wird aber dank des "featering NVs Firmen gegenüber" sicher kaum Chance haben, da hat NV die Nase vorn.
3D ist meiner Meinung nach Humbug! Viele User (darunter ich) haben kein Bock auf eine Farbverfälschende, oder Unscharfe, oder beides zusammen, Brille auf der Nase. Wenn 3D vernünftig realisiert wird wäre es nett... bis dahin Zielgruppe max. <30 Jahre und gelegentliche Kinobesucher...
KAOZNAKE
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.844
CoffeeJunkie schrieb:Sind bei den schlechten Cypress-Yields denn schon die teildeaktivierten/-defekten Derivate einberechnet? Oder beziehen sich die 20% nur auf voll funktionelle Chips?
Die 5800er Serie hatte zu keinem Zeitpunkt seit Launch so eine schlechte Yield. Mit so einer besch.... yield bringt man einfach keine Chips auf den Markt. 5870/5850/5830 haben zusammen sicher deutlich mehr als 50%. Vermutlich eher an die 70-80%.
Geringe Verfügbarkeit resultiert einfach aus geringer Kapazität bei TSMC (NVIDIA/ATI vermutlich 50/50, dazu kommen die ganzen lowend Sachen, da bleibt nimmer viel übrig) kombiniert mit einem attraktiven Preis und hoher Nachfrage.
sseidelsrb schrieb:Hat Anfang des Jahres nicht gesagt sie hätten bereits 2 Mio Karten verkauft?
Wie geht das wenn pro Quartal nur 80.000 Wafer produziert werden?
27000 Wafer pro Monat, bei angenommener Verteilung 50:50 --> ATI:NVIDIA bleiben 13500 Wafer für ATI. Macht allein für Cypress (von dem ca. 150 auf einen Wafer passen) ca. 2 Mill. pro Monat. Bei den kleineren entsprechend mehr.
Allerdings muss man berücksichtigen, das im September, als Cypress startete, noch wesentlich weniger Wafer produziert wurden und einige Chips aufgrund von defekten nicht verwendet werden können.
Im Juli waren es nur 9000 Wafer
Ich denke die 50%, von denen Digitimes hier spricht, beziehen sich rein auf die GTX 4x0.
Alles andere macht gar keinen Sinn, da die "Gesamt-Yield" (was ein Quark) schonmal bei 60% war.
Außer Fermi ist so schlecht (zu fertigen), das er die Gesamtbilanz derart ruiniert
Ich weiß. Aber da se nix gleichwertiges zu bieten haben müssen das Monster jetzt für den Gamingmarkt rausbringen. Sieht für mich nach einer Verzweiflungstat aus.Shurkien schrieb:Erstes Fail
Fermi ist eigentlich als GPGPU chip gedacht gewesen und nicht fürs zocken.
Da habe ich andere News gelesen... Wir werden es ja sehen.Shurkien schrieb:Zurzeit sieht es eher nach Q1/Q2 2011 aus.
Ist halt zu erwarten.Shurkien schrieb:Das weißt du woher?
Denke es wird da eher Rrichtung OpenCL gehen. Das hat viel mehr Vorteile, da es wesentlich mehr Platformen unterstützen wird.Shurkien schrieb:Zweites Fail
Guck doch mal was shcon von CUDA so untersützt wird.
Ich bin mir sicher, die Zukunft des Gaming liegt in 3D.
Ist nur eine Frage der Zeit wann es von ATi kommt.
Ich bin mir auch sicher, das es in Richtung 3D gehen wird. Aber net mit ner Brille. Keiner will sich ne Brille aufsetzen um 3D Zeugs zu sehen. Stell dir mal vor du willst nen Videoabend mit deinen besten Freunden machen und brauchst dann für jeden eine 3D Brille für 100€. Teuer Spaß wa? Ohne gehts auch. Das brauch halt nur noch nen bissl Zeit. Hab diesen Effekt selber schonmal bei einem Prototypen gesehen. Ist viel beeindruckender wenn man dafür keine Brille braucht
S
Shurkien
Gast
DUNnet schrieb:CUDA /= 3D!
Moment!
Ich habe NIE gesagt das CUDA was mit 3D zutun hat.
Stell dir mal vor du willst nen Videoabend mit deinen besten Freunden machen und brauchst dann für jeden eine 3D Brille für 100€. Teuer Spaß wa? Ohne gehts auch
Sicherlich.
Nur wann wird das ausgereift sein und was wird das kosten?
Ich denk ma da is die Brille billiger.
Bevor die Technik ohne Brille ausgereift ist werden die Brillen bestimmt sehr günstig zu haben sein (Ich tipp auf ~15-30€ pro Nase).
Viele weinen dann wohl wieder vonwegen kein gemütliches chillen blabla..
Ich bin Brillenträger und hab schon mit dieser 3D Brille gespielt, anfangs sehr störend, nach ner Zeit ist man so in dem Spiel drin das man nix mehr mitkriegt.
Bully|Ossi
Rear Admiral
- Registriert
- Jan. 2009
- Beiträge
- 5.569
Also, nen CPU braucht nen vollkommen anderen Prozessablauf als nen GPU, auch UMC kann keine GPU fertigen...
Globalfoundries baut derzeit die Fab in Dresden aus, dass dort ATI/Nvidia gefertigt werden kann in bis zu 22nm...
TSMC ist halt nen Taiwaner, die ballern ohne ende Wafer durch die Fab ohne dabei mal richtig die Prozesse in den Griff zu bekommen... kann mich nicht erinnern das TSMC jemals 90%+ gehabt hätte, wie z.B. Infineon oder AMD in Dresden.
Es werden derzeit jede menge neue Fabs gebaut, ich denke das wird bald kein Thema mehr sein, aber bis dahin ists ende 2011...
Ich denke auch das Globalfoundries TSMC ganzschön aufträge abnimmt, sobald die Fab in Dresden Volumen macht und die in New York ebenso...
Intel hat ja eigene Fabs und auch die Kohle immer auf die neusten Upgrades für die Tools zu setzen, das kann TSMC nicht daher wird Intel auch mit den Tik Tok modell erstmal keine Probleme haben und bald in 2xnm fertigen.
War nur eine Frage der Zeit bis TSMC einbricht, solange aber genug Nachfolger am Markt bereitstehen, wird alles gut
Globalfoundries baut derzeit die Fab in Dresden aus, dass dort ATI/Nvidia gefertigt werden kann in bis zu 22nm...
TSMC ist halt nen Taiwaner, die ballern ohne ende Wafer durch die Fab ohne dabei mal richtig die Prozesse in den Griff zu bekommen... kann mich nicht erinnern das TSMC jemals 90%+ gehabt hätte, wie z.B. Infineon oder AMD in Dresden.
Es werden derzeit jede menge neue Fabs gebaut, ich denke das wird bald kein Thema mehr sein, aber bis dahin ists ende 2011...
Ich denke auch das Globalfoundries TSMC ganzschön aufträge abnimmt, sobald die Fab in Dresden Volumen macht und die in New York ebenso...
Intel hat ja eigene Fabs und auch die Kohle immer auf die neusten Upgrades für die Tools zu setzen, das kann TSMC nicht daher wird Intel auch mit den Tik Tok modell erstmal keine Probleme haben und bald in 2xnm fertigen.
War nur eine Frage der Zeit bis TSMC einbricht, solange aber genug Nachfolger am Markt bereitstehen, wird alles gut
jeger
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.903
Intruder66 schrieb:Kann das heißen, dass es dann später irgendwann GTX 4XX-Karten mit 512 Cuda-Cores gibt?
das kann ich mir gut vorstellen, weil es gab doch zu erst eine GTX 260 192Stream-Prozessoren, danach hatte Nvidia eine GTX260² mit 216 Stream-Prozessoren rausgebracht, was für ne ver*rsche
Bully|Ossi
Rear Admiral
- Registriert
- Jan. 2009
- Beiträge
- 5.569
3D geht auch ohne Brille, die Technik existiert sie muss nur "Massentauglich" werden...
Wer jetzt auf den Quark von Nvidia setzt, kann sein Geld auch gleich verbrennen
Im Kino z.B. gehts auch ohne Elektrische Shutter brille oder Rot/Cyan... also selbst die sind schon weiter als Nvidia und AMD hat 3D quasi auch fast am Start... also mal die Bälle flach halten.
Der Support für Cuda liegt auch daran das viel Geld und Software von Nvidia rausgehauen wurde um das zu pushen, wird über kurz oder lang aber von OpenCL gekillt werden, wozu sich auf eine Hardware beschränken, wenn mit OpenCL selbst nen GMA von Intel ordentlich Leistung liefert... und das Gratis
Wer jetzt auf den Quark von Nvidia setzt, kann sein Geld auch gleich verbrennen
Im Kino z.B. gehts auch ohne Elektrische Shutter brille oder Rot/Cyan... also selbst die sind schon weiter als Nvidia und AMD hat 3D quasi auch fast am Start... also mal die Bälle flach halten.
Der Support für Cuda liegt auch daran das viel Geld und Software von Nvidia rausgehauen wurde um das zu pushen, wird über kurz oder lang aber von OpenCL gekillt werden, wozu sich auf eine Hardware beschränken, wenn mit OpenCL selbst nen GMA von Intel ordentlich Leistung liefert... und das Gratis
k0n
Captain
- Registriert
- Okt. 2009
- Beiträge
- 3.554
Och Gott. Wenn ich nur daran denke.
Ende/Anfang 2008/2009 als ich anfing mir ein paar Karten anzusehen (weil ich genug von meiner 8500GT 512MB hatte).
Da hatte ich nicht selten sowas wie "haja, wart doch noch ein bissl, bald kommen die DX11 Karten! wow, DX11 und so!" gelesen.
Nun ja, jetzt werde ich wohl HD58XX und Fermi mit meiner GTX275 896MB Golden Sample (damals NEU! 170€) überspringen!
Wenn dann schon HD5870 doch was hat die mir eigentlich zu bieten (wow DX11!) und 2 bis 3 Frames mehr in 2 bis 3 Spielen (wow!). Und die Stromersparnis gleicht da nichts wieder aus!
Trotzdem. Die Nacht von Freitag auf Samstag also? Klingt gut!
Ende/Anfang 2008/2009 als ich anfing mir ein paar Karten anzusehen (weil ich genug von meiner 8500GT 512MB hatte).
Da hatte ich nicht selten sowas wie "haja, wart doch noch ein bissl, bald kommen die DX11 Karten! wow, DX11 und so!" gelesen.
Nun ja, jetzt werde ich wohl HD58XX und Fermi mit meiner GTX275 896MB Golden Sample (damals NEU! 170€) überspringen!
Wenn dann schon HD5870 doch was hat die mir eigentlich zu bieten (wow DX11!) und 2 bis 3 Frames mehr in 2 bis 3 Spielen (wow!). Und die Stromersparnis gleicht da nichts wieder aus!
Trotzdem. Die Nacht von Freitag auf Samstag also? Klingt gut!
Bully|Ossi
Rear Admiral
- Registriert
- Jan. 2009
- Beiträge
- 5.569
Naja, ist schon deutlich mehr als 2-3 Frames und das überall, aber kranker Optimismus stirbt dirkekt nach der Hoffnung
Und erlebe mal DX11, dann wirste es nichtmehr verspotten
Leute leute, dinge die man nicht kennt schlecht machen, weil man sich zu feige ist einzugestehen, dass man doch neidisch ist
Und erlebe mal DX11, dann wirste es nichtmehr verspotten
Leute leute, dinge die man nicht kennt schlecht machen, weil man sich zu feige ist einzugestehen, dass man doch neidisch ist
so wie ich das sehe steckt TSMC kaum mehr Geld in den Problem behafteten 40nm Prozess.
denn in 2010Q3 startet der 28nm Prozess.
2011Q1 soll es dann erste Grafikkarten in 28nm geben.
da gibt es doch keinen Sinn noch Milliarden in den 40nm umbau zu investieren.
hier mal eine Interessante Grafik: TSMC
45% Fertigt TSMC noch im >100nm Prozess, hätte ich nicht erwartet.
denn in 2010Q3 startet der 28nm Prozess.
2011Q1 soll es dann erste Grafikkarten in 28nm geben.
da gibt es doch keinen Sinn noch Milliarden in den 40nm umbau zu investieren.
hier mal eine Interessante Grafik: TSMC
45% Fertigt TSMC noch im >100nm Prozess, hätte ich nicht erwartet.
habichtfreak
Captain
- Registriert
- Aug. 2006
- Beiträge
- 3.542
na immerhin 480. für die gtx 470 sind laut derzeitigen spekulationen "nur" 448 angesetzt. mit bis zu 480(1D) shadern hat nvidia genau wie ati die anzahl gegenüber den vorgängern verdoppelt. außerdem hat nvidia das speicherinterface vergrößert (320bit für gtx470 und 386bit für gtx480) und setzt zum ersten mal gddr5 speicher in einer high end karte ein. das die karten mit etwa 650mhz chiptakt laufen hatte nvidia schon bestätigt aber sie wollten den auf bis zu 750mhz bringen. in jedem fall ist es nicht weniger als früher. mit diesen eckdaten sollten die neuen karten gar nicht so schlecht da stehen. warten wir das ende der woche ab und dann sind wir alle ein stück schlauer.
S
Shurkien
Gast
to0st0n3d schrieb:Ich bin kein Brillenträger und will es auch net werden
Wird sich net durchsetzen. Glaub mir. Wir sprechen uns in ein paar jahren nochmal
Ich sagte auch nicht das sich das durchsetzen wird.
Ich verspreche dir, die Monitore etc wo 3D ohne Brille geht werden in den ersten 2-5Jahren so übertrieben teuer sein das sich das nur Enthusiasten holen werden
Bully|Ossi
Rear Admiral
- Registriert
- Jan. 2009
- Beiträge
- 5.569
Ja, aber vorraussichtlich resultiert das nur in wenigen % mehrleistung dafür in einem Verbrauch der auf 5970 Niveau liegt und das bei weniger Leistung...
Fermi ist eine Karte für OpenGL und GPGPU, nix für Gamer, wer glaubt das Nvidia die Spieler irgendwas bedeuten, hat sich gewaltig geschnitten
Der GT200 ist auch nur nen Abklatsch der Profiserie, der zufällig gut war... bei Fermi wirds anders aussehen -meine Meinung-
Fermi ist eine Karte für OpenGL und GPGPU, nix für Gamer, wer glaubt das Nvidia die Spieler irgendwas bedeuten, hat sich gewaltig geschnitten
Der GT200 ist auch nur nen Abklatsch der Profiserie, der zufällig gut war... bei Fermi wirds anders aussehen -meine Meinung-
Noch was Interessantes, die 80.000 Wafer beziehen sich also wohl doch auf 8" bzw. 200mm Wafer.
in Wirklichkeit könnte es also nur 35.000 12" Wafer geben (bei 40nm setzen sie vermutlich nur 300mm Wafer ein)
in Wirklichkeit könnte es also nur 35.000 12" Wafer geben (bei 40nm setzen sie vermutlich nur 300mm Wafer ein)
1) Figures represent number of 6” wafers. Conversion to 8”-equivalent wafers is obtained by dividing this number by 1.78.
(2) Figures represent number of 12” wafers. Conversion to 8”-equivalent wafers is obtained by multiplying this number by 2.25
Hmmm, da ich nur ein eingeschränktes räumliches Sehvermögen habe, geht an mir die ganze 3D-Technik vorbei. Meinen Kontostand und meine Frau wird's freuen, die hält das auch alles für Firlefanz.
Mir scheint, ich kann in den nächsten Jahren viel Geld sparen
Mir scheint, ich kann in den nächsten Jahren viel Geld sparen
Pupp3tm4st3r
Lt. Commander
- Registriert
- Mai 2007
- Beiträge
- 1.984
und es geht in die zweite Runde...NVIDIA vs. ATI, mal ehrlich, seid ihr es nicht langsam leid?
Ähnliche Themen
- Antworten
- 73
- Aufrufe
- 11.044