News TSMCs 40-nm-Yields weiterhin unter 50 Prozent?

Gähn^^, wer hätts gedacht^^. Naja Gott sei Dank wird es bald so weit sein und wir werden sehen wie gut/schlecht Fermi wird.
Ich denke nicht das ich es bereuen werden mir keine 5xxx gekauft zu haben und aller Wahrscheinlichkeit nach auch keinen Fermi, höchstens eine 5770 oder eine 5850 (wenn unter 200€) könnten es noch werden. Ich werde eher auf die nächste Gen 2011 von ATI warten und dann zuschlagen, derzeit spiele ich eh kein Game was wirklich mehr als meine 8800GT braucht auch wenn ich auf viele Einstellungen verzichten muss und Top Hits wie SC2 und D3 werden auch auf meinem Rechner Problemlos laufen.
Mfg
 
Problem ist ja nicht, dass die Fermis nicht verfügbar sind, sondern dass ATi auch nicht besser verfügbar wird :D Ich würde sagen, dass hat TSMC ordentlich verkackt ;D
 
Bully|Ossi schrieb:
Ja, aber vorraussichtlich resultiert das nur in wenigen % mehrleistung dafür in einem Verbrauch der auf 5970 Niveau liegt und das bei weniger Leistung...

Fermi ist eine Karte für OpenGL und GPGPU, nix für Gamer, wer glaubt das Nvidia die Spieler irgendwas bedeuten, hat sich gewaltig geschnitten :D


Und AMD interessiert die Gamer mehr? Wenn Nvidia mehr Gewinn mit GPGPU macht, warum sollten sie sich dann komplett auf die Gamer einstellen? Am Ende zählt nur das Ergebnis. Wie das zustande gekommen ist, ist letzendlich egal. Dennoch wird Nvidia die Gamer nicht im Stich lassen ;)

Bully|Ossi schrieb:
Der GT200 ist auch nur nen Abklatsch der Profiserie, der zufällig gut war... bei Fermi wirds anders aussehen :D -meine Meinung-


GT200 zufällig gut? Glaubst du die setzen sich da hin, pappen irgendwas zusammen und hoffen, dass es besser wird als die Konkurrenz?
 
... wenn die Probleme schon in der 40nm-Produktion so groß sind, möchte ich nicht wissen, wie die Yieldraten im 32nm-Prozess sein werden ... :(
 
Das was auf Heise.de bezüglich Leistung und Leistungsaufnahme steht ist ganz schön harter Tobak.

Ich kann nur jedem der vor hat ne Fermi zu kaufen und die Möglichkeit hat eine zu bekommen empfehlen zuzugreifen, denn es werden wohl nur wenige xx000 Weltweit verfügbar sein vorerst .
 
Sieht schon mager aus mit den Fermi. Gesetzt dem Fall, dass die von heise verbreiteten Leistungsdaten stimmen, wird da auch mit 512 Einheiten nicht der Überbringer kommen. Wir reden ja "nur" von rd 7% mehr Einheiten von 480 auf 512. Wieviel Mehrleistung sollte da denn rauskommen?!?! Wenn es 10% sind ist es viel und das mit 295 Watt Verbrauch. Na ja, wer es braucht.
Ausgehend davon, dass die Dollarpreise wie immer 1:1 umgerechnet werden, sind die Karten ja nicht kaufbar, jedenfalls für die Gamer unter uns. Wir müssen uns also alle weiter an die hohen Preise gewöhnen.

MfG...
 
Hmm, da rüste ich alle Jahre mal auf, und dann treffe ich genau diese Phase. Ich glaube, dann warte ich doch noch und freue mich über meine alte Maschine. Da habe ich keine Lust Monate lang auf eine überteuerte Graka zu warten.

Cu
Lasxy
 
Shurkien schrieb:
32NM wird übersprungen, die gehen direkt zu 28nm

... ups - dann wird es ja noch komplizierter ... :freak:
 
Es wird Zeit, dass Global Foundries die Werke in Dresden und New York ausgebaut / fertig hat, dann gibt es endlich ordentliche Konkurrenz zu dem Murks, der da veranstaltet wird.

Nicht nur dass sie die Ausbeute einfach nicht in den Griff bekommen, der Kunde wird auch immer wieder mit falschen Zahlen hingehalten.

Zum Glück kann ich die 500er Serie (und damit wohl auch locker Fermi) überspringen...
 
Garnicht mal so schlecht das die Preise so hoch bleiben, AMD fährt vil. schwarze Zahlen, Nvidia hat davon das Konkurrenz bleibt und sich nicht irgendwann eine Behörde wegen Monopol meldet ...
 
DUNnet schrieb:
40nm spackt ab und Intel ist mit 32nm schon voll dabei o_O Leute?

Intels chip ist auch nur 248mm² groß und hat auch nur 1,17 Milliarden Transistoren.
Ist doch klar um so weniger fläche um so höhere Yieldrate.
 
Thaquanwyn schrieb:
... ups - dann wird es ja noch komplizierter ... :freak:

Nöö muss nicht sein. Hauptproblem ist die hohe Leakage (u.a.)

Durch HKMG bei 28nm kannste das Problem schonma komplett streichen. Der Rest richtet sich hoffentlich auch noch.
 
2011 wird auf alle fälle Spannend, ist 28nm doch beinahe Halb so klein wie 40nm
dadurch werden die Chips ja im besten Fall 80% Effizienter.
Danach gibt es erstmal ne Durststrecke bis 2013 dann 22nm kommt

HD5xxx ist ja schon ganz gut, aber HD6xxx bzw. Fermi 2 wird die Aktuellen Chips sicher weit in den Schatten stellen...
 
Ich kann das alles nicht ganz nachvollziehen.

Ich habe wirklich Jedem in meiner näheren Umgebung bereits zu einer 5000er ATI "verholfen". Viele 5770 und 5850 und sogar 2x 5870 und einer mit der 5970. Im INternet liest man auch reichlich 5000er Besitzer in der Signatur in verschiedenen Foren. Mal von der Durststrecke Mitte November bis Mitte/Ende Dezember abgesehen, sind immer verfügbare 5000er ATIs zu finden. Klar liegen nicht bei jedem eingetragenen Händler 100Stk vorrätig (dann wäre es auch ein Ladenhüter) und mancher schmiedet seinen Preis mit der heißen Zange, aber bei welcher Hardware ist das schon so?

Meine Meinung ist. NV war mit der Leistung nicht zufrieden in A1 Rev, ich schätze mal 285er Niveau. In weiser Kenntnis das ATI auch nicht langsamer wird, kam Version 2 und nun 3. Dann haben sie die Leistung über 5870 bekommen (Zeit zum vergleichen war ja) und soweit runter geschraubt, dass sie den Verbrauch einigermaßen tragbar hinbekommen und immer noch nen Funken über ATI liegen. Als sich das mit TSMC abzeichnete, haben sie wahrscheinlich Taktraten angehoben und Shader fallen gelassen um die Ausbeute zu erhöhen. So is meine Vermutung. Was wird aber in Zukunft, wenn noch kleiner produziert werden soll?
 
Bully|Ossi schrieb:
Fermi ist eine Karte für OpenGL und GPGPU, nix für Gamer, wer glaubt das Nvidia die Spieler irgendwas bedeuten, hat sich gewaltig geschnitten :D

Also einfach so den NV Fanboys den Lolly wegzunehmen, schämst Du dich gar nicht?
Wenigsten ein bischen? :evillol:

Ich könnte mich echt abrollen. Ist einfach nur zu schön hier zu lesen.
Wo sind eigentlich die geblieben, die ATI den Paperlaunch vorgeworfen haben?

Alles in allem ist das echt großes Kino, was hier abläuft.
Hätte Monthy Pyton nicht bessser machen können.
Nur werde ich den Verdacht nicht los das einige ihre Kommentare nicht als Humor sehen,
sonder es echt ernst meinen was sie hier schreiben :lol:
 
Wo sind eigentlich die geblieben, die ATI den Paperlaunch vorgeworfen haben?

Das wird sowieso immer behauptet wenn sie eine Karte ned direkt in ihren Händen halten weil die Verfügbarkeit nicht ganz so pralle ist.
Da ist sogar wurscht welcher Hersteller. Dieses "Paperlaunch" rumgeplärre wird somit immer wieder kommen.

Ich hatte meine HD 5870 paar wenige Tage direkt nach Release verbaut. Hab also auch damals schon nix vom "Paperlaunch" gemerkt ;)
Und "Günstig" war sie auch noch. Hab damals glaub 320€ für gezahlt.
Da haben viele gesagt "Warten, wird sicher bald günstiger"
Bis die wieder günstiger werden kann ich meine wieder ausbauen und die Nextgen einbauen :D

Bis die Nvidia-Karten ähnliches Preisniveau haben dauerts dann nochmal ne halbe Ewigkeit länger.

Ich bin sicher kein ATI-Fanboy, hatte vorher ja ne 9800 GT, aber was sich Nvidia im letzten halben Jahr geleistet hat ist echt nurnoch zum schmunzeln.
Und jetzt wo die Karte endlich mal kommt, kann sie die 5870 wohl nur knapp schlagen.
Super gemacht Nvidia.

Kaufen werdens eh wieder genügend Leute, einfach weil NVIDIA drauf steht.
Dass die dann deutlich mehr Strom für kaum mehr Leistung verbrauchen is dabei egal. Der Preis sowieso. Von daher kann man sichs ja leisten, gell Nvidia?

Ich lehn mich zurück und geniesse weiter meine HD 5870 :evillol:
 
united3000 schrieb:
GT200 zufällig gut? Glaubst du die setzen sich da hin, pappen irgendwas zusammen und hoffen, dass es besser wird als die Konkurrenz?

Ulkigerweise ist das ziemlich genau die Art und Weise wie Chips tatsächlich entwickelt werden. Zu dem Zeitpunkt, an dem die Features für den neuen Chip festgelegt werden, weiß keiner, was sein Konkurrent in ungefähr 3 Jahren(so lange dauert die Entwicklung) haben wird. Also tut man einfach sein bestes und hofft, dass man letztendlich das bessere Produkt hat.

Das ist auch die einzige mögliche Erklärung, warum der P4 damals so viel langsamer war als die AMD CPUs, obwohl Intel das wesentlich größere Forschungsbudget hatte. Die hatten einfach gehofft, dass sie ihren Chip tatsächlich auf die utopischen 10Ghz pushen können, nur hat das eben nicht funktioniert und Intel hatte damals das Nachsehen.

Einen sehr schönen Artikel darüber, wie der Designprozess für GPUs aussieht, hat Anand auf seiner Seite. Der hat sich mal mit der Chipdesign Abteilung von AMD zusammengesetzt und sich die Geschichte von der HD5xxx Serie erzählen lassen.
 

Ähnliche Themen

Zurück
Oben