News Nvidia: 55-nm-Chip bereitet offenbar Probleme

@ Straputsky
Der GT200 ist schon ein Fiasko. Hohe Produktionskosten, schlechte Margen für die Partner wegen ATI-Preise und nun verzögert sich auch das Mittel zum Kosten senken.

@ topic
Und die wollen ja Mitte nächstes Jahr schon auf 40 nm sein. Da seh ich schlechte Zeiten auf NV zukommen (zum Glück für NV hammse sich ja mit dem G80 ne goldene Nase verdient :-) und auch auf uns bzgl. Preissituation, denn ATI holt sich auch was der Markt hergibt. Hoffe dass die HD58... Karten nich ganz so teuer werden, denn ich denke die werden im nächsten Jahr die beste Wahl sein.

MfG
 
eigentlich gar nicht mal so schlecht für uns kunden. im moment ist das kräfteverhältnis doch schön ausgeglichen:
4830 = 9800gt
4850 = 9800gtx
4870 = gtx260
und 4870x2 und gtx280 sind ohnehin sonderfälle...
nvidia hat ja in den letzten jahren in sachen fertigungstechnik einiges auf ati aufgeholt, allerdings hatte nv immer erst mit den kleinen chips angefangen und dann das erprobte verfahren auf die komplexeren gpus angewandt. die 55nm sind diesmal direkt bei der 9800gtx+ angefangen, und wie man am mangel der 9800gt mit g92b wohl schon vermuten kann, muss die yieldrate noch recht dürftig sein. der g200 ist nochmal deutlich komplexer und berteitet ja schon in der 65nm fertigung aufgrund der hohen transistorzahl je chip hohe ausschußquoten. bei einem unausgereiften 55nm-fertigungsprozess dürfte sich das wohl extrem negativ auf die stückzahl der brauchbaren chips je waver auswirken.
 
Ach ja, der Charlie mal wieder. Ich finde, wenn man schon durch den Titel weiß welcher Autor dahinter steckt, spricht das nicht gerade für ihn. Wenn bei "The Inquirer" ein negativer Artikel über NVidia veröffentlich wird, dann ist er zu 100% von Charlie "The ATI-Fanboy Himself" Demerjian.
 
Zitat:
Zitat von Killermuecke
Das ist das Interessante an AMD: die werden von Technikern und nicht von BWLern geleitet. Sie bekommen zwar keine Bilanz hin, dafür erkennen sie Trends bedeutend früher als nv/Intel.

Das musst du mir jetzt aber genauer erklären: Wären es nicht eigentlich die pfennigfuchsenden BWLer, die die hohen Produktionskosten scheuen, wohingegen die technikverliebten Ingenieure dies gerne mal außer acht lassen?

Interessanterweise ist das leider nicht immer so. Wie der gleichnamige Gründer von Boeing (ich glaube, der war's) mal sagte: "Geld ist nur eine Rechengröße." Und damit für Ingenieure also recht easy zu handhaben. Während BWLer durchaus genauso qualifiziert oder unqualifiziert sind wie alle anderen Berufsgruppen, so zeigt sich vor allem in Technikunternehmen, das ihnen oft das Verständnis für die Zusammenhänge fehlt. Es ist ja ganz nett, wenn man Zielkosten vorgibt - problematisch wird es aber, wenn man sich herausnimmt die technische Richtung vorzugeben auf Basis von Halbwissen. Sehr oft wurde eine vermeintlich günstigere Strategie so zur eigentlich teureren, weil man Ratgebern aus dem Marketing geglaubt hat oder die technischen Berichte der Ingenieure nicht richtig verstanden hat. (Hierbei sieht man aber auch das oft vorhandene Defizit der Techniker, die Sachverhalte nicht gerecht vermitteln zu können.)
Ich möchte kein Off-Topic-Geflame starten, also sollte man hierauf am besten nicht antworten. Ich wollte nur darauf hinaus, dass die Auswirkungen des ewigen Gezeters "BWLer vs. Ings" nicht so einfach zu beschreiben sind.

BTT:
Seit nVidia mit dem Durcheinander bei der Namensgebung begonnen hat - mit dem G92 als "8800GT" fing's an, glaube ich -, habe ich das Gefühl, das bei nVidia intern irgendetwas nicht rund läuft. Evtl. wurden im mittleren Management viele Positionen umbesetzt oder es wurde umstrukturiert. Vielleicht wurden nach dem Erfolg der 8800er Serie auch zu viele Leute befördert oder abgeworben und die Lücken nur unzureichend gefüllt. (Ein neuer Manager muss immer erstmal alles anders machen - Daseinsberechtigung...) Ich habe nämlich das Gefühl, dass die armen Leute selbst nicht wissen, wo es hingehen soll. Evtl. führen innere politische Machtkäpfe dazu, dass praktisch jede Woche eine andere Richtung für Detaillösungen vorgeschrieben wird, so dass das Gesamtkonzept darunter leidet. Vielleicht tanzt NV aber auch nur auf zu vielen Hochzeiten gleichzeitig - CUDA, PhysiX, etc. - und dünnt so die eigenen Ressourcen aus, was ebenso zu Durchhängern führen kann. Von außen lässt sich das natürlich nicht beurteilen, aber mich würde nicht wundern, wenn es so wäre.
 
DanMan schrieb:
Seit nVidia mit dem Durcheinander bei der Namensgebung begonnen hat - mit dem G92 als "8800GT" fing's an, glaube ich -, habe ich das Gefühl, das bei nVidia intern irgendetwas nicht rund läuft...
Dem pflichte ich mal bei und gehe sogar soweit zu sagen, was nicht nur die Namensgebung problematisch gehandhabt wird, sondern die derzeitigen 280er auch teils erheblich fehlerhaft sind. Zu häufig ist in meinem Umkreis immernoch zu hören, das, nach Installation des mitgelieferten AssasinsCreed, die Karten nach 10min. mit Rotlicht und Überhitzt den Dienst versagen und erst die dritte oder vierte umgetauschte Karte ihren Dienst fehlerfrei versieht.

Die Entwicklung, der Kurs der Entwicklung und das PR widersprechen sich massivst um, seit längerer Zeit, weiterhin Vertrauen zu Nvidia beizubehalten.
 
Lence_Laroo schrieb:
Der GT200 ist schon ein Fiasko. Hohe Produktionskosten, schlechte Margen für die Partner
Wer einen 334mm² Die auf eine 60€ Karte pampen kann, der kann auch einen 576mm² Die auf eine 350€ Karte packen.

Lence_Laroo schrieb:
Und die wollen ja Mitte nächstes Jahr schon auf 40 nm sein.
Wo ist das Problem?
Immerhin fertigt TSMC den Kram.

Schinzie schrieb:
Hitzeentwicklung? bisher sind mir 105 Grad und mehr nur von Nvidia karten bekannt.
Kein Wunder, AMDs Catalyst bremst rechtzeitig auf 50% Leistung.

Schinzie schrieb:
wohingegen Nvidia nur im Jetzt lebt mit ihrer Textrubandbreite und ihrem Support.
Was auch immer du damit meinst. (vielleicht ist wenig VRAM ja zukunftssicherer)
Vielleicht ist es dir entgangen, aber die Shaderleistung kannst du nicht eins zu eins vergleichen.
Dafür gibts mehr Pixelfüllrate etwas mehr Texelfüllrate, die AMD locker dank AI ercheaten kann und ähnliche Bandbreiten.

|nsb|urmel schrieb:
Ist witzig, plötzlich sind einige der Meinung ach die 30€ mehr, das ist doch egal, und die 30W sind auch egal... bla bla bla - sind aber diejenigen die genau an den Punkten meckern wenn eine Nvidia Karte mal etwas mehr verbraucht o.ä.
Treffende Beobachtung, die sich auf noch viel mehr erweitern lässt.
Wenn man mal die zb. 30W gegen die 30€ rechnen will, dann wird man eh gleich auf den Marterpfahl gehängt.
 
hmh....schade....gtx 270 wäre interresant gewesen und dan noch in 55nm...naja bis februar warte ich nich undhole mir ne gtx 260...aber wofür braucht man eig ne gtx 290 oder dual chip gtx 280????

aktuelle games laufen auf ner gtx 280 1680x1050 4mal AA mit rund 40 fps+
 
Wer einen 334mm² Die auf eine 60€ Karte pampen kann, der kann auch einen 576mm² Die auf eine 350€ Karte packen.

Klar kann er. Aber Nvidia rechnete nicht damit, dass sie ihre Karten so günstig verkaufen müssen weil sie ATI schlichtweg unterschätzt haben. Ich erinnere nur an einige "missglückte" Aussagen ihres CEO gegenüber ATI oder auch Intel. War nicht die UVP der GTX280 von Nvidia anfangs bei 550€ und die der GTX260 bei ca 350€? Klar war dass sich dieser Preis nicht halten kann, aber einen so rasanten Preissturz wie bei diesen Karten war schon einzigartig. Die HD 48x0 waren in ihrem Preis sogar recht stabil. Gab es eine 4850 am anfang für 150 euro hat sich da am Preis so viel nicht getan. Genauso die 4870 die bei ca 250€ euro gestartet ist und nur kurzzeitig unter 200€ zu haben war. Wirtschaftlichkeit sieht in meinen Augen anders aus. Eine Gelegenheit für Nvidia zu lernen und es beim nächsten Mal besser zu machen.

Welche Panik Nvidia geschoben hat zeigt ja wohl die GTX260²/Gold/MAX oder wie auch immer.


mfg

PS: @ hamma. Dann würde ich aber anfangen deine CPU zu takten denn die wird @ stock ne GTX260 sicherlich bremsen.
 
Klar, AMD hat ohne Not seit Anfang des Jahres den Markt(preis) kaputt gemacht.

Dies betrifft eben nicht nur G200, sondern sehr viele andere Chips ebenfalls und natürlich AMD samt Hersteller selber.

Zu behaupten, G200 hätte eine Sonderstellung, ist unwahr. Es dient nur dazu grundlos zu bashen, obwohl es dem Kunden scheiss egal sein kann.
 
Zuletzt bearbeitet:
@ Dai6oro

Ja ich versuche dan auf 3 ghz zu kommen mit meinem neuen zalman cnps 9700 led...habe im monent nochn boxed lüfter...der zalman kommt zu weihnachten
 
Die haben den Preis kaputtgemacht? Lol! Die haben Nvidia Marktanteile abgenommen und in Bedrängniss gebracht. Die haben aus ihrer Sicht das beste gemacht.

Aber haste Recht. Ati ist böse weil auch Nvidia Käufer nun einen geringeren Preis zahlen müssen. Verkehrte Welt.

mfg

PS: @ hamma dann passts wieder^^
 
@Unyu: Die Größe der DIE ist nicht das einzige Problem der GTX-Karten, da spielt u.a. auch das teure 512bit-Speicherinterface mit rein.

Und wenn das alles kein Problem ist, weil TSMC den Kram ja fertigt, warum ist GT200b nicht schon LANGE in 55nm draußen? TSMC bietet das ja schon ETWAS länger an...
 
Eigene meihnung:
Warum muss man jetzt immer nVidia runter machen davor hatt man davon immer gesagt das man ne nVidia karte nehmen soll da ATi keine gute Leistung hatte aber jetzt ist immer das ATi genommen wird da man mehr für seine Teuros bekommt

mfg healermonk92
 
Wieso sollte nVidia Probleme mit dem shrink haben?
Wenn jemand Probleme damit hat hat, dann ist es der, der das ganze auch produziert, sprich TSMC.

Und das mit der Leistungsaufnahme ist ebenfalls lächerlich unrealistisch. Was macht denn ATi? Richtig, haut gleich 2 4870er auf ein PCB und wenn die keinen Strom vernichten, dann tut es gar nichts.
 
FortissimoIV schrieb:
@Unyu: Die Größe der DIE ist nicht das einzige Problem der GTX-Karten, da spielt u.a. auch das teure 512bit-Speicherinterface mit rein.
Stimmt, so wie GDDR5. Patt.
Aber du hast ja sicher genaue Zahlen zur Hand oder Vergleiche mit anderen Karten.

FortissimoIV schrieb:
Und wenn das alles kein Problem ist, weil TSMC den Kram ja fertigt, warum ist GT200b nicht schon LANGE in 55nm draußen? TSMC bietet das ja schon ETWAS länger an...
Weil das Problem vielleicht am Chip (oder den Erwartungen daran) und nicht am Prozess liegt?

Dai6oro schrieb:
Die haben den Preis kaputtgemacht? [...] Die haben aus ihrer Sicht das beste gemacht.
Sie haben die Preise der HD38xx zu früh und zu massiv gesenkt.
Man senkt Preise, wenn genug Produkte vorhanden sind und wenn der Verkauf schlechter voran geht.
Dies war Anfang 2008 nicht der Fall/ nicht in dem Ausmaß. Aber eins stimmt, mit dem Marktkollaps hat niemand gerechnet.
 
Zuletzt bearbeitet:
Das ist nicht nvidia runtermachen. Die haben sich verspekuliert, soll man sie dafür etwa loben? Wenn Hersteller es nicht gesagt bekommen dass sie "Mist" gebaut haben werden sie an ihren Produkten nichts ändern was zu noch schlechteren Produkten führen wird. Wenn man glaubt der Kuchen ist schon gegessen bekommt man das letzte Stück nicht mehr. Deswegen sag ich es ist an der Zeit dass Nvidia was lernt dann wird meine nächste vielleicht wieder eine Grüne.

Fehler sind da um draus zu lernen.

mfg

@ unyu. das ist nett dass du meine Kernaussage aus dem Zitat nimmst. MARKTANTEILE HABEN SIE NVIDIA DAMIT ABGENOMMEN.

PS: Kostet der G200 allein nicht schon über 100$?
 
Zuletzt bearbeitet:
Das ist eine Sackgasse für Nvidia. Ein neuer Chip muss her, ein neues Design sonst wird das nichts mit 40nm 2009. Wenn es jetzt schon bei 55nm Probleme gibt, kann NV mit 40nm den jetzigen Chip gleich in die Tonne werfen. Für Nvidia ist es somit bis Mitte 2009 sicher, das über die Grafikkarten Sparte keine Gewinne mehr rein kommen und eher weitere Verluste angesammelt werden. Schlimmer noch, AMD kann im 2Q 2009 nachlegen. Damit kann sich NV im Jahr 2009 auch ganz böse die Finger verbrennen, wenn der 40nm Chip weiterhin keine Konkurrenz darstellt. Damit wird NV zu dem Netbook Desaster auch im Kernbereich 0Cent verdienen.
 
@Unyu: Nein, ich habe keine genauen Vergleichszahlen, aber ich kann mich gut entsinnen, daß das 512bit-Interface HD2900 XT so sackteuer werden ließ und ein echtes Problem war. Das ist mit ein Grund, warum ATi lieber auf den GDDR5 setzt, der jetzt bei gesteigerter Verfügbarkeit so teuer nicht mehr sein dürfte.

Ich versteh übrigens gerade Deine Argumentation nicht, zum einen siehst Du kein Problem darin, daß nV nächstes Jahr auf 40nm kommt, weil TSMC das ja fertigt, aber entschuldigst gleichzeitig, daß nV es nicht schafft auf 55nm zu kommen, weil das mit dem Chip möglicherweise nicht geht???
 
Dai6oro
Muss schon ein paar Wochen her sein, als ich eine HD in der Hand hatte.
Ja, das hat mit dem Thema nix zu tun, genauso wie irgendwelche Notebookgeschichten oder Lügen über 40nm.

Aber das ganze Thema ist merkwürdig, wir wissen ja das nicht jede Inquirer und Fudzilla Meldung hier landet, nur bestimmte. Das der Inquirer Hetze überhaupt noch würdig ist, zitiert zu werden verstehe ich nicht.

FortissimoIV

Die 200€ und drunter 2900 Pro hatte auch ein 512bit SI und als Tupfer noch teuren GDDR4. Weltuntergang?

GT206 und GT216 werden nicht vom selben Team betreut. Oder meinst du ein Stocker in Team 1 lässt Team 2 Urlaub machen?
Bestes Beispiel wäre ja R520. War verspätet, trotzdem gabs R580 pünktlich 3 Monate später.

Wo ist das Problem? Nvidia ist mit dem Ergebniss des GT206 schlicht nicht zufrieden, warum auch immer. (unzufrieden heißt noch nicht das er Schrott ist) Das verzögert in keinster Weise GT216, meinst du nicht?
 
Zuletzt bearbeitet:
Zurück
Oben