AwesomeSauce schrieb:
NVIDIAs Antworten auf den "Artikel":
Lars Weinland
1. heißt der Lars Weinand (ohne L)
2. ist das der Senior Technical Marketing Manager von NVIDIA.
Dazu darf ich dich nochmal zitieren:
AwesomeSauce schrieb:
Jaja, der Richard Huddy - was der sagt, muss natürlich stimmen
Alles PR-Geschwätz...
Sowas nennt sich Doppelmoral.
3. außer Gewäsch im Sinne von "jaja, ihr werdet noch sehen" haben sie Charlie auch nix entgegenzusetzen.
Die Zeit wird zeigen, was rauskommt. Vielleicht bekommen sies ja doch noch hin und widerlegen Charlie. Was natürlich nicht bedeutet, das er nur Lügen verbreitet, sondern das er eben falsch spekuliert hat. Das Recht sollte man jedem zugestehen, zudem hat er bis jetzt Recht behalten und dies auch immer begründen! können.
Ich glaub allerdings nicht, das NVIDIA die Probleme in Kürze auf die Reihe bekommt, denn wenn man sich den Artikel auf anandtech durchgelesen hat, weiß man, dass AMD die Yield-Probleme nur mit einer Verdoppelung der "vias" (also Stromversorgungskontakte für die GPU) hinbekommen hat. Und genau sowas muss von vornherein ins Chipdesign einfließen, ein neues Stepping reisst da so gut wie gar nix.
Da NVIDIA dies nicht getan hat, werden sie mit dem aktuellen A Stepping wohl auf lange Zeit bei sehr schlechten Yields bleiben. Ein Base Layer Stepping könnte dem abhelfen, das dauert aber eben entsprechend lange, 6 Monate wenns gut läuft.
Die weiteren Probleme hat Charlie auch aufgeführt, wer lesen kann ist klar im Vorteil. Nun kann man den NVIDIA-Weg gehen und die Augen vor der Wahrheit verschließen oder wie Charlie immer so schön sagt "scream at the law of physics", aber ändern wird das auch nix.
Lübke schrieb:
@KAOZNAKE: ich rede ja nicht von einer dauerlösung, sondern als übergang bis zum fermi. eine "gts350" mit der leistung einer gtx260 wäre ein guter gegenpart zur 5770.
Also nochmal
:
1. Was soll GDDR5 bei dem G92 denn bringen? Soweit ich weiß, hat der G92 kein Speicherbandbreitenproblem, also würde man mit GDDR5 so gut wie keine Mehr-Performance erreichen.
2. Was du so leicht als Austausch der Speichercontroller beschreibst, benötigt eine komplette Neuentwicklung der Fertigungsmasken, was allein eine Million kostet (lt. Charlie). Ob und wie das alles kompatibel ist, ist noch ne andere Frage, im Prinzip muss man eine komplette GPU neu entwickeln. In Anbetracht von 1. ein sinnloses Unterfangen.
3. Wie schon geschrieben, 55nm ist ein Auslaufmodell, wenn auch kostenseitig kein Nachteil, (weil die Wafer billiger sind), so doch Performance/Watt-technisch. In Anbetracht von 2. ebenfalls sinnlos
4. Könnte die Karte kein DX11, was die ganze Geschichte ad absurdum hoch drei führt.
5. hat NVIDIA nicht genug Leute, um sich mit solchen Geschichten zu beschäftigen, die brauchen jeden Mann für Fermi(2)
Das einzige was noch *einigermaßen* Sinn machen würde (Punkt 4 mal außen vor), wäre der G92 auf 40nm, was NVIDIA ja auch schon versucht hat, aber eben auch gescheitert ist. GT212 aka GT200c-->R.I.P.
GT214 aka G92c-->mit einem Bein im Grab, von 112 auf 96 Shader gekürzt aktuell als GT240 (GT215) aufm Markt.
Und der größte GPU den NVIDIA sinnvoll in 40nm fertigen lassen kann.