LuXon schrieb:
z.B. hat Ail mal zur GTX480 gesagt, dass die so einen hohen verbrauch hat, weil nVidia die so hoch hinaufprügeln musste, um genügend funktionsfähige 480-Shader Chips zu haben.
Dann solltest du mal durchlesen, was er zuerst sagte. So Sommer 2009. Fermi hätte weniger als GTX285 verbrauchen sollen;-)
Die Grundstimmung war immer schon gut, bis dann die ersten Silizium-Stücke kamen.
Und das kann man schon seit Jahren lesen. Seit GT200b. Dann GT212 dann GT300 usw usw
Wie schon gesagt: angeblich musst nVidia die Chips heraufprügeln, damit sie genügend bereitstellen können. Das klingt für mich plausibel. Bei den kleineren Chips sollte das Problem nicht mehr bestehen.
Und wie wurden die Chips heraufgeprügelt?
Immerhin haben sich jetzt schon 1,00 Volt. (HD 58x0-Serie ... 1,15 Volt)
Na ja, vielleicht von 0,95 Volt.
Schau dir mal die Effizienz HD 48x0 gegen GT200 an und dann schau wie gut die Low-End & mainstream GPUs von AMD 4000er-Serie gegen Nvidia aufgestellt waren.
Bei der 5000er-Serie erwarte ich nicht diesen Unterschied vom Performance zu Main/Low-End, aber diesesmal sieht schon GT300 verdammt Ineffizienz aus.
Haudrauff schrieb:
Wenn ATI damals sychron an der 4xxx und 5xxx arbeiten konnte, dann könnte das Nvidia eventuell auch tun.
Ich weiß zwar nicht, was du mit Sychron-arbeiten genau meinst, aber es wird bei Nvidia & ATI sicher schon an der übernächsten Architektur/Generation gearbeitet.
----------
AMD dürfte jetzt den (Architektur-)Vorteil haben, bei Fertigungsproblemen drauf zu reagieren indem sie die DIE (RV870, South-Island) verändern/verkleinern oder auf eine andere Fertigung wechseln (South-Island @ 40nm)
Und genau diesen Vorteil benötigt man bei Fertigungsproblemen so wie wir in bei 40nm hatten und so wie es aussieht bei 32nm haben werden.
Es könnte sogar jetzt dann die 28nm-Einführung für Nvidia sogar schlimmer aussehen, als es jetzt bei der 40nm-Einführung war.