Erste Prescotts nicht in 90 nm?

Update Jan-Frederik Timm
17 Kommentare

Es passt eigentlich alles zusammen. Erst die Meldung, Intel habe Probleme mit der 90 nm Fertigungstechnologie. Dann die ersten Gerüchte um die exorbitant gestiegene Verlustleistung des Prescotts und dann sogar die Bestätigung des Herstellers.

Rückblick: Den letzten Schritt in der Fertigungstechnologie vollzog Intel mit dem Wechsel vom Willamette- auf den Northwood-Kern des Pentium 4. Und obwohl der neue Kern mit 512KB Cache, also 256KB mehr als sein Vorgänger, ausgestattet war, konnte durch den 0,13 µm-Prozess die Verlustleistung von damals rekordverdächtigen 75,3 des 2,0 GHz Willamette auf 52,4 Watt beim gleich schnell getakteten Northwood gesenkt werden. Selbst der mit 2,8 GHz um 40% höher getaktete Northwood brachte es nur auf 68,4 Watt. Stellt sich also die Frage, inwiefern der zuletzt dokumentierte Stromverbrauch der ersten Prescotts, der deutlich über dem letzten P4 mit 3,2 GHz (82,0 Watt) liegen soll, in dieses Bild passt. Zwar steht praktisch fest, dass auch der Prescott den internen Cache erneut verdoppeln wird und mit einem überarbeiteten Hyper-Threading kann es der CPU durchaus gelingen, durch eine noch bessere Auslastung in Extremsituationen nochmal mehr Strom zu fressen. Doch über 20 Watt plus, anstatt ein sattes Minus? Das klingt doch arg unwahrscheinlich - es sei denn, der Chip enthält am Ende mehr Neuerungen, als bisher an die Öffentlichkeit gelangt sind. Doch tragen wir ein paar Fakten für die These, die ersten Prescotts erscheinen in 0,13 µm, zusammen. Noch vor einigen Wochen galt für die Mainboardhersteller die FMB1, die gewährleisten sollte, dass unter diesen Richtlinien gefertigte Mainboards auch die ersten Prescotts unterstützen würden. Und so wurden i865- und i875-Boards praktisch überall mit dem "Prescott Ready" Label beworben. Nun jedoch, nur ein paar Tage später, gibt es die FMB1.5 und erst hiermit sollte der Prescott - von Intel garantiert - auf aktuellen Boards laufen. Da Intel in der Vergangenheit insbesondere aus ihrem guten Draht zu den Herstellern und einer weit in die Zukunft blickenden Informationspolitik Kraft geschöpft hat, kann man ausschließen, dass Intel diesen Schritt in der Vergangenheit hätte vermeiden können und dies impliziert wiederum, dass man vor einiger Zeit selber noch sicher war, der Prescott würde mit FMB1 laufen und somit wesentlich weniger Strom verbrauchen. Aussagen, die uns von Mainboardherstellern erreichten, unterstützen diese Vermutung. Da heißt es, "Intel habe ich damals verrechnet. Simulationen hätten wesentlich weniger Verlustleistung ergeben, als das finale Silizium aufweist." Sicher, eine Simulation - und sei der PC noch so stark - ist immer nur ein Versuch einer Abbildung der Wirklichkeit. Doch angesichts der enormen Differenzen zwischen FMB1 und FMB1.5 ist es praktisch ausgeschlossen, dass man sich wirklich einen Fehler geleistet hat. Klingt es da nicht logischer, man habe mit 90 nm gerechnet und müsse nun wohl oder übel vorerst auf 0,13 µm zurückgreifen? Auch die durchaus desöfteren gut informierten Kollegen vom Inquirer verpackten eine solche Spekulation in eine Newsmeldung der letzten Woche, revidierten nun allerdings ihre Aussage und schlugen den Weg erneut in Richtung 90nm ein.

Wir hingegen können uns nur schwer vorstellen, dass trotz Shrink auf 90 nm die Verlustleistung derartig ansteigen soll. Doch was immer tatsächlich hinter dem Problem des ersten Steppings steckt, eins ist gewiss: Lange wird dieser Prescott nicht verweilen - ein Nachfolger samt neuem Sockel geistert ja schon länger durchs Netz. Wie es nun abseits der von Intel gegebenen Garantie auf aktuellen Mainboards aussieht, bleibt indes weiter fraglich. Während uns ein Hersteller unter der Hand mitteilte, es werde definitv kein Prescott auf FMB1-Platinen laufen, schmücken andere auch weiterhin ihre Boards mit dem Prescott-Zusatz. Ob sie sich hierbei eventuell nur auf die allerneuesten Revisionen beziehen, wissen wir nicht. Die Lage bleibt also weiter ungewiss.

Update

Unser Leser DjDino hat in den Kommentaren auf The Inquirer einen interessanten Beitrag gefunden. In sehr ausführlichen, technischen Ausführungen wird dort auf Möglichkeiten eingegangen, warum der Prescott trotz 90nm derartig leistungshungrig sein könnte. Während die meisten Argumente auf bisher bekannt gewordenen Spezifikationen beruhen, befasst sich der letzte Absatz mit dem sog. Yamhill-Projekt. Gerüchte besagten, dass man dem Prescott die Fähigkeit zur Emulation bzw. Bearbeitung von 64Bit-Anwendungen implantieren würde, um im Notfall schnellstmöglich auf große Resonanz der Industrie auf AMDs x86-64-Technik zu kontern. Die Einheiten könnten zwar vorerst auf der Informationsebene aus dem Chip geschnitten, die Stromversorgung muss hiervon jedoch nicht betroffen sein. Der Kommentar befindet sich recht weit unten in dieser Inquirer-News.