Traube schrieb:
Warum bringt Intel eigentlich keine normalen CPUs ohne IGP raus? (Die Extreme CPUs ausgenommen).
Weil die meisten Leute eine iGPU haben wollen, da das für Sie bares Geld spart. Zudem sind iGPUs deutlich effizienter als dezidierte GPUs. Ganz abgesehen das vieles viel billiger zu produzieren ist am MB usw. usw.
M--G schrieb:
Ich habe mir gerade mal das DIE-Design angesehen.
Der Grafikchip nimmt ja 1/3 der DIE ein....
Wieso kann man nicht CPUs ohne diesen Grafikkrümel anbieten, der dann einfach günstiger ist?
(da die Kosten ja exponentiell mit der Komplexität des der DIE steigen)
Auf das "Gerümpel" ist die Merheit der Kunden ganz scharf. Zudem hinkt Intel da AMD ziemlich interher, weshalb sich die APUs von AMD unteranderem auch ganz gut verkaufen. Man sieht auch am Zuwachs der iGPU ganz klar, wie wichtig Intel das Thema ist.
Für die paar Hansel, die drauf verzichten wollen, lohnt es sich einfach nicht, extra nen Chip zu fertigen. Ganz abgesehen davon, dass es ja auch Chips geben kann, bei denen die iGPU defekt ist, aber der CPU-Part ok ist. Die kann man dann als Versionen ohne iGPU verkaufen und gut ist.
Frankieboy schrieb:
Wenn diese Aussage so stimmt, wären die Sinnhaftigkeit weiterer Verkleinerungen der Strukturbreite fraglich. Zumindest solange weiterhin die Grafik integriert bleibt.
Und was hat das mit der iGPU zu tun? Das musst du mir mal erklären. Ich bin gespannt
Die Strukturverkleinerung verringert halt deine Herstellungskosten pro Transistor im Allgemeinen. Ganz abgesehen davon konnte man bis jetzt eben die Spannungen auch immer entsprechend weit absenken, um 1. Energie zu sparen und 2. Das Problem der ansteigenden Hot-Spot-Problematik zu umgehen. Die Problematik gibt es aber schon seit Jahren. Dieses mal sind die Spannungen einfach nicht weit genug gesunken, um die höhere Packdiche auszugleichen.
Ganz abgesehen davon weiß man auch schon länger, das die Schaltspannungen von Transistoren sich nicht beliebig verringern lassen, und irgendwann eben zu einem Minwert konvergieren. Wir sind jetzt wohl mitten in dieser Phase drin, wo diese Annäherung voll durchschlägt, weil eben die Temperaturen dadurch nun weiter ansteigen. Das wird in den nächsten Jahren noch schlimmer werden.
Wir haben ja auch schon seit einer weile Dark-Chips, die in gewisser weise auch diese Problematik mit betreffen, eventuell aber auch wieder etwas lindern darauf einwirken, weil man cyklisch zu heise Teile des Chips abstellen kann für eine gewisse Zeitspanne.
Ganz abgesehen davon scheint Tri-Gate nicht die erhofften Spannungssenkungen zu bringen. Es kann also sein, dass sich bei späteren Steppings noch etwas ändert. An die allgemeine Problematik sollte man sich aber lieber schnell gewöhnen...
Wa1lock schrieb:
Hmmm, glaube ich nicht so ganz. Die Wärmeleitfähigkeit von Kupfer sollte dafür locker ausreichen, wenn die These stimmt, müsste ja ein Kühler mit Silberbodenplatte die CPU kühler halten. Ich vermute eher, dass aufgrund der Tri-Gates die Wärme nicht abgeführt werden kann und "in der CPU bleibt". Ist jetzt ja schließlich 3dim das ganze...
Da ist nicht mehr 3D drin, als vorher auch schon..
Das ist halt mal wieder ein geiles Marketing BLABLA. Das Einzige was hier anders ist, ist dass das Gate nun eben den Kanal umschließt, und damit schmäler ausfallen kann, das wars dann aber auch. Der Chip wird dadurch nicht dicken, und wenn doch, dann im Bereich von vielleicht 10nm.... Da haste wohl ziemlich sicher schon beim Wafer größere Dickeschwankungen....
Piktogramm schrieb:
Selbst mit ARM CPUs hat man das Problem der (zu) hohen Leistungsdichte. Ist kein Wunder, dass man ICs, MOSFETS etc. nicht beliebig klein werden lassen kann, wenn deren Abwärme irgendwie sinnvoll abgeführt werden soll. Dieses Problem ist bereits über Dekaden vorhanden.
Bleibt das Problem mit der Abwärme wenn man gleichzeitig versucht die Spannung zu senken?
Nein, deswegen hatten wir das Problem ja bisher noch nicht in der Form, wie ich oben ausgeführt habe
Die zugrundelegende Problematik hast du aber wohl durchaus erfasst.
Guest83 schrieb:
Dem gegenüber steht dann dieser Artikel, der die Wärmeleitpaste als Hauptverursacher ausgemacht hat:
http://www.overclockers.com/ivy-bridge-temperatures
However, Ivy Bridge has approximately 75% the die size of Sandy Bridge, which is a big difference certainly, but not enough to explain the stark contrast in temperatures obtained by our peers across review sites and the forums. Where Sandy Bridge would often be around the 60 °C range at a 4.5 GHz overclock, Ivy Bridge has been tested to be in the 80-90 °C range. How can we blame power density for a difference that large? That dog just doesn’t hunt!
In light of this contrast, we can gain further insight as well from what history has taught us. If you’ve been paying attention, we saw similar issues between the E6XXX and E4XXX processor lines. The E6XXX used a solder attach under the IHS and were far easier to keep cool. The E4XXX used a TIM paste under the IHS and ran hot!
[...]
So based on what evidence we could find from our own investigation, as well as what experience has taught us, Ivy Bridge is running hot when overclocked because of TIM paste between the IHS compared to solder attach used on Sandy Bridge.
Den Artikel kann man wohl getrost vergessen. Soweit ich das überblicken konnte beim schnellen drüberlesen, stellen die nur Vermutungen an, ohne es getestet zu haben. Das ist aber nen gewaltiger Schuss ins Bein, und TOTAL unprofessionell, einfach weil sich VERDAMMT! viel geändert hat.
Zudem sind die Schwankungen der Kenngrößen wohl gar nicht so groß, um ein solches Resultat zu verursachen, was wir beobachten.
Wir reden hier wohl von einer Varianz von 30-80% in den Werten, mehr wohl nicht.
Ich würde mal sagen, da reden Leute über etwas, was Sie in seiner Gesamtheit nicht mal ansatzweise überblicken können