News Bilder und Chip-Größen der ersten „Maxwell“-GPUs

Eine geringere Die Fläche bedeutet erstmal eines: Mehr Gewinn für Intel pro Wafer.

Ich sehe das gleiche Problem wie bei Hawaii, die Chips sind zu klein und bieten zu wenig Kühlfläche an.
So langsam sollte das Problem ja überall bekannt sein.

Frage: Gibt es eine Möglichkeit, die Wärmeverteilung im Chip zu Optimieren?
 
was soll jetzt intel mit einer GPU von nvidia zutun haben?
 
nVVater schrieb:
Nichteinmal mehr den Metall Ring der die GPU schützt, bei zu viel druck oder falls man mal den gpu kühler schief drauf setzt.


jetzt würden die ecken abbrechen.

Abwarten ;) Ich sehe aktuel nur ein Zoom des Chips wie die Karte aussieht wird man schon bald noch sehen.
 
DirtyOne schrieb:
Frage: Gibt es eine Möglichkeit, die Wärmeverteilung im Chip zu Optimieren?

Bei den üblichen Chips (ohne stacking) ist es wohl hauptsächlich eine Frage, wie die Entwickler die Funktionseinheiten auf dem Chip verteilen und vor allem intelligenten dynamischen Stromsparfunktionen, die ständig gerade nicht benötigte Einheiten ausschalten. Gleichzeitig darf man aber die Signalwege zwischen den Einheiten nicht unnötig lang werden lassen usw.

Das dürften die großen Herausforderungen bei modernen GPUs (und CPUs) sein. Früher konnte man im Prinzip einfach durch immer kleinere Fertigungsprozesse immer mehr Transistoren pro Quadratmillimeter unterbringen und höher takten und so die Leistung ständig steigern, ohne dass die Kosten nach oben gehen. Inzwischen kommen da aber diverse physikalische Probleme ins Spiel, z.B. eben die Wärmedichte.
Künftige Leistungssteigerungen bei GPUs werden in erster Linie durch Architekturoptimierungen erzielt werden, nicht mehr durch einfache Shrinks.

Das Festhalten an 28nm für Chips der neuen Generation sowohl bei AMD als auch bei Nvidia dürfte auch damit zu tun haben.
 
Wie niedrig der Stromverbrauch erst wäre wenn es sie schon in 20nm gäbe.

Bei der derzeitigen Entwicklung -> GTX Titan Black Edition, GTX790, denke ich mal das die Maxwell HighEnd Ableger noch etwas auf sich warten lassen werden. Dafür dann aber im 20nm Prozess hergestellt werden.
 
nVVater schrieb:
Verarbeitung ist billiger als beim GK104 oder GK110 lul
Nichteinmal mehr den Metall Ring der die GPU schützt, bei zu viel druck oder falls man mal den gpu kühler schief drauf setzt.


jetzt würden die ecken abbrechen.

Werden die DIEs bei Nvidia nicht eh von einem Headspreader geschützt oder hat sich da was in den letzten Jahren geändert?
 
DirtyOne schrieb:
...
Ich sehe das gleiche Problem wie bei Hawaii, die Chips sind zu klein und bieten zu wenig Kühlfläche an.
So langsam sollte das Problem ja überall bekannt sein...

Offensichtlich sind einige NVidia Fans der Meinung, dass dieses Problem nur AMD betrifft und NVidia eine andere Physik benutzt.
 
tnoay schrieb:
wichtig ist doch was am ende bei rauskommt. ich zocke ruckelfrei skyrim (660 gtx)und hab im hintergrund die tv karte mit aufnahmen usw, laufen. bei AMD musste man ja schon glück haben wenn AA für ein spiel nutzbar war, wobei das ja im endeffekt egal ist wenn eh das ganze bild flimmert.

Wobei das aber kein Maßstab ist, zocke Skyrim auch auf vollen Details bei 1900x1200 mit einer alten GTX460,
mit Hi-Texture-Pack.
 
bei GPUs gab es diese kühlungsverschlechternden metalldeckel noch nie.
 
Krethi & Plethi schrieb:
kühlungsverschlechternden metalldeckel

Der "kühlungsverschlechternden metalldeckel" ist sogar besser als ohne ;) Nicht nur schützt er die CPU sondern ermöglicht eine größere Fläche. Man muss aber halt wie bis zu Sandy Bridge das ganze verlöten und nicht wie seit Ivy mit WLP verbinden.

Edit:

@Herdware

Jo klar das stimmt natürlich auch.
 
Zuletzt bearbeitet:
Naja. Der Wärmeübergang wird definitiv nicht besser durch einen Heatspreader und die Wärme würde sich mindestens genauso gut über eine Fläche verteilen, wenn man den Kühlblock direkt auf das Die packt.

Der einzige wirkliche Grund für einen Heatspreader ist das Die vor Beschädigungen zu schützen. So eine CPU muss sich schließlich auch von Laien verbauen lassen.
Aber bei GPUs ist es die große Ausnahme, dass da mal jemand selbst einen anderen Kühler drauf baut. Deshalb braucht man da gewöhnlich keinen Heatspreader.
 
Herdware schrieb:
So eine CPU muss sich schließlich auch von Laien verbauen lassen.
warum?
Ergänzung ()

Cool Master schrieb:
Der "kühlungsverschlechternden metalldeckel" ist sogar besser als ohne ;) Nicht nur schützt er die CPU sondern ermöglicht eine größere Fläche. Man muss aber halt wie bis zu Sandy Bridge das ganze verlöten und nicht wie seit Ivy mit WLP verbinden
und das ist eben blödsinn, die fläche wird nicht vergrößert.
wenn der kühlkörper direkt aufliegt spart man sich einen schlecht wärmeleitenden übergang.
 
@Krethi & Plethi

Deswegen schrieb ich ja man muss das ganze verlöten und nicht mit WLP verbinden. Die 5°C die man ohne HS weniger hat ist Messtoleranz.
 
5°C sind keine messtoleranz, wie kommst du bitte darauf?
 
Krethi & Plethi schrieb:
Weil es dazu verdammt verschiedene Aussagen gibt, ob jetzt mit Deckel verlötet, mit Deckel mit WLP oder ohne und und Co, wirklich die Auswirkungen hat, die viele hinstellen.

Ich hab zig Berichte gelesen in Foren und von Seiten, die sagen: Ne mit Deckel ist es nicht schlechter und es ist egal ob verlötet oder WLP. Andere sagen und belegen mit Tests: Ja es ist wichtig.

Ich schätze, dass es zum Teil auch davon abhängt, welche Bedienungen im Gehäuse herrschen und drumherum. Daher sind solche Aussagen auch immer mit Vorsichtig zu genießen!
 
das ist reine physik, ein zusätzlicher übergang ist immer schlechter als der direkte weg.

aber manche glauben ja auch das sich dadurch die fläche verteilt, wie man auf so einen mist kommt würde ich echt gerne verstehen, dafür bin ich aber wohl einfach nicht dumm genug.
 
Krethi & Plethi
Klug genug andren gleich auf Missverständnisse hinzuweißen und Fehler klar zustellen bist du anscheinend auch nicht.

Allgemein, Heatspreader werden immer nur für den Schutz des Chips verbaut. Das ist alles und da hast du völlig recht, aber natürlich wird mit Materialien gearbeitet, die die Wärmeverteilung optimiert und ideal weiterleitet. Höchstens es gäbe irwelche "mechanische" Werkstoff Einflüsse die den Wärmestrom etwas verbreiten, was ja nicht unmöglich wäre, zugleich muss man aber achten, dass der Heatspreader auch einen isolierenden Eigenschaft hat und so die DIE schützt.

glauben ja auch das sich dadurch die fläche verteilt
So abwegig ist das nicht, denn das ist auch die Idee hinter dem Kühlkörper
news5449.html

in Kühlkörper vergrößert die wärmeabgebende Oberfläche eines wärmeproduzierenden Bauteils. Damit kann einer möglichen Beschädigung durch Überhitzung vorgebeugt werden.

http://phys.org/news5449.html
2D-Heat-Spreader.gif

The heat spreader being developed at Rensselaer utilizes a phase-change heat process, the same mechanism that the human body uses to cool itself, to transfer and distribute heat in the brain. The fundamental principal behind the operation of the heat spreader is evaporation and condensation, similar to perspiration. Using a pure substance, saturated conditions are created inside the heat pipe, resulting in evaporation in the heated regions. Heat entering the pipe turns the liquid water to vapor, which is forced along the pipe by high pressure where it is condensed in the cooler regions. The dissipated heat is then pushed out of the heat pipe, and the wicking structure pumps the liquid back to the evaporator.
Somit es gibt sehr wohl auch Heatspreader mit Werkstoffe, die die Wärme auf eine größere Fläche verteilen.
Wobei klar, auch dazu eigentlich der Kühlerkörper gedacht ist und somit recht hast, dass man den Kühler auch einfach auf den nackten DIE geben könnte und jeder Spalt seine parasitären Eigenschaften hat. Dann aber wieder zum Problem kommt, dass der Chip ungeschützt ist. Und ich würde nur mal gern daran erinnern, was vielen Passiert ist, als sie einen Kühler tauschen wollte. Der Heatspreader ist beim Abnehmen auf der Kühlfläche kleben geblieben.

http://de.wikipedia.org/wiki/Heatspreader
Ein Heatspreader (engl. Hitzeverteiler) ist eine kleine Metallplatte, meistens aus Kupfer oder Aluminium, die vom IC-Hersteller auf einen Halbleiterchip (Die) aufgesetzt wird. Der Heatspreader soll Beschädigungen des empfindlichen Halbleiterkristalls (beispielsweise eines Prozessors) bei der Montage verhindern sowie die Wärme auf einer größeren Fläche verteilen, um sie besser in den Kühlkörper einkoppeln zu können; daher der Name. Notwendig ist dies, da die Wärme nicht gleichmäßig auf der gesamten Oberfläche des Halbleiterkristalls erzeugt wird, sondern je nach Beanspruchung der einzelnen Systemteile an unterschiedlichen Stellen entsteht.


Eine andere Frage : 128 Bit
Falls die 750 GTX TI schon die größte Ausbaustufe ist, kann eine Verbrauchsreduktion nicht auch durch die kleinere Bandbreite entstehen, desweiteren weil man einen kleineren Speichercontroller benötigt.
Für mich klingt es ähnlich wie damals der GK104 (680GTX) zum gf110 (580 GTX).
Im Endeffekt hat man beim 750 GTX, einfach weitere "unnötige" Chips entfernt und somit den Chip schlanker gemacht. Das würde aber dann nicht wirklich von besseren "gpgpu" Performance sprechen oder ? Naja da die große Unbekannte wird wohl die Architekturveränderung sein.
Ich glaube, der Fokus ist klar auf Gaming, und das eher auf einem traditionellen Ansatz. (also weniger auf gpgpu ect)
 
Zuletzt bearbeitet:
Krethi & Plethi schrieb:

Ok. Man kann natürlich auch höchst empfindliche CPUs mit nacktem Die bauen, die beim kleinsten Fehlern beim Einbau sofort zerbrechen. Nur hat man dann halt so eine unschöne Geschichte wie z.B. damals bei den Athlons, die reihenweise schon beim Einbau gestorben sind. ;)
Intel und AMD wissen schon, warum sie inzwischen durchgehend auf Heatspreader setzen. (Ausgenommen Mobil-CPUs, wo das selbe gilt wie bei GPUs.) Desktop-CPUs werden nunmal (im Gegensatz zu GPUs und Mobil-CPUs) auch einzeln verkauft und müssen sich möglich leicht/narrensicher verbauen lassen. Deswegen haben sie schützende Heatspreader.

Es gibt/gab übrigens auch Fälle, wo Heatspreader wirklich Heatspreader sind, also dazu gedacht, Wärme von kleinen Hotspots abzuleiten und auf eine größere Fläche zu verteilen. Z.B. damals bei den RDRAM-Speichermodulen. Die Bleche darauf waren keine Kühler, sondern echte Heatspreader.
Aber sobald man zusätzlich einen richtigen Kühlkörper auf einen Heatspreader packt, ist letzterer für diese namensgebende Funktion nutzlos. Die Wärme kann sich genauso gut (bzw. besser) direkt im Kühlblock selbst verteilen.
 
Zuletzt bearbeitet:
pipip schrieb:
Krethi & Plethi
Klug genug andren gleich auf Missverständnisse hinzuweißen und Fehler klar zustellen bist du anscheinend auch nicht.
soll ich hier jetzt jedem die physik erklären?

jeder mit schulabschluß sollte das auch selbst verstehen...
Ergänzung ()

Herdware schrieb:
Ok. Man kann natürlich auch höchst empfindliche CPUs mit nacktem Die bauen, die beim kleinsten Fehlern beim Einbau sofort zerbrechen. Nur hat man dann halt so eine unschöne Geschichte wie z.B. damals bei den Athlons, die reihenweise schon beim Einbau gestorben sind. ;)
nur wenn man sich echt unfähig angestellt hat, so leicht ist nix abgebrochen.

hab meinen K7 alle 6 monate vom kühlkörper befreit und die WLP ausgetauscht, um da etwas kaputt zu machen hätte ich es schon mutwillig machen müßen.
 
Zurück
Oben