News EK Water Blocks: Wasserkühler für die GeForce GTX 1080 zum Marktstart

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
16.021
Niedrigere Temperaturen führen zu geringerem Verbrauch. Das bedingt einen (geringfügig) höheren Spielraum beim Ausreizen des Power-Targets, womit ein höherer Takt möglich ist. Limitierender Faktor wird aber trotz Wakü und Mod-Bios wohl das deutlich abgespeckte PCB als solches sein.

Den 8-Pin-Anschluss habe ich da nicht mal wirklich im Verdacht.
http://www.pcgameshardware.de/Nvidi...3/News/Geforce-GTX-1080-Power-Mod-OC-1195975/
 
Dir fehlt ein Stromanschluss an dem Kühler? O.o

Und bevor jetzt einer kommt mit: 180W TDP kann man auch leise mit Luft kühlen: Optik ;)
 
Danke für den Link Zwirbelkatz! Es ist schon geradezu lächerlich und erschreckend.
Es wird ganz offensichtlich, dass NVIDIA den Chip an eine extra kurze Leine legt, um ihn zu strecken. Mit dem 14nm Node "dürfen" wir bestimmt genauso lange leben wie mit dem 28nm Node. Da muss man ja was raus kitzeln. Warum sollte NVIDIA am PCB so viele Komponenten einplanen und dann doch nicht verbauen? Ich könnte wetten, dass der GM204 Chip noch mal auf dem gleichen PCB aber mit Vollbestückung bei den Komponenten, einem 6-Pin Anschluss zusätzlich, 200W TDP und 2Ghz als 1170ti (oder so) kommt.
Das muss man sich mal auf der Zunge zergehen lassen - die bringen eine 780€ Mainstream-Chip Karte im Referenzdesign und preisen es als ach so hochwertig und dann spart man sich Komponenten für insgesamt 2-3$? :rolleyes:

Habe mal das Wesentliche zitiert:
Sollte man das Geld und die Experimentierfreudigkeit besitzen, um eine solche Mod auszuprobieren, sollte man extrem vorsichtig sein. Die Spannungswandlung ist ziemlich spartanisch ausgestattet, sodass höhere Stromflüsse schnell für Feuer sorgen könnten. Das Problem liege nicht unbedingt an der sechsten fehlenden VRM-Phase, die Nvidia vermutlich aus Kostengründen am PCB vorsieht, aber nicht besetzt. Daneben verlötet Nvidia pro VRM-Phase nämlich nur einen MOSFET, der bei Zimmertemperatur auf 50 Ampere Out- und 30 Input ausgelegt ist. Jeweils ein zweiter sieht das PCB vor und würde deutlich größere Stromflüsse erlauben, sind aber ebenfalls nicht vorhanden. Größere OC-Spielräume werden also voraussichtlich erst die Custom-Designs von Nvidias Boardpartner bieten.

E:
Seit wann hat die Temperatur etwas mit dem Stromverbrauch einer GPU zu tun?
Ich dachte, das hätte sich jetzt endlich mal rumgesprochen.
Das erste Mal wirklich offensichtlich wurde es mit der GTX480AMP! von Zotac. Dort war ein deutlich besserer Kühler mit zwei Axiallüftern verbaut, die Karte lief nicht bei ihren 94° (!) der Referenz sondern irgendwo im niedrigen 80er Bereich und trotz höherer Taktraten und mehr Leistung lief der Chip mit weniger Leistungsaufnahme.
Genauso sichtbar ist es bei der R9 290X. Der Referenzkühler war ziemlich übel. Packt man auf die gleiche Karte einen Wakü Block und ändert nichts am Takt und Spannung kommt man durch die Temperatur im 50° Bereich, den man mit einer Custom Wakü meist erreicht im Vergleich zum Köcheln am Temperaturlimit der Referenz gern mal auf massive 50W weniger nur durch den Kühler.

Wird ein Chip heißer, sinkt der Widerstand und die Leckströme nehmen zu -> mehr Leistungsaufnahme -> noch mehr Hitze -> noch mehr Leistungsaufnahme.
 
Zuletzt bearbeitet: (Widerstand korrigiert)
Das ist doch nur der Kühler, der wird nicht nur auf das Referenz-Design passen.
Ich hoffe CB wird sich die Partnerkarten mit zusätzlichem Stromanschluss und ordentlicher Kühlen ebenfalls zur Brust nehmen. :)

Zwirbelkatz schrieb:
Niedrigere Temperaturen führen zu geringerem Verbrauch.
Seit wann hat die Temperatur etwas mit dem Stromverbrauch einer GPU zu tun?
OK die Kühlung braucht auch Saft, aber das dürfte wohl eher nebensächlich sein.
 
Very nice. Davon am Besten noch eine Single Slot Variante für extra kleine Gehäuse rausbringen. :D
 
Fruuky schrieb:
Hübsch, aber was bringt der ohne zusätzlichen Stromanschluss...

Was eine WaKü bringt, natürlich eine kühlere Karte und ein leiseres System.
WaKü bedeutet nicht NUR übertakten, das ist ein Aspekt darunter aber mit Sicherheit nicht der einzige.

Mir persönlich dient meine WaKü um die Geräuschkulisse zu senken, Temperatur und Übertaktung sind bei mir nebensächlich.
 
Zwirbelkatz schrieb:
Niedrigere Temperaturen führen zu geringerem Verbrauch. Das bedingt einen (geringfügig) höheren Spielraum beim Ausreizen des Power-Targets, womit ein höherer Takt möglich ist. Limitierender Faktor wird aber trotz Wakü und Mod-Bios wohl das deutlich abgespeckte PCB als solches sein.
Wie kommste denn auf all diese schmalen Bretter? :eek:

Vor allem die erste Aussage ergibt doch gar keinen Sinn. Niedriger Verbrauch ergibt doch niedrige
Temperatur, aber nicht andersrum. Takt und Vcore runter -> geringerem Verbrauch -> geringere
Temperatur.

Daraus kann man dann auch den folgenden Satz dann entspechend nicht folgern. Die Karte muss
zwar wegen der besseren Kühlung nicht so schnell hitzebedingt runtertakten, das bedeutet aber
nicht zwingend ein höheres OC Potential, nur dass ein bestimmter OC Takt länger oder dauerhaft
anliegen kann. Das gleiche gilt ja auch für Intels aktuelle i5/i7. Gibts die Kühlung her, hat man
dauerhaft 4,4 Ghz, wenn nicht, dann geht er nach paar Minuten wieder runter, bei der Grafikkarte
ist das doch genau das gleiche.

Was den dritten Satz angeht, das bezieht sich zunächst mal nur auf die Founders Edition. Ich glaube
das ambitionierte Übertakter deutlich besser dran sind mit einem Custom Design, das nicht nur den
besseren Kühler, sondern auch eine bessere Stromversorgung haben könnte. Nichts für ungut ;)
 
sieht nett aus.. hoffentlich kommen die karten endlich mal in den handel bzw. die partnerkarten.. am liebsten gleich eine ab werk übertaktete EVGA mit wasserkühler, die ich nur noch in kreislauf aufnehmen muss.. dann wär ich zufrieden ^^
 
S.Kara schrieb:
Seit wann hat die Temperatur etwas mit dem Stromverbrauch einer GPU zu tun?

Das war schon immer so. Geringere Temperatur bedeutet weniger Leckströme -> weniger Strombedarf. Wer es nicht glaubt, darf gerne selbst nachmessen. Egal ob CPU oder GPU. Legt sie unter Dauerlast und ihr werdet sehen, dass der Verbrauch natürlich erst stark ansteigt (wegen 100% Last), und dann mit Zunahme der Temperatur über die Zeit ebenfalls noch ein paar Watt klettert* - bis sich dann Temperatur und Verbrauch nahezu eingepegelt haben. Das kann gut und gerne 10% im Stromverbrauch ausmachen.

*natürlich ohne dass sich die Lüfter dabei schneller drehen würden (=mehr verbrauchen) und das Ergebnis verfälschen
 
Zuletzt bearbeitet:
S.Kara schrieb:
Seit wann hat die Temperatur etwas mit dem Stromverbrauch einer GPU zu tun?

Schon immer und gar nicht wenig, ich zitiere mich mal selbst aus einem Test den ich vor Jahren geschrieben habe:

henk schrieb:
Ein Umstand dessen sich viele jedoch nicht bewusst sind ist der Zusammenhang der Temperatur und damit der Kühlung auf den Stromverbrauch. Der Grund dafür liegt darin, dass es sich bei Halbleitern um Heißleiter handelt, deren elektrischer Wiederstand mit steigender Temperatur abnimmt, wodurch wiederum die Leistungsaufnahme steigt. Ebenso haben Leckströme einen Einfluss auf den Stromverbrauch, da diese ebenfalls mit steigender Temperatur zunehmen.
 
Das mit Temperatur und Stromverbrauch kann man doch wunderschön selbst testen.
Lüfter vom Gehäuse abklemmen, dann Benchmark von CPU und GPU starten.
Der Stromverbrauch geht dann immer höher und zwar mehr als nur ein schneller drehender Graka- oder CPU-Lüfter verursachen würde ;)
Konnte ich bei meiner 470 schön sehen^^
 
borizb schrieb:
Wie kommste denn auf all diese schmalen Bretter? :eek:

Vor allem die erste Aussage ergibt doch gar keinen Sinn. Niedriger Verbrauch ergibt doch niedrige
Temperatur, aber nicht andersrum. Takt und Vcore runter -> geringerem Verbrauch -> geringere
Temperatur.

Finde es schon Schade das du etwas als Unsinn bezeichnest nur weil du es nicht verstehst. Leckströme sind gerade bei Halbleitern ein großes Hinderniss für die Industrie. Was denkst du warum beim extrem OC mit LN direkt auf dem IHS gekühlt wird ?
 
Zurück
Oben