ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
@y33h@

Aber sie schwanken und da es hier viele gibt, die selbst auf solche Schwankungen Acht geben, wird man wohl, um dies Thema abschließend mit Messdaten untermauern zu können, eine zumindest kleinere Testreihe durchführen müssen. Da kann dann aber auch keiner mit fadenscheinigen Ausreden kommen, warum selbst das nicht stimmig sein sollte. (Behaupte ich jetzt einmal so :) )
 
Das sind doch keine Leckstrome,

es ist doch hinlänglich bekannt das Halbleiter bei Höherer Temperatur einen Niedrigeren Widerstand haben.
die einen Mehr, die anderen Weniger.
 
Natürlich sind das Leckströme, welche bei immer kleineren Strukturen imme rmehr zum problem werden.
Da muss halt in der Planung alles stimmen und die Qualität eines Prozesses muss passen. ATI hat damit fast keine Probleme, siehe Messungen bei Milamber!.
http://www.elektronik-kompendium.de/sites/grd/1011011.htm
Ergänzung ()

Naja n Solider Trippleslotkühler mit 3 Lüftern und ordentlich Kupfer.
Da wäre doch noch einiges möglich.
Deine Aussage, hat in mir jedenfalls nicht dolle Erwartungen an leise Custom Designs geweckt.^^
 
Zuletzt bearbeitet:
das bei höherer Temperatur mehr Strom fließt hat aber nix mit den Leckströmen zu tuen, das ist einfach so bei Halbleitern.

das war auch schon bei 190nm großen Chips so...
 
Die Halbleiter Gesetzmäßigkeiten sind ja bekannt, die Frage welche sich hier allerdings aufwirft ist, wie yeeh@ schon weiter vorne geschrieben hat, warum eine Nvidia eine deutlich extremere Verbrauchskurve in Abhängigkeit der Temperatur fährt als eine ATI.

In beiden kommt das gleiche Silizium (TSMC) in gleicher Struktur (40nm) zum Einsatz, was ist nun der Auslöser für die gravierenden Unterschiede bei den Verbrauchswerten? Die andere Frage ist, warum zieht die ATI bei, ich glaub 1.35 Volt und Taktraten um 1GHz waren es, so exorbitant im Verbrauch an?
 
Weil die Spannung halt exponentiell die Leistungsaufnahme steigert. Und von 1,167 auf 1,35V ist übler Sprung, auch wenn es nominell "nur" +16% sind. Dazu die 1,0 GHz was auch noch mal +18% sind. Das haut gewaltig rein.
 
Müsste es dann aber nicht ähnliche Bilder für die NV Karten geben oder hat die bis jetzt einfach noch keiner in diese Regionen geprügelt?
 
Och, mit 1,125V und kräftigem OC pulvert die GTX480 im Furmark 370W hin - und das sind nur 9% mehr Spannung. Ich lehne mich mal aus dem Fenster und behaupte, mit 16% mehr Spannung samt OC hast du da locker 450 bis 500 Watt stehen. Geht bisher aber nur per Hard-Mod.
 
Es gab schon bei der GTX280 wohl den selben Effekt:

20°C Unterschied resultierten hier im Test in 20W unterschiedlichem Verbrauch:
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index9.php
Die Unterschiede, die sich durch verschiedene Temperaturen ergeben, sind durchaus beträchtlich. Zwischen der Leistungsaufnahme bei 65°C und 85°C liegt eine Differenz von rund 20 Watt.
leistungsaufnahme_temp.png

Wurde hier im Forum auch schon diskutiert:
https://www.computerbase.de/forum/t...fikkarten-und-einfluss-der-temperatur.541241/
 
Natürlich ziehen Prozessoren und Grakas bei höherem verbrauch mehr Strom.
Bei der GTX480 ist das allerdings sehr auffällig und noch nie so da gewesen, insofern müssen es Leckströme sein.
Die HD5870 zieht wegen dem hohen Spannungssprung soviel, ist allerdings auch sinnlos soviel anzulegen.
Je nach Exemplar sind bereits bei 1,225 Volt schon an die 1000 mhz möglich.
 
florian. schrieb:
das bei höherer Temperatur mehr Strom fließt hat aber nix mit den Leckströmen zu tuen, das ist einfach so bei Halbleitern.

das war auch schon bei 190nm großen Chips so...

komisch das das bei der HD5k aber nicht so ist ;)

Schaffe89 schrieb:
Natürlich ziehen Prozessoren und Grakas bei höherem verbrauch mehr Strom.

äääh wie meinen ;)
 
Es sind weniger die Leckströme als viel mehr die unterschiedlichen Widerstände bei unterschiedlicher Temperatur in Halbleitern. Das ist auch nicht immer identisch bei jedem Halbleiter. Manche verbessern die Leitfähigkeit mit höherer Temperatur da mehr Elektronen freigesetzt werden, und andere wiederum verschlechtern ihre Leitfähigkeit da die verstärkte bohrsche Atomschwingung einen höheren Widerstand erzeugt. Dies ist ja genau das besondere von Halbleitern die eben solche unterschiedlichen Eigenschaften aufweisen können.

Nur soweit ich weiss nutzen ja alle den selben Prozess und somit auch das selbe Material - daher muss es hier Unterschiede in der Architektur geben die das verursachen.
Oder gibt es auch die Möglichkeit unterschiedliche Materialien in der selben Fertigung zu benutzen? Das wäre mir neu.
 
@Complication

so weit ich weis benutzen sie unterschiedlich viele schichten, sowohl bei den leitfähigen, wie auch den isolierenden schichten. (amd soll mehr schichten verwenden dabei)
 
So... um die Gerüchteküche wieder mal etwas anzuheizen.
Angeblich soll eine Fermi-Karte mit vollen Specs, d.h. 5121D Shadern möglich sein.
Siehe Link von PCGH.
http://www.pcgameshardware.de/aid,746601/Nvidia-Fermis-Yield-Raten-normal-Karte-mit-512-Streamprozessoren-moeglich/Grafikkarte/News/

Zudem sollen sich die Yields angeblich auf ein "normales Niveau" eingependelt haben.
Ich denke allerdings nicht, dass sie alles unter Kontrolle haben. Die teildefekten GTX460, die bald aufschlagen werden, heben sicherlich die Yield Rate.
Wann gibts die Antwort von AMD?^^
 
Zuletzt bearbeitet: (Hm?)
Yo, die News hab ich vor ner Woche bei Luxx gelesen. PCGH scheint da ein bisschen spät zu sein. Aber ich glaube kaum, dass bald eine kommen wird. Frühestens mit nem neuen PCB und vielleicht einem Stepping mit dem die Leistungaufnahme gedrückt wird.
 
Die gibt es dann als Anhänger.;)
Er meint sicherlich die 460
 
Jap, dachte ich mir auch, aber ich frag zur Vorsicht trotzdem immer nach.

Übrigens: welche Vorstellungen bezüglich der Dimensonen eines Schlüsselanhängers hast du so, Airbag? ;)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben