danke, dass jmd dieses rechenbeispiel gebracht hat! - bevor ihr euch über solche leistungsaufnahmen bei ner graka aufregt, solltet ihr lieber eure alten 100Watt birnen austauschen... denn 100W bei der graka sind die gleichen 100W wie bei der lampe -.-
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test GeForce GTX 470 im Test: Nvidias neue „Kleine“ ist besser als der große Bruder
Rukizz
Lieutenant
- Registriert
- Apr. 2009
- Beiträge
- 877
Schaffe89 schrieb:Es geht auch nicht um die Kosten, sondern auch um die Moral.
Und darum (" ich will Stromsparen").
man kann strom nicht sparen man kann nur geld sparen indem man weniger strom verbraucht.
dein system hat 2 grafikkarten und einen übertakteten phenom. du guckst sicher nicht auf die leistungsaufnahme
Arno Nimus
Commander
- Registriert
- Feb. 2008
- Beiträge
- 2.178
JokerGermany schrieb:Und warum kann nur Nvidia in Zukunft Treiberverbesserungen bewerkstelligen?
Das habe ich mit keinem Wort behauptet, angedeutet, suggeriert, ja nichtmal gedacht! ;-)
(du interpretierst das in meine Aussage hinein!)
Natürlich geht man davon aus, dass beide Hersteller ihre Treiber optimieren (das hoffe ich jedenfalls), aber die 4x0-Karten von Nvidia sind halt brandneu und die ATI/AMD Karten der 5x70 Reihe schon etwas länger auf dem Markt und es ist ja bekannt, dass der grosse Performance-Kick auf Basis von Treiberoptimierungen normalerweise in den ersten Monaten nach dem Relese stattfindet. Zumindest ist die Wahrscheinlichkeit, dass es so läuft sehr gross (auf Basis dessen was man aus Erfahrung von vorausgegangenen Grakagenerationen weiss/beobachtet hat!)
Ich persönlich kaufe Grakas eh NIE driekt nach dem Release (eher sehr viel später, frühestens ~ 1 Jahr nach Markteinführung, wenn die Preise auf ein erträgliches Mass gefallen sind) wenn die Kinderkrankheiten behoben wurden und man keine Bananenhard- bzw.software mehr vor sich hat mit der man sich nur herumärgern muss. Von daher sehe ich das alles seeeehr gelassen!
Nano-kun schrieb:wer sich eine highend-karte leisten kann, kann sich auch den strom leisten
ist doch mit dem auto das gleiche
Geht nicht allein um die Kosten, sondern auch die Umweltbelastung, denn Strom muss erzeugt werden. Wenn er von den Sonnenkollektoren auf dem eigenen Hausdach kommt, ist das ok, aber bei Atomstrom etwa sieht das eben anders aus. (im Hinblick auf den Zustand unserer Welt/Natur meine ich!) Diese krassen Stromfresserkarten sind halt angesichts der aktuellen Erfordernisse irgendwie das falsche Signal von Nvidia und dass damit gleichzeitig auch andere Probleme einhergehen, nämlich Hitzeentwicklung im Gehäuse (um die sich der Käufer dann kümmern muss und die auch die Lebensdauer seiner übrigen Hardware mindern) und Lärmbelästigung durch primitiv anmutende, turbinenartige Heulgeräusche, das sind dann weitere Konsequenzen und unangenehme Nebeneffekte dieser "Stümperei"! (<- für mich ist es Stümperei, denn diese Karten kann ich nicht als souveräne Produkte ansehen, da sie sich die Leistungskrone nur durch Rumgekrampfe abstauben können = die Belastung der GPU an den Rand der Erträglichkeit treiben) ;-)
Ist aber nur meine Ansicht!
Nvidia hatten ja genügend Zeit. Was haben die also die ganze Zeit getrieben? (so frage ich mich)
Zuletzt bearbeitet:
Complication
Banned
- Registriert
- Okt. 2009
- Beiträge
- 4.277
@Arno Nimus
Grundsätzlich hast du mit Sicherheit recht damit dass der grösste Performance Zuwachs üblicherweise kurz nach Release zu erzielen ist durch Treiberoptimierung.
Nur Nvidia selber hat die Verzögerung der Fermi Karten mit Treiberoptimierung begründet - sprich das selbe Produkt hätte ja Ende 2009 erscheinen müssen und seit dem wird auch schon an den Treibern geschraubt um überhaupt konkurrenzfähig zu werden.
Das heisst AMD hat da keinerlei Vorsprung. Auch sind die GTX4xx nicht neuer als die HD5xx - sie haben nur noch länger gebraucht um überhaupt zu funktionieren. Sie sind verspätet auf dem Markt, aber nicht weil sie 6 Monate im Schrank lagen und keiner daran gearbeitet hat.
Grundsätzlich hast du mit Sicherheit recht damit dass der grösste Performance Zuwachs üblicherweise kurz nach Release zu erzielen ist durch Treiberoptimierung.
Nur Nvidia selber hat die Verzögerung der Fermi Karten mit Treiberoptimierung begründet - sprich das selbe Produkt hätte ja Ende 2009 erscheinen müssen und seit dem wird auch schon an den Treibern geschraubt um überhaupt konkurrenzfähig zu werden.
Das heisst AMD hat da keinerlei Vorsprung. Auch sind die GTX4xx nicht neuer als die HD5xx - sie haben nur noch länger gebraucht um überhaupt zu funktionieren. Sie sind verspätet auf dem Markt, aber nicht weil sie 6 Monate im Schrank lagen und keiner daran gearbeitet hat.
KAOZNAKE
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.844
Neo_Xsendra schrieb:nv kann mit einem möglichen b-spin die verlustleistung und den ausschuss deutlich senken, auch in 40 nm, demnach brauchen sie für eine 475 und eine 485 keinen shrink, um die taktraten zu erhöhen, oder die kosten zu senken.
Na, glaubste immer noch an den B-Spin?
475/485 und Kosten senken macht irgendwie keinen Sinn, oder? Ne Namensänderung impliziert ja ne Verbesserung der Performance, was nur über höhere Taktraten oder mehr Shader geht. Dann geht der Ausschuss aber wieder an die Decke.
Das einzige was man momentan mit nem bspin erreichen könnte, wäre mal den Yield auf 50% zu bringen, wenn überhaupt. (Also Kosten "senken") Raum für ne 4x5 sehe ich da noch gaaaaaaaaaaaaanz lange nicht. Und an einen bspin glaube ich wie gesagt eh nicht, dem geb ich höchstens 5%.
Olunixus schrieb:danke, dass jmd dieses rechenbeispiel gebracht hat! - bevor ihr euch über solche leistungsaufnahmen bei ner graka aufregt, solltet ihr lieber eure alten 100Watt birnen austauschen... denn 100W bei der graka sind die gleichen 100W wie bei der lampe -.-
Toll, und wenn ich alle meine Glühlampen schon durch LEDs ersetzt habe?
Außerdem geht das alles auf die Wärmeentwicklung (schlecht für andere Komponenten) und auf die Lautstärke. Und wenn man auf ne 500€ Graka erst noch was draufbasteln muss für mehr teures Geld, dann ist das einfach ein EpicFail.
S
Shurkien
Gast
Complication schrieb:Das heisst AMD hat da keinerlei Vorsprung. Auch sind die GTX4xx nicht neuer als die HD5xx - sie haben nur noch länger gebraucht um überhaupt zu funktionieren. Sie sind verspätet auf dem Markt, aber nicht weil sie 6 Monate im Schrank lagen und keiner daran gearbeitet hat.
Für den Normalen Bürger der nur sieht:
HD5800 Release 2009
GTX400 Release 2010
Ist die GTX400 Serie einfach neuer, und auch schneller.
Und wie schon viele sagten werden viele einfach nur sehen "Teuer,neu,gut!!!!111"
Haben doch schon genug hier gehabt die sic ne 5970 geholt haben und sich wunderten warum die Games scheiße laufen (µRuckler inc)..
Rukizz
Lieutenant
- Registriert
- Apr. 2009
- Beiträge
- 877
zu den energiesparlampen:
die herstellung dieser erfordert eine höhere leistung, als die glühbirne in ihrer lebenszeit verbrät. energiesparlampen sind teurer und beinhalten blei. dazu kommt noch die entsorgung, die dadurch aufweniger ist.
bei den leds weis ich das nicht
im endeffekt muss jeder selber entscheiden was er kauft
ich kann sagen, das die gtx 470 im idle super silent ist und unter last deutlich hörbar, aber nicht störend.
mein system verbraucht unter crysis last ca 335W ohne monitor. mit monitor ca 400W
die herstellung dieser erfordert eine höhere leistung, als die glühbirne in ihrer lebenszeit verbrät. energiesparlampen sind teurer und beinhalten blei. dazu kommt noch die entsorgung, die dadurch aufweniger ist.
bei den leds weis ich das nicht
im endeffekt muss jeder selber entscheiden was er kauft
ich kann sagen, das die gtx 470 im idle super silent ist und unter last deutlich hörbar, aber nicht störend.
mein system verbraucht unter crysis last ca 335W ohne monitor. mit monitor ca 400W
Neo_Xsendra
Lieutenant
- Registriert
- Sep. 2009
- Beiträge
- 809
KAOZNAKE schrieb:Na, glaubste immer noch an den B-Spin?
475/485 und Kosten senken macht irgendwie keinen Sinn, oder? Ne Namensänderung impliziert ja ne Verbesserung der Performance, was nur über höhere Taktraten oder mehr Shader geht. Dann geht der Ausschuss aber wieder an die Decke.
Das einzige was man momentan mit nem bspin erreichen könnte, wäre mal den Yield auf 50% zu bringen, wenn überhaupt. (Also Kosten "senken") Raum für ne 4x5 sehe ich da noch gaaaaaaaaaaaaanz lange nicht. Und an einen bspin glaube ich wie gesagt eh nicht, dem geb ich höchstens 5%.
Glaube ich an den B-Spin? ... eeeeerm jap. wird das zwangsläufig zu einer 4x5 benennung führen? hhmmmm vermutlich nicht, ABER es ist MÖGLICH, DENN:
Wenn man von der erhöhten Yield verbesserung einmal absieht (die vor allem dem hersteller hilft, da es seine kosten senkt) bring ein b-spin traditionell das:
-(oft deutlich) verringerte Wärme entwicklung
-höhere taktraten
und in diesem fall kann es sogar bedeuten, das der ominöse fehlende kern aktiviert werden könnte (wobei das fragen aufwerfen würde. bzw wieder viel geschrei mit der namensgebung mit sich bringen würde)
die mMn sinnvollste variante bei einem solchen B-Spin wäre folgendes
470(b), gleicher Takt, 2 deakt. --> Kühler, Günstiger
480(b), gleicher Takt, 1 deakt. --> Kühler, Günstiger
490(b) neues top modell ohne deakt.
allerdings ist es sehr viel wahrscheinlicher, das NV (Typisch für deren denkweise)
475(470b), höherer Takt, 2 deakt --> mehr leistung, gleiche/niedrigere temps, günstiger
485(480b), höherer Takt, 1 deakt --> mehr leistung, gleiche/niedrigere temps, günstiger
495, ohne deakt. --> maximale leistung, für längere balken in den benches
das funktioniert allerdings nur, wenn es nicht tatsächlich ein konstruktionsfehler ist, der IMMER einen kern kostet. Ausserdem, wirft es die frage nach der namensgebung für eine mögliche dual karte. (btw glaub ich nicht an eine 490/495 als nicht dual karte.) aber naja auch hier werden wir vermutlich im q3 mehr wissen ^^ dann werden wir auch wissen wie es um amds nächstes projekt steht ^^ obs in q4 kommt wie gepant ^^
Es besteht ja sogar noch die chance, das man diese gen bei NV schon abschreibt und für Q1 2011 die nächste gen in der planung hat, mit relativ deutlichen änderungen um die hauptprobleme gleich zu umgehen. (ich hoff sie gehn nciht schon wieder nen neuen shrink gleich mit den topmodellen an)
Schinzie
Rear Admiral
- Registriert
- Feb. 2008
- Beiträge
- 5.955
Nano-kun schrieb:mein system verbraucht unter crysis last ca 335W ohne monitor. mit monitor ca 400W
das ist heftig. Das system in meiner Signatur, welches ca. gleich schnell ist verbraucht fast 100 watt weniger...
i hab nämlich bei Crysis mit Monitor knapp über 300 watt. Mit Furmark und Prime bin i ohne Monitor bei ca. 350 watt.
Da sieht man mal was von Energieeffizienz...
gruß
Vitec
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.920
Ich glaube nicht das besitzer eines ferraris mega villen 10 plasmas oder projektoren privatjets an umweltdenken und sich deswegen statt dem ferrarie enzo extrembeispiel mit 30-35 litern den porsche mit selber leistung und vielleicht nur 28 liter kaufen die kaufen das was ihnen spass macht/gefällt.
DAs hier ienige persönlich auf die umwelt achten ist sehr schön aber vergebene liebesmüh, das ganze herumgetute ist einzig allein dazu gut das die welt halt nicht in 200 jahren sondern 220 jahren oder ka untergeht sprich is wie mit nem kranken menschen der and erlungenmaschine läuft . man weis schon das er sterben wird ,man verzögert es einfach nur etwas.
JA ich trenne auch müll weils einfach nebenher geht das zu machen und ja genauso leicht kann man statt der 480 die 5870 kaufen ohne jemanden zu schaden/ viel aufwand betreiben zu müssen .
Aber ich sags ehrlich würde die 5870 100 watt mehr verbrauchen als die 480 gtx ansosnten aber bei lautstärke/temp(obwohl sich das ausschliesst aber mal nur fiktiv angenommen) gleich bleiben würd ich trotzdem die 5870 nehmen. dabei rechne ich auch eine übertaktung ein die bei der 480 nicht wirklich so möglich ist derzeit!!
DAs is immer so geil wenn die reichen auf dieser welt 1 mile spenden für irgendwas wwf ka und dann mit den privatjets herumdüsen.Glaubt ihr ehrlich der george fährt mit dem prius freiwillig rum? der hat den von toyota in den arsch geschoben bekommen und bekommt vermutlich auch noch werbegage dafür(ok auch nur fiktiv angenommen).
Fakt is nunmal es kommt immer auf den P/L an das hier welche wirklich an die umwelt denken würd ich liebend gerne an einem Wahrheitsdedektor testen
Mfg
V
Ps:Wobei ich nicht ausschliesse das es wirklich 1-2 leute gibt die so extrem umweltschutzmässig drauf sind.
DAs hier ienige persönlich auf die umwelt achten ist sehr schön aber vergebene liebesmüh, das ganze herumgetute ist einzig allein dazu gut das die welt halt nicht in 200 jahren sondern 220 jahren oder ka untergeht sprich is wie mit nem kranken menschen der and erlungenmaschine läuft . man weis schon das er sterben wird ,man verzögert es einfach nur etwas.
JA ich trenne auch müll weils einfach nebenher geht das zu machen und ja genauso leicht kann man statt der 480 die 5870 kaufen ohne jemanden zu schaden/ viel aufwand betreiben zu müssen .
Aber ich sags ehrlich würde die 5870 100 watt mehr verbrauchen als die 480 gtx ansosnten aber bei lautstärke/temp(obwohl sich das ausschliesst aber mal nur fiktiv angenommen) gleich bleiben würd ich trotzdem die 5870 nehmen. dabei rechne ich auch eine übertaktung ein die bei der 480 nicht wirklich so möglich ist derzeit!!
DAs is immer so geil wenn die reichen auf dieser welt 1 mile spenden für irgendwas wwf ka und dann mit den privatjets herumdüsen.Glaubt ihr ehrlich der george fährt mit dem prius freiwillig rum? der hat den von toyota in den arsch geschoben bekommen und bekommt vermutlich auch noch werbegage dafür(ok auch nur fiktiv angenommen).
Fakt is nunmal es kommt immer auf den P/L an das hier welche wirklich an die umwelt denken würd ich liebend gerne an einem Wahrheitsdedektor testen
Mfg
V
Ps:Wobei ich nicht ausschliesse das es wirklich 1-2 leute gibt die so extrem umweltschutzmässig drauf sind.
Complication
Banned
- Registriert
- Okt. 2009
- Beiträge
- 4.277
Neo_Xsendra schrieb:Glaube ich an den B-Spin? ... eeeeerm jap. wird das zwangsläufig zu einer 4x5 benennung führen? hhmmmm vermutlich nicht, ABER es ist MÖGLICH, DENN:
Wenn man von der erhöhten Yield verbesserung einmal absieht (die vor allem dem hersteller hilft, da es seine kosten senkt) bring ein b-spin traditionell das:
-(oft deutlich) verringerte Wärme entwicklung
-höhere taktraten
und in diesem fall kann es sogar bedeuten, das der ominöse fehlende kern aktiviert werden könnte (wobei das fragen aufwerfen würde. bzw wieder viel geschrei mit der namensgebung mit sich bringen würde)
Das Problem hierbei ist wohl die Art und Weise was einen B-Spin ausmachen muss um die Probleme in den Griff zu bekommen. AMD hat ja vorgemacht dass mit verdoppelten vias die Strom- und Hitzeproblematik in den Griff zu bekommen ist:
http://www.anandtech.com/show/2937/9
Nur wenn man auch zeitgleich liest, dass das verdoppeln der vias den Chip grösser werden lässt, dann darf doch erheblicher Zweifel gehegt werden dass Nvidia der selbe Weg offen steht aufgrund der aufgeblasenen Architektur. Hinzu kommt noch der Kostenfaktor, da diese Massnahme die GPU noch teurer werden lässt in der Produktion.The problem with vias was easy (but costly) to get around. David Wang decided to double up on vias with the RV740. At any point in the design where there was a via that connected two metal layers, the RV740 called for two. It made the chip bigger, but it’s better than having chips that wouldn’t work.
Wenn man es recht bedenkt kann es durchaus sein, dass Nvidia diese Archeítektur auf 40nm nicht wesentlich verbessern kann und wirklich auf einen Shrink hoffen muss, da noch grössere Chips wohl nicht die Lösung sein können.
Und im Umkehrschluß muss man daran denken, dass sobald diese Probleme in der Fertigung nicht mehr vorhanden sind, auch AMD auf die Verdoppelung der vias verzichten kann und im selben Maße seine Chips verkleinern kann um mehr Leistung oder mehr Funktionen, die ja in der Entwicklung dem 40nm Prozess zum Opfer gefallen sind, mit der selben Architektur erreichen kann.
Irgendwie scheint es mir sehr unwahrscheinlich, dass ein Respin auf der selben 40nm Fertigung machbar ist und damit die Probleme gelöst werden können. Es entstehen einfach zu viele neue Probleme.
Größerer Chip mit noch schlechteren Yields? Das ist sehr unwahrscheinlich.
Doch das würde bedeuten man kann die vias nicht verdoppeln und somit auch das Strom-/Hitzeproblem nicht beseitigen.
Und das wiederum bedeutet man kann keine höheren Taktraten fahren und auch nicht die Leistung nennenswert steigern.
Die Frage die sich stellt, ist ob es durch das opfern von 1-2 SM Einheiten dazu kommen könnte. Doch dann ist der Zuwachs der Performance wohl nicht gross genug.
Das alles lässt mich fast schließen, dass ein B-Spin nur mit dem GF104 und kleineren Chips möglich sein wird, nicht aber mit den GF100 Top Modellen. Doch dies könnte dazu führen dass die GF104 sehr nah an den GF100 sein werden bzgl. Performance.
V
versus10000
Gast
bin echt am überlegen mir die gtx470 zu holen,obwohl ich mit meiner 5850 oc zufrieden bin.die tess leistung beeindruckt ganz schön
Wattebaellchen
Captain
- Registriert
- März 2010
- Beiträge
- 3.638
5 Stunden x 100 Watt = 500 Watt = 0,5 KW
0,5 KW x 365 = 182,5 KW .... mein Gefrierschrank braucht auch nicht mehr
Macht im Jahr 35,49625 Also 35,60
Wobei die preise wieder mal steigen sollen, somit wäre es noch leicht teurer...
Wer so argumentiert das das nicht viel ist, macht das sicher bei allen Geräten im haushalt und schwupps ist man bei 150- 300 Euro (bei großen Haushalten sieht es noch schlimmer aus!)
Und von wegen Energiesparlampen... die sind voll mit Quecksilber, Blei und anderen tollen Dingen und sind Sondermüll... Herstellung und Entsorgung (recyclen kann man die kaum) fressen mehr Strom als eine longlife Glühbirne je verbrauchen wird. Dazu kommt das das Flackerlicht "krank" machen (Kopfschmerzen, Übelkeit, Konzentrationsschwäche, Augenprobleme, Muskelkräpfe usw) und bei anfälligen Menschen epileptische anfälle auslösen kann.
Die Lautstärke der GTX Serie unter Last liegt laut Arbeitsschutz in dem Bereich der zu Herzkrankheiten führen kann
Also eine GTX + Energiesparlampe oder eine HD58xx und Halogensparlampen (kein Flackern, keine gesundheitlichen Probleme)?
Was ist wohl gesünder^^
Was ich übrigens oft beobachtet habe ist, das Leute die absolute Stromfresser im Haushalt haben dann mit ihren Alibilampen argumentieren... die helfen nicht, die schaden nur (der Umwelt) und rein rechnerisch machen die auch keinen Sinn, die halten eh nie im leben so lange wies draufsteht.
0,5 KW x 365 = 182,5 KW .... mein Gefrierschrank braucht auch nicht mehr
Macht im Jahr 35,49625 Also 35,60
Wobei die preise wieder mal steigen sollen, somit wäre es noch leicht teurer...
Wer so argumentiert das das nicht viel ist, macht das sicher bei allen Geräten im haushalt und schwupps ist man bei 150- 300 Euro (bei großen Haushalten sieht es noch schlimmer aus!)
Und von wegen Energiesparlampen... die sind voll mit Quecksilber, Blei und anderen tollen Dingen und sind Sondermüll... Herstellung und Entsorgung (recyclen kann man die kaum) fressen mehr Strom als eine longlife Glühbirne je verbrauchen wird. Dazu kommt das das Flackerlicht "krank" machen (Kopfschmerzen, Übelkeit, Konzentrationsschwäche, Augenprobleme, Muskelkräpfe usw) und bei anfälligen Menschen epileptische anfälle auslösen kann.
Die Lautstärke der GTX Serie unter Last liegt laut Arbeitsschutz in dem Bereich der zu Herzkrankheiten führen kann
Also eine GTX + Energiesparlampe oder eine HD58xx und Halogensparlampen (kein Flackern, keine gesundheitlichen Probleme)?
Was ist wohl gesünder^^
Was ich übrigens oft beobachtet habe ist, das Leute die absolute Stromfresser im Haushalt haben dann mit ihren Alibilampen argumentieren... die helfen nicht, die schaden nur (der Umwelt) und rein rechnerisch machen die auch keinen Sinn, die halten eh nie im leben so lange wies draufsteht.
Complication schrieb:AMD hat ja vorgemacht dass mit verdoppelten vias die Strom- und Hitzeproblematik in den Griff zu bekommen ist:
http://www.anandtech.com/show/2937/9
Hmm, ich dachte, damit (Doppelten Vias) hätte man Yieldprobleme in den Griff bekommen,
mit starken Leckströmen, erhöhtem Verbrauch und damit verbundener Wärmeentwicklung hat das doch afaik nichts zu tun, oder irre ich?
Gruß
Raubwanze
Complication
Banned
- Registriert
- Okt. 2009
- Beiträge
- 4.277
Das hängt ja unmittelbar zusammen - durch die doppelten vias hat man weniger Stromprobleme und Leckströme - dadurch sind die Yields um einiges höher.
Die Yield Probleme resultieren ja auch teilweise in der Stromproblematik, da schon wenige Fehler ausreichen um den Chip völlig unbrauchbar zu machen.
Durch die Redundanzen
Es ist auch ein Problem, dass die vias mit der Zeit einfach den Geist aufgeben je heisser und je höher die Spannung angelegt werden muss um ein sauberes Signal zu bekommen. Das wusste Nvidia aber auch schon im Juli 2009 - nur haben sie damals geglaubt TSMC bekommt das gebacken:
http://www.semiconductor.net/article/438968-Nvidia_s_Chen_Calls_for_Zero_Via_Defects-full.php
http://www.hardware-infos.com/news.php?news=3499
Die Yield Probleme resultieren ja auch teilweise in der Stromproblematik, da schon wenige Fehler ausreichen um den Chip völlig unbrauchbar zu machen.
Durch die Redundanzen
Und bei Signalverlust muss die Spannung erhöht werden, was wiederum zu noch höheren Leckströmen führt.Even if the vias wouldn’t fail completely, the quality of the via would degrade the signal going through the via.
Es ist auch ein Problem, dass die vias mit der Zeit einfach den Geist aufgeben je heisser und je höher die Spannung angelegt werden muss um ein sauberes Signal zu bekommen. Das wusste Nvidia aber auch schon im Juli 2009 - nur haben sie damals geglaubt TSMC bekommt das gebacken:
http://www.semiconductor.net/article/438968-Nvidia_s_Chen_Calls_for_Zero_Via_Defects-full.php
Nur diese zero-defects bei den vias in der 40nm Fertigung die in 07/2009 noch absolut notwendig war, laut Nvidia haben sie nicht bekommen - daher ist auch die Garantie der Fermi-Karten auf 1 Jahr reduziert worden.Nvidia needs zero defects from its foundry partners, particularly in the vias on its leading-edge graphics processors, said John Chen, vice president of technology and foundry operations at the GPU powerhouse. With 3.2 billion transistors on its 40 nm graphics processor now coming on the market, the 7.2 billion vias have become a source of problems that the industry must learn to deal with, Chen said in a keynote speech at IEDM.
http://www.hardware-infos.com/news.php?news=3499
Hierzu ist anzumerken, dass es für keinen Chip gesund sein kann, wenn er unter Last an der 100 Grad Celsius-Marke kratzt. Dies musste Nvidia sich auch mehr oder weniger selbst eingestehen beziehungsweise hat wohl nicht umsonst die Garantiezeit auf 12 Monate beschränkt, was Boardpartner wie XFX offenbar unter anderem Anlass gegeben hat, Nvidia vorerst den Rücken zu kehren.
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
So schauts aus, vorallem seit die Hersteller die Namen der Dualkarten verschleiern wollen, weil sich die Nachteile langsam aber sicher rumsprechen, wieder mal die Schuld von NV die mit der GTX 295 angefangen haben, ATI musste dann mit HD 5970 notgedrungen nachziehen, wobei die genauso damit ein Verarsche am Kunden betreiben. Löblicherweise haben wir da noch PCGH die solche Karten knallhart abstrafen und in eine extra Ecke stellt: http://www.pcgameshardware.de/aid,7...1-Techdemos-von-AMD/Grafikkarte/Test/?page=17Haben doch schon genug hier gehabt die sic ne 5970 geholt haben und sich wunderten warum die Games scheiße laufen (µRuckler inc)..
Von einer HD 5850 auf eine GTX 470 downgraden, sonst gehts dir schon noch gut oder? Hier meine Liste sogar mit Update mit den Problemen der neuen Architektur:bin echt am überlegen mir die gtx470 zu holen,obwohl ich mit meiner 5850 oc zufrieden bin.die tess leistung beeindruckt ganz schön
http://www.pcgameshardware.de/aid,7...-Fuellraten-Raetsel-geloest/Grafikkarte/Test/
https://www.computerbase.de/forum/t...der-grosse-bruder.723138/page-13#post-7680851
Wird aber echt mal Zeit das eine HD 5870 2GB OC + neuer Catalyst in Metro mit den Fermis aufräumt, ich kanns nicht mehr hören...
Zuletzt bearbeitet:
V
versus10000
Gast
Behalte meine 5850 OC.
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
Nano-kun schrieb:dein system hat 2 grafikkarten und einen übertakteten phenom. du guckst sicher nicht auf die leistungsaufnahme
Geht es denn um mich, oder um speziell mein System?
Das tut nichts zur Sache, ich habe eben ein Hobby, dasich mir leiste. Nie im Leben würde ich allerdings eine GTX470 oder GTX480 verbauen, weil ich High End auch mit weniger Stromverbrauch bekomme.
Es geht nicht um jemandem speziell, das war in dem Wortlaut weiter oben glaube ich auch zu verstehen.
Ähnliche Themen
- Antworten
- 377
- Aufrufe
- 76.047
- Antworten
- 2.740
- Aufrufe
- 316.330
- Antworten
- 243
- Aufrufe
- 69.458
- Antworten
- 447
- Aufrufe
- 90.201