Schinzie schrieb:
wo haste denn das märchen her? wenn du die 4870 optimierst frisst sie nur enige watt mehr wie eine 3870. das gleiche gilt für die X2. eine GTX280X2 würde 100% noch mehr verbrauchen.
Die 4870X2 hat im Idle 206W; eine GTX280 158W. Wenn man mal davon ausgeht, dass eine 8800GTX etwa 90W idle frisst (was in etwa hinkommt), bedeutet das 102W für den Rest des Systems.
Eine 4870X2 würde demnach 104W idle verbrauchen eine GTX280 56W;
Zwei GTX280 lägen demnach bei 112W
Durch den gemeinsamen Speicher, weitere gemeinsame Teile und die Vorteile eines einzigen Boards würde auf jeden Fall mehr als 8W einsparen können und somit würde eine GTX280X2 unter einer 4870X2 liegen.
Schinzie schrieb:
außerdem, wenn du schon so energetisch bewand bist, wie willst du mehr leistung mit weniger leistungsaufnahme bewerkstelligen?
Ich habe nicht geschrieben, dass ich das möchte.
Schinzie schrieb:
dass die idle leistung bei allen aktuellen Grakas zu hoch ist,ist allen bekannt. aber gemessen an der rausgekommenen Leistung ist die idle leistungsaufnahme einer X2 auch nicht deutlich höher als die einer GTX280, vor allem,da man bei der X2 noch mit ein paar tricks sicherlihc bis zu 80watt sparen kann.
Im idle-Modus liefern alle die gleiche Leistung (nämlich einen Desktop und nicht mehr). Und die GTX schafft das mit 56W, die 4870X2 braucht dazu 104W. "Mit ein paar Tricks"? Ich möchte mal sehen, wie Du den Stromverbrauch der X2 um 80W auf 24W bringst. Außerdem, wenn man schon mit Tricks arbeitet, müsste man das bei beiden Karten tun.
Schinzie schrieb:
und mit verlaub, ich glabue sowohl AMD als auch Nvidia haben bei ihren Entwicklern und Ingenieuren mehr Hirnzellen als du.
Das darfst Du gerne glauben. Die Ingenieure geben sich aber immer wieder alle Mühe das Gegenteil zu beweisen.
Schinzie schrieb:
Wenn du glaubst, Intel bringt etwas "stromsparenderes", dann gucke mal die news der letzten wochen án. Intel baut gar keine stromsparmechanismen, dh, der Larrabee wird bis zu 300watt im idle ziehn.
Lies meinen Beitrag bitte auch zu Ende. Mir ist sehr wohl bewusst, was Intel dort gesagt hat. Ich habe aber auch geschrieben, dass Intel erstmal Erfahrung sammeln muss. Intel dürfte mit den aktuellen CPUs (sowohl Desktop als auf Notebook) gezeigt haben, dass sie durchaus sehr fähige Stromsparmechanismen bauen können. Die idle-Leistungsaufnahme moderner Prozessoren (übrigens ja nicht nur bei Intel, sondern auch bei AMD) ist wirklich schon ziemlich gut.
Schinzie schrieb:
zudem funktioniert Powerplay sehr wohl, sonst wäre der Idle verbrauch nur unbedeutend geringer als der Lastverbrauch.
Ich habe nicht geschrieben, dass es gar nicht funktioniert, sondern dass es nicht gut funktioniert. Außerdem hat man zwischen Idle und Last auch dann einen Unterschied, wenn man keine Stromsparmechanismen integriert. Der wäre zwar wirklich deutlich geringer, aber von "gut funktionieren" und "Weiterentwicklung von PowerPlay" kann nicht wirklich die Rede sein.
Schinzie schrieb:
die Lautstärke wird in den meisten fällen gar nicht erst erreicht,das sind peak werte, war schon bei der 3870X2 so. eine 2400, bzw eine 3450 oder 8600gt verbrauchen deshalb so wenig,weil sie wenig leisten,und man bei Ihnen keine kompenenten ausschalten muss, bzw sie überhaupt gar keine extrem stromhungrigen komponenten haben, die verlustleistung bewerkstelligen konnten, somit kannst du das nicht vergleichen.
Die Lautstärke ist aber für mich z.B. das K.O. Kriterium Nummer 1 bei der Karte. Selbst wenn es Peak-Werte sind, so wird die Karte beim Spielen doch durchaus störend wirken; zumal ich nicht komplett unempfindlich bin. Die hohen Temperaturen lassen auch nicht mehr viel Spielraum für weniger rpm. Herstellereigene Lösungen (bessere/teurere Lüfter) etc. könnte da etwas helfen. Natürlich leisten 2400&Co weniger. Aber im Idle-Modus ja nicht. Dort leisten alle das gleiche, nämlich fast gar nichts. Und dann sollen sie auch wenig verbrauchen. 300W unter Last kann ich noch ertragen (solange das Ding nicht so laut wird).