News Nvidia GeForce GTX 280 im Idle bei 25 Watt

gruffi schrieb:
Wie wäre es, wenn du mal nachdenkst, bevor du postest. ;) Ob die Karte tatsächlich 0W braucht, sei mal dahingestellt. Ich denke, sie wird trotzdem noch ein paar Watt "Standby" ziehen. Dazu kommt dann noch der integrierte Grafikchip, der ja auch noch was braucht.


Hast du dir die entsprechenden Zahlen überhaupt mal angeschaut? Da ist gar nichts bezogen auf "das GESAMTE System". Nochmal für dich ausführlich:

Idle (Gesamtsystem):
9800 GTX = 165W
HD 3650 = 130W

Das gesamte System mit der sparsamsten Karte braucht also 130W. Die Karte selbst wird vermutlich 10W brauchen. Das System mit der 9800 GTX braucht 35W mehr, macht also insgesamt 45W Idle für die Karte allein. Unter Last (293W) kommen bei der 9800 GTX 128W hinzu (293-165). Macht also insgesamt 173W (45+128) Leistungsaufnahme unter Last für die Karte ALLEINE.

Hybrid-SLI schaltet die komplette Karte ab, sodass sie 0W verbraucht. Der Onboard Chip verrbaucht aber nur minimal was. Die Rede ist aber vom GT200 selber, dass dieser 25W im Idle verbraucht.

Und doch, da stehts sogar in rot und fett: "Gemessen wird die Gesamt-Leistungsaufnahme des Testsystems". Okay, hab mich jetzt mit den 80W vertan. Ich meinte die Idle Angaben bei der 9800GTX. Aber auch die 80W werden zum Gesamtsystem bei Last passen. Allerdings muss man auch noch die Verlustleistung des eigenen Netzteils mit in die Berechnung einfließen lassen.
 
gruffi schrieb:
Natürlich stimmt das nicht ganz, weil die Belastung von anderen Komponenten ebenfalls mit einberechnet werden muss, wie zB CPU. Trotzdem sind 80W bei der 9800GTX unrealistisch, genauso wie 147W bei der GTX 280.

Eben und das ist nicht gerade unerheblich, kommt jetzt natürlich auf die CPU an mit der getestet wurde aber z.B. ein Q6600 mit B2 Stepping hat ja auch ne satte TDP von 130W + Chipsatz der auch unter Last mehr zieht.

Ich finde es geht hier auch nicht um den exakten Wert des Verbrauchs sonder um das Verhältnis der Effizien beider Karten zueinander. Da sagt die Aswertung schonmal das die GTX 280 im Idle weniger und unter Last viel mehr als die 9800GTX verbraucht. Das reicht doch als Anhaltspunkt. Meine 8800GTX zieht im Idle ja noch wesentlich mehr als die 9800GTX insofern ist es für diese Monsterkarte auf jeden Fall ein ausschlaggebendes Feature.
 
holdrio schrieb:
Du sagst es, "hatten" und "vor paar jahren", vielleicht kommen die "Vorurteile" einfach nur von den nackten Leistungdaten seither? ;)
Ati ist seit der X1950XTX schlicht zu lahm, sonst nix.

Ansichtsache. man könnte genau so sagen,dass die X2 schneller war,als Nvidias Jahrhundertchip,und noch mit einer GX2 in deren Einstellungen mithalten konnte.

Und mit der erfreulichen Meldung hier siehts daneben auch noch düster aus, das kann doch unmöglich ein Fake sein.
Nvidia würde sich total lächerlich machen, wenn sie dann doch den eben noch befürchteten Hardcorestromfresser ausliefern.

Tjs Nvidia konkurrenzlos auf dem Gipfel auch weiterhin, auf grössere Preissenkungen der 280 braucht man dann gar nicht erst hoffen bis Ende 09..., 8800GTX lässt grüssen.:freak:

Ansichtsache. man könnte genau so sagen,dass die X2 schneller war,als Nvidias Jahrhundertchip,und noch mit einer GX2 in deren Einstellungen mithalten konnte. Lass uns auf die neue X2 warten, und guck mal,wie viel profit Nvidia mit einer GTX macht^^.

Orbmu2k schrieb:
Ja und ATI wird natürlich mit der 4870 durchweg konstant 65% mehr haben als die 3870.
Also das hätte man sich in der Grafik sparen können.

Edit: Ausserdem stehen da zwei NV Single Core gegen 2 ATI "Dual Core" im Rennen ... das lässt sich alles nicht vergleichen.

Warten wir bis zum 18.6. wenn CB einen ausführlichen Test der neuen Karten veröffentlicht...

ja und, eine grafikkarte ist eine grafikkarte. Wenn die leistung stimmt ist es egal. Sicherlich wird die neue X2 auch ncoh günstiger als die GTX,wieso also nicht vergleichen? nehmen wir an,du hast 650euro für ne graka, dann vergleichst du die beiden Spitzenmodelle, entweder 650euro und mom max leistung, oder 500euro und nur im Schnitt 10% weniger...da vergleicht man die doch auch?

Unyu schrieb:
Doch gerade.
GTX 260 und GTX 280 liegen oft zu dicht beieinander und bei Call of Juarez hat nicht mal der ganze Balken ins Bild gepasst, so lang ist er.
-> Die Balken zeigen nicht die maximale Power der GTX 280.

Jo klar, nehm die Leistung mal 2, mit 25watt im idle und 147watt load.. schwachsinn

val9000 schrieb:
Also so langsam werden die Grafiken immer lächerlicher...
und wenn ich die Kommentare hier lese... da glauben wirklich 95% der Leute, dass an der Grafik wahrheit dran ist... wenn ich eins gelernt habe, dann ist es, dass man nie einer Grafik vom Hersteller selbst glauben darf...

ATi macht nVidia in ihren Grafiken schlecht und nVidia macht die ATi in den Grafiken schlecht...
und alle Fanboys je nach Hersteller schreien auf wie toll die Grafikkarte doch ist und sobald die Grafikkarte rauskommt heulen alle rum, weil die grafikkarte ja doch 200% mehr strom frist als auf den Grafiken...

das erinnert mich an eine Simpsons-folge in der Bart mit einem Hamster verglichen wird... und Bart ist letztendlich dümmer, weil er nicht aus seinen fehlern lernt... und es ist ein fehler einer Statistik von nVidia und ATi persönlich zu glauben...wartet am besten auf die japaner und koreaner...deren statistiken sind glaubwürdiger...


genau so ist es..


gruß
 
Mal angenommen es stimmt, dann frag ich mich wie niedrig der Verbrauch der RV770'er sein wird...ich meine ATI pennt ja nicht, und Erfahrung hat ATI meiner Meinung nach in Stromspartechniken auch mehr.
 
LOL ! Wie doch die Leute in den letzten Tagen rumgehäult haben "so viel Stromverbrauch" usw... ;)
Ist dass jetzt eigentlich in der KARTE integriert oder geht dass mit Hybrid-Power vom Chipsatz aus ? Dass wäre interessant.
Wie auch immer.
Wenn die Leistung stimmt ist der Preis (der ja eh sinken wird...) auch gerechtfertigt sein.

Abwarten und Tee trinken. Noch 2 Wochen, dann sind wir schlauer.

Freu mich schon auf ausführliche Tests von CB ;)

PS: insgeheim hoff ich noch, dass DX10.1 als "Überraschungsei" noch zu der Stromspartechnik hier hinzugefügt wird. Dann wirds ATI an den kragen gehen :king: nene spass bei seite :D
 
Orbmu2k schrieb:
Eben und das ist nicht gerade unerheblich, kommt jetzt natürlich auf die CPU an mit der getestet wurde aber z.B. ein Q6600 mit B2 Stepping hat ja auch ne satte TDP von 130W + Chipsatz der auch unter Last mehr zieht.

NoD.sunrise schrieb:
last:
9800GTX - 293W
8600GT - 195W

Wir haben also gegenüber der jeweils sparsamsten getesteten Graka einen Mehrverbrauch von 35W im idle und 98W unter last der Verbrauch der 9800GTX entspricht also diesem Mehrverbrauch + dem verbrauch der schwächeren vergleichsgraka.

Und nun behauptet Nvidia dass die 9800GTX idle 45W und unter last 80W benötigt, was angesichts obiger werte nichtmal annähernd stimmen kann sondern eher der hälfte des realen wertes entsprechen dürfte.

Wenn man bei der 9800GTX also schon solche völlig unrealistsichen Wunschwerte angibt, dann wissen wir ja was wir von den Werten für die GT200 Karten halten können.

Die werte der 9800GTX stimmen unter Last nichtmal annähernd.
 
Na, das nenn ich mal tolle Statistik...
Die y-Werte fangen da ja bei 0,8 an! Entweder haben die von nVidia dumme Leute, die diese Statistiken machen, oder der Leser soll damit getäuscht werden.
Ich würde jetzt aber mal ganz dreist auf den zweiten Punkt tippen...
 
michi12 schrieb:
PS: insgeheim hoff ich noch, dass DX10.1 als "Überraschungsei" noch zu der Stromspartechnik hier hinzugefügt wird.

Eher nicht...
GTX280.jpg
 
NoD.sunrise schrieb:
Und nun behauptet Nvidia dass die 9800GTX idle 45W und unter last 80W benötigt
9800gtx_power.gif


Achtung das sind Peakwerte, Nvidia hat Durchschnittswerte angegeben und 3DMark06 ist eh CPU limitiert.

Vendetta schrieb:
Die Single Core Karte ist nur marginal schneller
Nö.
Wenn du das CPU Limit nicht siehst tust du mir leid.
Außerdem 2x -3x fache Leistung eines Doppelten RV670 ist mies?

Das kannst du einfach nicht ernst meinen.
Nach den Balken hier hat die 4870 X2, die erst in ferner Zukunft liegt mit all den CF Problemen absolut keine Chance mitzuhalten, besonders weil das hier nicht die Maximalwerte sind.
 
nWarrior schrieb:
Hybrid-SLI schaltet die komplette Karte ab, sodass sie 0W verbraucht.
Dann zeig mir einen Test, der das belegen kann. nVidias Marketing Abteilung kann mir viel erzählen. Glauben muss ich das noch lange nicht.

nWarrior schrieb:
Der Onboard Chip verrbaucht aber nur minimal was. Die Rede ist aber vom GT200 selber, dass dieser 25W im Idle verbraucht.
Ich will mich nicht darüber streiten, ob Hybrid SLI oder nicht. Kann ja jeder sehen, wie er das für richtig hält. Entweder sind die 25W geschönt oder der Wert wurde in Verbindung mit Hybrid SLI ermittelt. Das erscheint MIR bisher zumindest am plausibelsten.

Unyu schrieb:
Wenn du das CPU Limit nicht siehst tust du mir leid.
Außerdem 2x -3x fache Leistung eines Doppelten RV670 ist mies?
Ok, dass du sehr nVidia affin bist, hat wohl mittlerweile jeder mitbekommen. Kannst du ja machen, wie du lustig bist. Aber deine Objektivität leidet darunter doch sehr stark. Wo du 2- bis 3-fache Leistung siehst, ist mir zB schleierhaft. Die Balken zeigen einen Unterschied von Faktor 1,3 bis 2,5. Wenn man noch beachtet, dass es sich um eine nVidia Statistik und unbestätigte Zahlen eines "Freaks" handelt, Catalyst 8.3 verwendet wurde und CF Skalierung nicht immer optimal ist, bleibt da nicht viel übrig. Selbst gegenüber einer 4870. Und wie im Vorfeld schon abzusehen war, die GTX 280 wird sich leistungstechnisch wohl hinter der 4870 X2 einordnen.
 
Zuletzt bearbeitet:
kannst stark davon ausgehen, das die 25Watt mit Hybrid gemacht wurden, die würden sonst ja ihren eingenen Chipsatzmarkt abschneiden.
Die Mainboardchips bieten ausser SLI kein Feature, was die AMD/ATI oder Intelchips nicht können.
Dann Verbrauchen sie im Schnitt auch mal gleich 10Watt mehr Strom
Und wandeln den bloss in Wärme weil mehr Leistung hat man mit den NV Chips auch nicht und wenn nur Messungenauigkeitsbereich.

Die 147Watt sind wahrscheinlich nur schöngerechnette Schnitte aus einem kompletten 3D06 oder Vantage-Run, incl Cpu-test etc. Wo die Graka dann idled.

Beim R600 wurde auch gesagt das die TDP bei 250Watt liegt, tat sie dann auch. Wird beim GT200 nicht anders sein, wer glaubt, das die TDP umsonst 100W höher angesetzt ist, hat sie nicht mehr alle. Mit jedem Watt mehr TDP steigt der Preis der Karte, den der Endkunde/OEM tragen muss. Und die OEM sparen nur allzu gerne.
Wie soll man auch einen GT200-Grafikkarte in ein Aldigehäuse kriegen, ohne das es im Sommer anfängt nach verschmorten Kabeln zu riechen. Und dann soll man dem Kunden noch erklären, das der neue Aldi-Rechner gleich mal 400€ mehr kostet als der Vorherige und dabei noch 150W mehr aus der Steckdose zieht?

Sind alles keine guten Verkaufs argumente.


NV hat mit dem GT200 am Markt vorbei entwickelt. Die 1% Enthusiast-Gamer die sich solch ein Monster dann auch wirklich holen, bringen denen kein Geld ein. Ne HD38xx zu verramschen bringt Ati aber auch kein Geld ein. ABER eine auf Den Markt zugeschnittene Karte, wie die HD4xxx-Serie, welche ausreichende Leistung auch für Crysis und jedes andere Spiel hat wird zu dem spekulativen Preis von 350€ gut verkauft werden, wenn die kleineren Ableger noch was von der Leistung mitbringen.

Zu guter Letzt ist die Produktion der Chips für Ati auch noch günstiger als für NV mit ihren beinahe 500mm², was zusätzlich noch ins Gewicht fällt.


Mit der HD4k-Siere scheint Ati deutlich besser aufgestellt zu sein, auch wenn die HD4870 auch nur einer 98GX2 das wasser reichen kann(bei weniger Stromverbrauch und geringer PCB-Größe), als NV mit Doppelter Leistung der 98GX2 bei 3-4fachem Preis (und doppeltem Stromverbrauch und [beinahe]gleicher PCB-Größe)
 
Zuletzt bearbeitet:
gruffi schrieb:
Dann zeig mir einen Test, der das belegen kann. nVidias Marketing Abteilung kann mir viel erzählen. Glauben muss ich das noch lange nicht.


Ich will mich nicht darüber streiten, ob Hybrid SLI oder nicht. Kann ja jeder sehen, wie er das für richtig hält. Entweder sind die 25W geschönt oder der Wert wurde in Verbindung mit Hybrid SLI ermittelt. Das erscheint MIR bisher zumindest am plausibelsten.

Ob du was glaubst oder nicht glaubst, ist schon dein Problem! Ich werd nicht jede noch so kleine Einzelheit nachweisen, um damit unendlich lange Diskussionen zu entfachen. Dafür fehlt mir einfach die Zeit.

Warts einfach ab und freu dich, dass auch Nvidia Karte sowas beherrschen könnten. Oder bist du etwa ein ATI Fanboy, die nicht WOLLEN, dass Nvidia sowas anbietet? Habe ich heute auch schon oft gehört, wo gesagt wird, dass man unbedingt verhindern muss, dass Nvidia sowas auch hat. Klingt schon nach brutalst eingefleischten ATi Fanboys.
 
gruffi schrieb:
Dann zeig mir einen Test
http://www.legitreviews.com/article/708/5/
"Our power consumption testing showed that NVIDIA HybridPower technology is no joke! We were able to reduce our idle power by 55W, which is a 41% power reduction. In Performance Boost mode the system started off at 129W and then after four minutes changed over to Save Power mode and got down to 78W. A quick bump of the mouse and the system would change profile settings and the video card would power back on. One thing we did notice is that even though NVIDIA states the video card is fully turned off in Save Power mode, we did notice slightly higher power usage than when one was not installed into the system. It's likely that just having the pair of 6-pin PCIe power connectors installed and the card in the system that it is consuming three Watts."


-> Mit Hybrid Power wird AMD zum Stromverschwender #1 im Idle

-> Ohne Hybrid Power sind 25W nicht so weit hergeholt, siehe 45W der 9800GTX
 
Zuletzt bearbeitet:
xp_home schrieb:
...Dann hätte man auch ein "normales" Diagramm, dass man in die News einfügen könnte: http://www.hardware-infos.com/img/startseite/gt200_folie_benchmark.jpg

So wie es sein sollte. Fängt mit 0 Prozent an.
Vielen Dank xp_home. Diese Grafik ist wirklich deutlich besser als die ursprüngliche.

Interessant finde ich dennoch die Werteangabe bzw. die fehlenden Eckdaten: Welche Auflösung? Mit oder ohne AA? DirectX9 oder 10? Welche Treiber wurden genutzt? Wenn ich mich richtig erinnere, wurde z.B. Call of Juarez am Anfang noch nicht richtig von Crossfire unterstützt. Daher macht es schon einen Unterschied ob ein Treiber verwendet wurde, bei dem die Effizienz bei 40% oder sogar 60% liegt. Hier werden einfach ein paar Werte in den Raum geworfen, ohne irgendwelche Angaben, so dass eigentlich nur eine Erkenntnis übrigbleibt: Die neuen GTX sind schneller als die alte X2 - diese Erkenntnis dürfte aber für die wenigsten "neu" sein.

@computerbase
Es wäre vielleicht doch besser die zweite Grafik ein wenig zu kommentieren. So wird nur dazu beigetragen falsche Vorstellungen weiterzugeben. Zu viele sehen einfach die Grafik ohne sich genauer mit deren Inhalt respektive Aussagekraft auseinanderzusetzen. Dadurch wird lediglich die falsche Propaganda weitergetragen, was die Konkurrenz zu ebensolchen Maßnahmen greifen lässt. Schlussendlich wird der Informationsgehalt endgültig auf der Strecke bleiben.
 
Unyu schrieb:
http://www.legitreviews.com/article/708/5/
"Our power consumption testing showed that NVIDIA HybridPower technology is no joke! We were able to reduce our idle power by 55W, which is a 41% power reduction. In Performance Boost mode the system started off at 129W and then after four minutes changed over to Save Power mode and got down to 78W. A quick bump of the mouse and the system would change profile settings and the video card would power back on. One thing we did notice is that even though NVIDIA states the video card is fully turned off in Save Power mode, we did notice slightly higher power usage than when one was not installed into the system. It's likely that just having the pair of 6-pin PCIe power connectors installed and the card in the system that it is consuming three Watts."


-> Mit Hybrid Power wird AMD zum Stromverschwender #1 im Idle

-> Ohne Hybrid Power sind 25W nicht so weit hergeholt, siehe 45W der 9800GTX

Danke @Unyu :)
 
michi12 schrieb:
LOL ! Wie doch die Leute in den letzten Tagen rumgehäult haben "so viel Stromverbrauch" usw...
Ist dass jetzt eigentlich in der KARTE integriert oder geht dass mit Hybrid-Power vom Chipsatz aus ? Dass wäre interessant.
Wie auch immer.
Wenn die Leistung stimmt ist der Preis (der ja eh sinken wird...) auch gerechtfertigt sein.

Abwarten und Tee trinken. Noch 2 Wochen, dann sind wir schlauer.

Freu mich schon auf ausführliche Tests von CB

(...)

Sehe ich 100% genau so ^-^
 
nebenbei sind die 80w nur im 3dmark und nicht unter 100% vollast!


hier mal ein gefixtes bild!
gtx200seriesperformanceiy4.jpg

treiber war der 177 force ware und der 8.3 catalyst in der 2560X1900er auflösung
 
Hybrid Power ist eine gute Technik um Strom zu sparen. Es ist sogar die bessere, weil die Graka komplett abgeschaltet wird, bis auf einen Chip, der für die Reaktivierung zuständig ist. Sprich, weniger als 1Watt verbrauch der Karte selbst.

Aber:
-man braucht ein NV-Board, wie gesagt im Schnitt 10Watt mehr Stromverbrauch als Konkurenz.
-man kann HybridPower ausschließlich unter Vista nutzen, wegen der Ebene, in der der Treiber läuft. Es kann nich unter WinXP funktionieren.
-Es gibt derzeit noch Probleme mit dem Switchen aufm dem Desktop. Es gibt kein automatisches Ein und Ausschalten der Graka.


Solang diese Mängel nicht beseitigt sind, finde ich Haybrid Power nicht gut. Eine stromsparende Grafikkarte sollte auch dann wenig Strom verbrauchen wenn ich sie in einen anderen Rechner baue, und nicht nur, wenn ich BS und Mainboard wechsele.


BTW: gibt es eigentlich schon Chips für Intel die Hybrid Power erlauben?
 
Zuletzt bearbeitet:
@nWarrior
Wie du siehst, ist deine Aussage eben falsch gewesen. Mit Hybrid SLI braucht die dedizierte Grafik keine 0W.

Peilo schrieb:
Hybrid Power ist eine gute Technik um Strom zu sparen. Es ist sogar die bessere, weil die Graka komplett abgeschaltet wird, bis auf einen Chip, der für die Reaktivierung zuständig ist.
Nicht besser. Die Technik setzt nur einfach an anderer Stelle an. Man kann ja nicht davon ausgehen, dass jedes Board mit einer integrierten Grafikeinheit ausgestattet wird. Vielleicht ist dies ein Thema für die Zukunft, momentan sind wir aber noch weit entfernt. Daher halte ich einen niedrigen Idle Verbrauch momentan auch für sinnvoller. Mit 10W gegenüber 45W oder 25W lässt sich immer noch mehr Strom sparen als man mit 10W gegenüber 3W (Hybrid Power) mehr braucht.
 
Zuletzt bearbeitet:
Zurück
Oben