News Nvidia GeForce GTX 280 im Idle bei 25 Watt

mich würd mal interessieren, wieviele Versionen es jetzt schon von diesem Bildchen gibt. Ich glaub, das da oben ist aber das erste ohne Sig. *g*

Morgen gibts das Bild dann nochmal als News :D
 
Sollte das annähernd stimmen muß ATI ja die Preise wieder flach halten...was solls`davon profitieren alle die ATI kaufen wollen..
 
Wie so Mancher hier abgeht...
Ich persönlich finde es etwas komisch - zuerst wird ofiziell behauptet dass es keine Stromsparfunktion eingebaut wird. Nachdem sich jeder 2. beschwert hat, taucht ganz plötzlich eine Seite, aus einer längst bekannten Präsentation, auf die niemand kennt und die sehr abenteuerliche Angaben beinhaltet. Vor Allem weil der Verbrauch von der 9800GTX in mehreren Tests(auch von der CB) nicht mit denen auf der Folie überein stimmt. Stempelt mich ruhig als Verschwörungstheoretiker ab aber wer so blauäugig den Zahlen auf einer Marketingpräsentation vertraut ist selber schuld. Ich könnte letzendlich auch so eine Tabelle anfertigen und dann minus 100 Watt Verbrauch angeben - Papier(PowerPoint) ist bekanntermaßen geduldig...
 
Wenn die Werte so grob stimmen (vll muss man ja wie im Falle der 9800 GTX unter Last noch knapp 30W addieren), dann hat nVidia seine Hausaufgaben sehr gut gemacht.

So ein Monsterchip schreit ja im Idle quasi nach einem Stromsparmodus. :D
 
Hey Leute wieso so nen Wirbel drum? Glaubt ihr echt das könnte Stimmen? Naja denke ich nicht. Nur wenn es STimmen sollte dann hat ATI ein echtes Problem. Aber bei NVidia ist der Preis immer noch ziemlich paranormal. 500€ Für ne Grafikkarte:freak:


Mfg Kivi
 
ATI hat mir eben ihre Version von dem Bild geschickt.. :D

nvidianonfakezx4ur7.jpg


sieht doch ganz gut aus jetzt :lol:
 
also so ganz glaub ich das nicht mit dem verbrauch. wie einige schon gesagt haben, sind die werte der 9800gtx ja schon n gutes stück neben den unabhängigen messungen. der "niedrige" verbrauch der gtx280 im 3d-mark 06 ist auch damit zu erklären, dass es z zt noch keine ausreichend schnelle cpu gibt um so eine monster gpu mit ausreichend daten zu versorgen, also die gtx280 noch gar nicht volllast lief. ich würde mich jedenfalls nicht darauf verlassen, dass die mit 147 watt unter volllast auskommt...

aber sehr erfreulich, dass nv auch endlich auf stromsparmechanismen baut. das macht mir die gtx280 gleich ein stück sympatischer ;)

und weil hier immernoch einige wegen dem preis von 500,- € meckern: wie war denn der einstiegspreis von 8800gtx/Ultra, 7900gtx, 7800gtx (512), 1900xtx, 1800xt, x850xt pe, 6800ultra...? 500+ ist ein normaler einstiegspreis für eine highendkarte. wir sind nur durch den aktuellen konkurenzkampf ein sehr niedriges preisniveau gewöhnt. aber die gtx280 steht ja erstmal nicht in direkter konkurrenz...
 
Zuletzt bearbeitet:
@Red_X

*Rofl*
der war gut ,aber so ungefähr kann man sich das bei dem Jeweiligen Propaganda Abteilung von Ati & Nv vorstellen :lol:

Da wird etwas mit Excel gespielt und das wars dann:rolleyes:

auf der nächsten folie steht dann das die Karte keinen Strom Verbraucht sondern im Idle sogar Strom erzeugt, das währ mal ein Feature:D
 
Zuletzt bearbeitet:
Wenn das stimmt is die ATI für mich Geschichte, GTX 280 ich komme !
 
Wenn die Zahlen stimmen, das wäre ja ein Knaller! Da warte ich doch mal gespannt auf die Tests ab.

Schade allerdings wieder für AMD, es sieht ja so aus, alsob sie langsam wieder Fahrt aufnehmen, da wäre so ein Dämpfer natürlich sehr schmerzlich.
 
Dudasolid schrieb:
Warum sind die ATI Balken alle gleichlang? Kann ich mir ned vorstellen, dass die 3870X2 bei Fear genauso arbeitet wie bei dem deutlich aufwendigeren UT3.


Nein das tut sie auch nicht, die X2 wird immer nur als Maßstab genommen

d.h. Die X2 erreicht bei UT3 den Wert 1 (weil sie ja als Maßstab genommen wird) und die GTX 280 erreicht den Wert 1.6 was in etwa bedeutet das die Karte in UT rund 60% schneller sein soll

usw
 
Dudasolid schrieb:
Warum sind die ATI Balken alle gleichlang? Kann ich mir ned vorstellen, dass die 3870X2 bei Fear genauso arbeitet wie bei dem deutlich aufwendigeren UT3.

Die Ati Karte wurde als Referenzwert (100%) genommen...



Wenn ich diesen Thread so lese, verfehlt die absolut-nicht-lineare Darstellung im Diagramm ja ihre Wirkung keinesfalls, traurig eigentlich :freak: vlt. hat jemand von CB ja Zeit mal ein eindeutigeres zu basteln... :mussweg:
 
Zuletzt bearbeitet:
1 wurde das schon hier erwähnt das die X2 der Refernz wert ist
2 hat jemand schon die Diagramme so verändert das diese beo null und nicht bei 0,8 anfangen !

würdet ihr die vorherigen Beträge lesen würde hier nicht 100 mal das gleiche stehen :rolleyes:


BessenOlli schrieb:
Ich habe die Grafik mal zur besseren Vergleichbarkeit angepasst:

nvidianonfakezx3.jpg


:king:
 
Zuletzt bearbeitet:
Also Volllast wie in der NEws steht, kann 3D Mark 06 nichtmal ansatzweise sein. Man sollte mal einen Vergleich hiermit ziehen: https://www.computerbase.de/2008-05/test-nvidia-geforce-9600-gso/25/#abschnitt_leistungsaufnahme

Dort zieht die 9800 GTX mehr als 170 Watt aus der Steckdose unter echter Volllast. Demzufolge kommt man mit einer 280 locker auf seie 240 Watt Maximallast. Aber lustig, wie hier gleich alle drauf reinfallen und schon das Rätzelraten nach Netzteilen losgeht. Richtet euch da nicht nach den Werbegag Angaben, sonst kann man nebst GPU gleich immer noch nen 500+ Watt Netzteil dazu kaufen.

In Sachen Peinlichkeit hat sich nVidia da mal wieder selbst übertroffen. Traurig ist nur, daß es genug glauben. Ebenso ist die Überschrift der News auch lächerlich. Ich kritisiere mal wieder die Seriösität, die man an den Tag legen sollte. Ein Fragezeichen dahinter oder ein "Laut nVidia" hätte das bei weitem treffender formuliert. Wenn ihr selber diese Messwerte gemessen habt, kann man den Titel derart nennen, aber sicher nicht so.
 
Zuletzt bearbeitet:
Also schauen wir uns doch zunächst mal die bekannten Testwerte an (CB Tests, Stromaufnahme komplettes System):

idle:
9800GTX - 165W
HD 3650 - 130W

last:
9800GTX - 293W
8600GT - 195W

Wir haben also gegenüber der jeweils sparsamsten getesteten Graka einen Mehrverbrauch von 35W im idle und 98W unter last der Verbrauch der 9800GTX entspricht also diesem Mehrverbrauch + dem verbrauch der schwächeren vergleichsgraka.

Und nun behauptet Nvidia dass die 9800GTX idle 45W und unter last 80W benötigt, was angesichts obiger werte nichtmal annähernd stimmen kann sondern eher der hälfte des realen wertes entsprechen dürfte.

Wenn man bei der 9800GTX also schon solche völlig unrealistsichen Wunschwerte angibt, dann wissen wir ja was wir von den Werten für die GT200 Karten halten können.
 
BessenOlli schrieb:
Ich habe die Grafik mal zur besseren Vergleichbarkeit angepasst:

[altes Bild]

:king:

hab deine version mal quick and dirty hochgezogen, so kann mans besser erkennen :stacheln:

 
@Tommy: könnt ihr die berichtigte grafik von digitalangel18 in euren artilkel als update einbauen? leider lassen sich sehr viele durch die abgeschnittene grafik von nv täuschen...

ps: xp_home hat diese grafik gefunden: http://www.hardware-infos.com/img/startseite/gt200_folie_benchmark.jpg
damit hättet ihr ne offizielle quelle für die grafik, wenn euch das lieber ist...
 
Zuletzt bearbeitet:
eine 9800GTX 45W im Idle und 80W unter Last?
Deren Strommessgeräte möchte ich gerne einmal sehen.

Naja, Nvidia meinte ja auch anfangs der Lüfter der FX 5800Ultra sei nicht zu laut :lol:
 
Tinpoint schrieb:
auf der nächsten folie steht dann das die Karte keinen Strom Verbraucht sondern im Idle sogar Strom erzeugt, das währ mal ein Feature:D

Gerechterweise müßte ComputerBase diese News aber jetzt für ATI bringen, damit beide Seiten glaubwürdig dargestellt worden sind.
 
Zurück
Oben