News GeForce GTX 285 10% schneller als GTX 280?

"Somit wird auch Nvidia anstatt einen Acht-Pin- und einen Sechs-Pin-Stromanschluss nur noch zwei Sechs-Pin-Anschlüsse verbauen."

Die Neue hat gar keinen 8-Pin Anschluss mehr, also braucht ihr mit euren 6-Pin-Anschlüssen auch keine Adapter...
 
Katzenjoghurt schrieb:
Hmm... trotzdem immer noch 40 Watt mehr (unter Last) als bei meiner 8800GTS 512

CB hat beim Testsystem ja 360 Watt bei der GTX 280 gemessen. (GTX 285 dann wohl ~307 Watt)
265 Watt waren's bei der 8800 GTS 512.

Deine 8800GTS 512 war aber nie ne Graka für die Leistungskrone.
Wenn überhaupt müsste man die Ultra aus der 8er Gen. heranziehen.

Nvidia sollte mal was in Richtung HD4850 rausbringen.
Die steht ja mehr oder weniger für ihren Preis allein da. Abgesehen von der 9800GTX+,
die aber doch nochmal um 30 Euro teurer ist.. von der 9er Serie halte ich einfach nicht viel.
 
Viel wichtiger wäre die Frage: "Bekommt die GTX285 nun endlich einen, für die Ohren, erträglichen Kühler?" Der von der 280er ist ja unterallersau.
 
IgG schrieb:
Wenn der Verbrauch wirklich so gesunken ist dürfte es nicht bei den 10 % bleiben (für privates OC oder factory OC). Dann dürfte Crysis 1920x1200 VH mit einer SingleGPU möglich sein (bisher war die GTX280 da bei 21 FPS).

Klar, mit OC holst du nochmal locker 40% raus, wo wir dann ca. bei 30fps wären. :lol:
Von den Minimum-Frames mal abgesehen.
 
anstelle 10% mehr leistung sollten die neuen karten 10% kürzer sein, dann würde die auch in mein case passen ^^. so warte ich weiterhin auf eine leistungsstarke karte die nicht länger als meine alte 8800 GTS ist. da im mom aber eh nichts auf dem PC zu haben ist was ist zocken will begnüge ich mich weiter mit onbardgrafik ^^
 
Weiß eigentlich jemadn wann den ungefähr mit den Karten zu rechnen ist? Noch diese Jahr oder doch erst Anfang nächsten Jahres? Also wenn die Daten der neuen GTX285 stimmen finde ich die Karte nicht mal schlecht. Weniger Verbrauch dürfte sich auch auf weniger Lautstärke auswirken, hoffe ich mal. Aufjedenfall baut Nvidia somit seinen Vorsprung zu ATI wieder etwas aus, deshalb wahrscheinlich aber auch etwas teurer.

@ Killermuecke
Hm mal im Ernst wenn sie gleich teuer und eventuell gleich schnell wie die HD 4850X2 (weiß gerade nicht wo ich die einordnen muss) ist, was würdest du dir dann eher kaufen, Ein Singlechip der Leistung dauerhaft bringt, oder eher die Dualchip Variante bei der du auf Profile warten musst und dich mit den selten auftretenden MR rumplagen musst???
 
mehr leistung, weniger verbrauch und somit auch abwärme, was wiederrum zu einem leiseren kühlsystem führen würde (da geringere drehnzahlen)... klingt wirklich toll. allerdings sind das bis jetzt nichts weiter als gerüchte ;)
bin mal gespannt, wie viel von den 10% mehrleistung nachher wirklich noch übrig bleiben.^^
 
£oK1 schrieb:
Na klasse, ich musste mir extra ein neues Netzteil kaufen wegen des 8 Pin Anschlusses, da hätte ich doch mein schönes bequiet behalten können - grrr

Hättest du BeQuiet angeschrieben oder angerufen die hätten dir sicher nen Adapter geschickt ;)
Seasonic hat das bei mir zumindest gemacht, fand ich klasse. :lol:
 
Weiss schon jemand etwas neues über den Preis?:stacheln:
 
towa schrieb:
Hättest du BeQuiet angeschrieben oder angerufen die hätten dir sicher nen Adapter geschickt ;)
Seasonic hat das bei mir zumindest gemacht, fand ich klasse. :lol:

Du hast mit Sicherheit recht, war damals auch eher ein Schnellschuß:

1. Auf zu Mindfactory - Karte kaufen
2. Nach Hause - Karte einbauen
3. Merken das Netzteilstecker nicht passt
4. Zurück zu Mindfactory - Aussage: Adapter gibt es nicht
5. Fahrt zu Reichelt - Aussage: Adapter gibt es nicht, bräuchte ein neues Netzteil
6. Fahrt nach Hause um Preise zu vergleichen (ja ich hätte wohl mal nach nem Adpter schauen sollen ;) )
7. Fahrt zu Mindfactory - neues Netzteil gekauft
8. Netzteil eingebaut

Ergebnis: Eine menge Fahrerei und über 100€ (zusätzlich) ärmer - aber immerhin gute Grafik :D
 
Das hört sich schonmal sehr gut an das die Grafikkarte einiges weniger brauchen wird, ca 10% schneller ist auch nicht schlecht binn auf den Preis gespannt hoffentlich weniger wie die jetzige GTX280.
 
NoD.sunrise schrieb:
Den verbrauch einer dual gpu 295 will ich dann aber nicht wissen öÖ

~290 Watt.
Die GTX 295 wird aller Voraussicht nach niedriger takten als die GTX 285, so dass man niedrigere Spannungen verwenden kann. Außerdem verwendet die GTX 295 "nur" ein 2*448-Bit-Speicherinterface statt einem 2*512-Bit-Speicherinterface, so dass auch weniger Speicherchips erforderlich sind.
Alleine schon durch Takt- und Spannungssenkung kann man den Verbrauch eines GT200b rasch um 40 Watt senken. Die Spannung geht immerhin ungefähr quadratisch in die Verlustleistung mit ein, auch wenn ein Mikroprozessor kein ohmscher Verbraucher ist. Aber bei höherer Spannung werden bei den Schaltvorgängen natürlich größere Ladungsmengen zwischen den Transistorkapazitäten umgeladen, weil die die gleichbleibenden Lastwiderstände bei größerer Spannung auch einen größeren Strom erlauben. Und die Kombination aus linear steigender Ladungsmenge + linear steigender Spannung bedeutet eine quadratische Steigerung der Energie bzw. der Verlustleistung.
Eine Taktsenkung von 100% auf 91% (also quasi von GTX-285-Niveau auf GTX-280-Niveau) und eine dazu passende Spannungssenkung von ebenfalls 100% auf 91% bedeutet eine Verringerung der Verlusteistung des Chips von 100% auf 75%.
 
Zuletzt bearbeitet:
DanMan schrieb:
Ich muss da was verpasst haben... GTX285?
Ich gehe jetzt mal davon aus, dass dies die 55nm-Version der GTX280 ist. Ist das so? Wenn ja, dann haben die nVidia-Leute aus ihren Namensgebungsfehlern nichts gelernt, denn die geshrinkte GTX260 heißt auch weiterhin so und nicht GTX265.
Oder habe ich noch mehr verpasst? :rolleyes:

Schau Dir mal die Überschrift des Artikels an, den Du gerade (hoffentlich) gelesen hast und auf den Du gerade antwortest und dann stellt Dir folgende Frage:

Ist die GTX285 nur eine 55nm Version der GTX280?

Falls Ja:
In diesem Fall wäre Dein Einwand halbwegs berechtigt (obwohl andererseits viele geheult hättet "Woher weiß ich dann, dass die GTX280 die ich kaufe 55nm hat?").

Falls Nein:
Vielleicht findest Du aber auch Hinweise in der Überschrift, dass die GTX285 nicht nur einen reinen Die-Shrink erfahren hat und in diesem Fall ist ein neuer Name durchaus angebracht.

Und nun darfst Du mal raten welche Antwort richtig ist. (Kleiner Hinweis: die Überschrift lautet "GeForce GTX 285 10% schneller als GTX 280?") :freak:
 
zum thema verbrauch der 295: da eine gtx260 (65nm) schon weniger verbraucht als eine 4870, würden zwei gtx260 (65) auch weniger als zwei 4870 verbrauchen. dazu noch der shrink 65nm auf 55nm...
also wer freiwillig dual-gpu kauft und dann noch wert auf den verbrauch legt, der ist dann mit der gtx295 wohl gut beraten^^
 
Lübke schrieb:
zum thema verbrauch der 295: da eine gtx260 (65nm) schon weniger verbraucht als eine 4870, würden zwei gtx260 (65) auch weniger als zwei 4870 verbrauchen. dazu noch der shrink 65nm auf 55nm...
also wer freiwillig dual-gpu kauft und dann noch wert auf den verbrauch legt, der ist dann mit der gtx295 wohl gut beraten^^
Die GTX 295 verwendet pro Chip nicht 192 bzw. 16 SP und 64 bzw. 72 TMUs wie die GTX 260, sondern 240 SPUs und 80 TMUs. Nur das Speicherinterface wird von 512 Bit auf 448 Bit beschnitten, weil der Routingaufwand auf dem PCB mit 2*512 Bit einfach abartig wird.

Das schmälere Speicherinterface (448 Bit statt 512 Bit) täte zumindest bei einer GTX 280 übrigens kaum weh, nach meinen Berechnungen verringert es die Performance nur um 3-5% (schlimmstenfalls 7%).
 
Zuletzt bearbeitet:
ohh man du hast für EINE single-cpu karte ein 650W netzteil gereicht. damit kannst 3 hd4870 x2 parrallel betreiben wenn das überhaupt möglich ist ^^

Dein tatsächlicher verbrauch liegt warscheinlich (im idle) bei unter 100W das heißt das netzteil wird weniger wie 20% ausgelastet und läuft daher warscheinlich sehr ineffizient. Zahlst also in 1-2 jahren nochmal den kaufpreis des netztteils drauf wegen zusätzlichen stromkosten. ^^


@noman_ ende 2009 wirst für so ne karte höchstens noch 150,- hinblättern müssen.
 
wann kann ich das teil kaufen? im februar 2009?
 
Zurück
Oben