Test GeForce GTX 285 im Test: Nvidia mit sinnvollem Upgrade der schnellsten Grafikkarte

Schinzie schrieb:
was bitteschön war den am G92 toll? vrambug, stromverschwenderisch und nicht überragend schneller als andere karten?

du verwechselt wohl den G80 mit der G92

G80 = 8800 GTS640/320, GTX, Ultra
G92 = 8800 GT/GTS512, 9800 GT, GTX usw.

beim G80 gabs diesen vrambug und die Stromverschwendung aber beim G92 wurde dann vieles gefixt z.b. wurde von 90nm auf 65nm umgestellt
 
Schinzie schrieb:
was bitteschön war den am G92 toll? vrambug, stromverschwenderisch und nicht überragend schneller als andere karten?
VRam-Bug gibt es keinen, nur ein grottiges Speichermanagement, das genau so arbeitet, wie es implementiert wurde. Daran hat sich auch bei GT200(b) nichts geändert, die Probleme gehen dank 866MB bzw. 1024MB aber zum Glück unter, während G92 mit seinen 512MB (und G80 mit 320MB) oft ins Aus gerannt ist.

G92 war vor allem günstig und auch wenn er nicht wirklich viel Performance gegenüber G80 brachte, war er aus Neukäufersicht ein tolles Angebot, Nvidia konnte den Preisvorteil gut weitergeben. Allerdings gab es gerade bei der 8800GT auch üble Pfeiffkonzerte, das PCB der 9800GTX war dagegen hochwertig, das stimmt. Mit dem Stromverbrauch hast dur natürlich recht, ein Idle-Modus hätte den Karten gut gestanden.

Edit: Ein neues Speichermanagement hat Nvidia erst für GT300 angekündigt, die Quelle finde ich zur Zeit nicht, kommt aber.
 
Zuletzt bearbeitet:
Bin dieses Mal vom Test etwas enttäuscht, ausschließlich wegen den fehlenden Vergleichs-Modellen. Als Einzeltest für eine HighEnd-Karte ist das o.k., weil man eine Einordnung für neue Kaufinteressenten bietet.

... wenn da nicht "...(SLI)" im Titel stünde: dann erwarte ich eine Übersicht über verfügbare und/oder früher getestete SLI-Karten inklusive der ATI-Konkurrenz der entsprechenden Generationen. Diese Test liegen vor, bspw.:
Test: ATi Radeon HD 4870 X2

Einen SLI-Test lesen insbesondere Besitzer von Alt-SLI-Kombinationen, um sich zu orientieren, welche Performance-Vorteile ein moderner Verbund leisten kann. Falls möglich, könntet ihr in die Tabellen entsprechende Werte nachtragen, auch wenn keine 100% gleichen Testbedingungen vorliegen, das kann man ja kennzeichnen.

Besonders schmerzhaft: keine GTX 280 SLI dabei, da hätten mich Performance und Stromverbrauch im Vergleich sehr interessiert, siehe Einzeltest:
https://www.computerbase.de/artikel...test.825/seite-28#abschnitt_performancerating
https://www.computerbase.de/artikel...test.825/seite-32#abschnitt_leistungsaufnahme
 
Kann mir bitte jemand einen reproduzierbaren Zustand nennen, bei dem das Spulenfiepsen bei der gtx 285 (EVGA) auf jeden Fall auftritt? Ich konnte bis jetzt nichts hören.

Zum Thema Lautstärke bei der 285er:
Als sli im idle, und im schalldämmenden Gehäuse imo sehr leise. Im Lastbetrieb deutlich hörbar, und zwar in dem Sinne, daß man erst dann merkt das der Rechner läuft.

Zum Test noch eine Frage:
Wären die benchmarks *deutlich* anders ausgefallen wenn das Testsystem mit einem i7 gemacht worden wäe?
 
oskaar schrieb:
Kann mir bitte jemand einen reproduzierbaren Zustand nennen, bei dem das Spulenfiepsen bei der gtx 285 (EVGA) auf jeden Fall auftritt? Ich konnte bis jetzt nichts hören.
Zum Beispiel in Spielmenüs ohne Vsync (Crysis), provozieren kannst du es auch mit ATITool, wenn du nach Artefakten scannen läßt:
https://www.computerbase.de/downloads/systemtools/grafikkarten/

Du scheinst richtig Glück zu haben, eine GTX 285 ohne deutliches Fiepen scheint sehr selten zu sein. Das provozierte Fiepen tritt natürlich bei nahezu allen Karten auf, bei den 55nm 200ern ist es eben so, dass es meist schon im Spielbetrieb vernehmbar ist, bei einigen sogar im Desktopbetrieb.


Zum Test noch eine Frage:
Wären die benchmarks *deutlich* anders ausgefallen wenn das Testsystem mit einem i7 gemacht worden wäe?
Nein, wenn das so wäre hätte ComputerBase Mist gebaut. Allerdings sollte bei der verwendeten Testplattform und den gewählten Qualitätssettings und Auflösungen ein CPU-Limit ausgeschlossen sein, dann ändert auch ein schnellerer Prozessor nichts mehr an den Ergebnissen.
 
smith0815 schrieb:
Du scheinst richtig Glück zu haben, eine GTX 285 ohne deutliches Fiepen scheint sehr selten zu sein. Das provozierte Fiepen tritt natürlich bei nahezu allen Karten auf, bei den 55nm 200ern ist es eben so, dass es meist schon im Spielbetrieb vernehmbar ist, bei einigen sogar im Desktopbetrieb.

Ich glaube nicht daß meine Karten da eine Ausnahme sind, vielleicht liegt habe ich die 285 noch nicht richtig gequält.....und offenen Betrieb hatte ich auch noch nicht. Danke für den Tip mit dem ATITool, werde es morgen ausprobieren!

edit Nachtrag:
Habe mit ATITool das Artefact scanning ca. 10 Minuten laufen lassen, Ergebnis: null Fiepsen, auch bei offenem Gehäuse. Hmm...vielleicht sollte mal meine Hörfrequenzen vom Doc checken lassen (ernsthaft) :/



smith0815 schrieb:
Allerdings sollte bei der verwendeten Testplattform und den gewählten Qualitätssettings und Auflösungen ein CPU-Limit ausgeschlossen sein, dann ändert auch ein schnellerer Prozessor nichts mehr an den Ergebnissen.

Ja, das meine ich, einen eventuellen CPU-Flaschenhals...wobei es hier sowieso nur um ein paar frames hin, oder her geht, siehe

Core i7 Multi-GPU SLI Crossfire Game performance review
edit: Intel Core i7-965 XE & Core i7-920 Review
 
Zuletzt bearbeitet: (Nachtrag)
Das kann man auch als 680i 790i Ultra vs X58 Test ansehen.
 
Zuletzt bearbeitet:
oskaar schrieb:
Kann mir bitte jemand einen reproduzierbaren Zustand nennen, bei dem das Spulenfiepsen bei der gtx 285 (EVGA) auf jeden Fall auftritt? Ich konnte bis jetzt nichts hören.

Zum Thema Lautstärke bei der 285er:
Als sli im idle, und im schalldämmenden Gehäuse imo sehr leise. Im Lastbetrieb deutlich hörbar, und zwar in dem Sinne, daß man erst dann merkt das der Rechner läuft.

Zum Test noch eine Frage:
Wären die benchmarks *deutlich* anders ausgefallen wenn das Testsystem mit einem i7 gemacht worden wäe?

Im "normalen" Betrieb fiept meine Palit GTX265 auch nicht.
Ich habe mal ein Youtube-Video gesehen, indem das Fiepen einer EVGA GTX 285
demonstriert wurde, während 3dmark 03 lief. Die fiept dabei wirklich die ganze Zeit.
Ich hab dann mal bei mir 3dMark 03 installiert und laufen lassen.
Ab 700 fps ist ein leichtes (wirlklich ganz leieses) Fiepen zu hören. Üer 900 fps
wird es dann deutlich hörbar. Das Fiepen ist etwas leiser als bei einer MSI GTX 260 OC
(192) - mit der ich das Prozedere anschliessend auch mal durchgeführt habe.
Die 285 fiept dafür etwas hochfrequenter. Im Gegensatz zum Video ist meine
285 aber unterhalb der 700 fps mucksmäuschenstill.
 
Krasse Leistung von der GTX295, da kommen die zwei GPU's der 4870X2 kaum ran. Das SLI-Gespann 285er schießt ja wohl alle voll vom Brett, echt der Wahnsinn was Nvidia mit zwei GPU's für Leistung zaubert. Hut ab!

Gruß.
 
[TLR]Snoopy schrieb:
Deswegen fehlt für mich im Fazit die 4850 X2. Bei aktuell 245€ kann die dort so richtig Schwung bringen :)

Dem muss ich zustimmen. Über Sinn oder Unsinn dieser Karte möchte ich hier nicht diskutieren, aber man sollte ganz nüchtern die Zahlen betrachten.

Gerade in hohen Auflösungen zeigt sich das Potenzial dieser Karte; eigentlich schade, dass Computerbase diese Karte hier nicht getestet hat. Hier der Test von PCGH:

Sapphire Radeon HD 4850 X2 PCGH-Test

Berücksichtigt man hierbei die aktuellen Straßenpreise...:

Geizhals HD 4850 X2 Preisübersicht

Sapphire Radeon HD 4850 X2 mit 2 x 512 MB aktuell: 245,90 € (lieferbar)

Sapphire Radeon HD 4850 X2 mit 2 x 1024 MB aktuell: 275,90 € (lieferbar)

...dann ist die Karte für den einen oder anderen sicherlich ein interessantes und verlockendes Angebot und sollte meiner Meinung nach in einem Test wie diesen schon Berücksichtigung finden. 245 € sind für diese Leistung schon ein Angebot, über das man nachdenken könnte...

Hier mal zur performancetechnischen Einordnung von zwei HD 4850 Chips im CF von Computerbase:

HD 4850 CF Performancerating Qualität

Eine HD 4850 X2 macht einer GTX 280 schon ordentlich Dampf und bei den Leistungsreserven, die diese Karte hat spielen vielleicht auch die Mikroruckler keine so große Rolle, aber da ich das noch nie gesehen habe will ich mir darüber kein Urteil bilden.

Ich bin aber immer wieder erstaunt, dass die HD 4850 X2 bei so vielen Seiten keinerlei Berücksichtigung findet. Natürlich ist es keine offiziell von ATI hergestellte Karte, aber sie ist am Markt verfügbar und lieferbar, warum sollte man sie dann nicht auch berücksichtigen? Das wird für die meisten hier sicherlich keine Rolle spielen, ich wollte es nur mal erwähnt haben.

@Wolfgang: Wirklich ein toller Test und eine interessante Karte, wobei ich bei dem aktuellen Preis eher zu einer "alten" GTX 280 greifen würde. Aber bedarf hab' ich momentan keinen.

:cool_alt:
 
aber man sollte ganz nüchtern die Zahlen betrachten
Nein, da nominelle Fps einer MGPU-Karte nicht 1:1 mit denen einer SGPU-Karte verglichen werden können.

cYa
 
y33H@ schrieb:
Nein, da nominelle Fps einer MGPU-Karte nicht 1:1 mit denen einer SGPU-Karte verglichen werden können.

Warum wird dann im Benchmarkvergleich die HD 4870 X2 und die GTX 295 mit aufgeführt?! :o
 
Weil es ein ziemlicher Aufwand ist, die Frametime-Verteilung in die Avg-Fps einzurechnen und die meisten es eh nicht kapieren würden. Aber 30 Fps auf einer MGPU-Karte fühlen sich nicht an wie 30 Fps auf einer SGPU-Karte.

cYa
 
Mir geht es eigentlich auch weniger um Sinn oder Unsinn von Frameverteilungen und deren Umrechnung in Avg-Fps bei MGPU-Karten sondern vielmehr um eine komplette Abdeckung des Marktangebotes an Grafikkarten. Für das Geld bekommt man eben eine HD 4850 X2 und es soll tatsächlich Leute geben, die für ihr ausgegebenes Geld die bestmögliche Leistung haben möchten. Ich weiß ja, dass sich das Spielen bei MGPU-Karten "anders" anfühlt, nichtsdestotrotz werden hier zum Vergleich auch andere MGPU-Karten aufgeführt. Aber mir soll es recht sein, ich hab keine HD 4850 X2 und brauch' auch keine. Ich geh' jetzt ins Bett. Gute Nacht! :D
 
KAOZNAKE schrieb:
Man, so groß ist der Unterschied auch nicht, denk dir halt noch 1% dazu,

Doch, der Unterschied ist so gross! Laut den CBeigenen Test liegt die Performancesteigerung zw 8.11 und dem originalen 8.12 zw. 4 und 31 Prozent.

ob der 8.12 keine Macken hat, weiß keiner genau, also lieber Nummer sicher.

da auch keiner weiss, ob der aktuelle Nvidiatreiber irgendwelche macken hat, gehen wir doch auf Nummer sicher und nehmen nen 177er Treiber. Ich hoffe dir faellt der Unsinn in deiner Bemerkung selber auf ...

Vergleich zwischen 280 und 285 genau das Selbe. Die Taktratenerhöhung von 10% passt genau mit 10% Leistungssteigerung, wozu soll man da noch mal ein Haufen Zeit verschwenden und die 280 noch mal durch den Parcour jagen?

Du willst mir jetzt aber nicht was von ner linear steigenden Performance erzaehlen. Besonders wenn diese durch unterschiedliche Treiber entsteht und eine solche sich somit bei gleichen Treibern von ganz allein ausschliesst.

Würdige mal lieber die Arbeit von CB, die du dir hier kostenlos anschauen kannst.

Ich wuerdige die Arbeit von CB wenn sie gut ist. Siehe z.B. den Artikel ueber "Anti-Aliasing bei ATi und Nvidia" https://www.computerbase.de/artikel/grafikkarten/bericht-anti-aliasing-bei-ati-und-nvidia.941/

Leider kann man das aber ueber diesen Artikel hier nicht sagen.
 
Zuletzt bearbeitet:
Danke für den test. Ich sehe das(sowie die die p/l vergleichen können und keine fanboy brille anhaben) es etwas überteuert ist. Wenn die preise für eine 285 unter 270gehen ist das dann etwas was man sich kaufen könnte. Aber die karten an sich sind nix großartiges, liegt sicherlich daran, dass die kaum entwicklungszeit hatten, die wollten ATI nur um paar % übertreffen - geschafft.
 
Warum immer 2560x1600 getestet wird, obwohl nun wirklich kaum einer einen 30er Moni hat, geschweige denn in der Auflösung noch spielt, während das das immer beliebtere und wesentlich mehr verbreitete 1920x1200 fehlt, ist schon seltsam!

Die Vermischung von Dual und Singlekarten im Fazit gefällt mir auch nicht, sind doch einfach zwei verschiedene Welten.
Die 285 gehört IMO mit der 4870 1GB verglichen, die schnellsten Singlekarten von beiden eben, die X2 dagegen mit der 295.
Zudem sollte wenn schon im Fazit die 295 erwähnt sein, wer sich trotz allen bekannten Nachteilen so ein Dualding kauft, für den sind die zusätzlichen Euros da sicher kein Thema, der will wenn schon dann die schnellste und kauft kaum noch die X2.

Selber bin ich mit der 285 sehr zufrieden, für 1920x1200 lohnt sich die eindeutig und bietet die bestmögliche Leistung ohne den ganzen Dualmurks, das war auch der Kaufgrund.
 
Was fuer ein Test. Da wird mit ner zweifelhaften (falschen) Begruendung erklaert, warum der 8.11er bei Ati verwendet wird. (Obwohl der originale 8.12 denn genannten Fehler ueberhaupt nicht hat.)

Zum anderen ist eine Vergleichbarkeit von 280 und 285 nicht gegeben, da unterschiedliche Treiber genutzt wurden.
Und was ist an der Begründung falsch? Bestimtm nicht, dass der Treiber in Crysis Warhead einen ziemlich dicken Bug hat.

Und der 8.11 wird verwendet, da wir von dem Treiber schlicht und ergreifend die Ergebnisse haben, vom Cat 8.12 aber nicht. Die GeForce-Karten sind auch längst nicht alle mit dem neusten Treiber getestet. Zumal der Cat 8.12 sensationelle zwei (!) Prozent schneller als der Cat 8.11 ist. Da ändert sich dann natürlich alles.

Auf Seiten Nvidias gilt dasselbe. Die Unterschiede sind absolut minimal und es lohnt den Mehraufwand einfach nicht.

Ich glaub es hat sich ein Fehler eingeschlichen. Haben die GTX 285 und GTX 295 nicht Hybrid SLI bzw. Hybrid Power zum Abschalten der Grafikkarte? Beim GTX 295 Test stand in den Technischen Details noch "ja" drin.
Das ist kein Fehler, die GTX 285 und GTX 295 können kein hybrid-SLI mehr. Mehr dazu bald in einer News.
Schöner Test!Allerdings stört es mich stark dass ihr die 1900x1200 auflösung nicht getestet habt...mal ehrlich , wieviele leute haben schon ein Monitor mit ner auflösung von 2560x1600...jedenfalls nicht mehr leute alsdie mit ner 1900x1200 auflösung. :/
Aktuell und in Kürze werden wir kein 1920x1200 nutzen. Aber beim nächsten Testsystem/Testparcours werden wir diesbezüglich was ändern. Was und wie genau...mal schauen.

Wieso wurde denn die 9800 GX2 aus sämtlichen neuen Tests verbannt, find ich persönlich ziemlich schlecht.
Wir haben durchaus eine 9800 GX2 hier, die Karte ist aber EOL, zudem hat sie wohl kaum einer.
Dann sollte man aber auch gerecht sein und z.B. sagen das ATI seit der 3xxx DX10.1 unterstützt, obwohl es auch eine Nischenerscheinung ist.
Bin kein ATI fanboy oder so, aber beim Fazit sollten doch alle Pro und Contra Seiten aufgezählt werden??! Oder??!
Aktuell kann man mit CUDA schon viel mehr machen als mit D3D 10.1 - leider.
Ich möchte mal echt wissen wie man zu so einer Aussage kommt.
Weil es so ist? Anscheinend hast du keine Ahnung, was Mikroruckler sind. Sonst würdest du kaum die Frameverläufe vorschlagen.
 
ich verstehe ja wirklich gar nicht, warum man die karte im idle auf 40 grad runter kuehlt, dafuer aber so eine lautstaerke in kauf nimmt.

imho hat sich die karte damit selbst disqualifiziert. im idle muss es leise sein, dafuer hat man doch auf die verlustaermeren 55nm umgestellt. was bringt mir das ganze, wenn der luefter trotzdem genauso schnell dreht wie vorher?

lg
Lion
 
ich finde man muss nicht immer gleich jede auflösung testen.
mit etwas verstand, kann man sich die ungefähren ergebnisse auch selber herleiten, wenn die 1900er auflösungen zwischen der 1600er und 2500er liegen ;)
ich habe ja selber 1920x1080, aber es juckt mich nicht wirklich, das diese auflösung hier fehlt.

aber manchen muss man eben alles vorkauen.

mfg
 
Zurück
Oben