News Im Test vor 15 Jahren: Nvidias GeForce GTX 285 mit dem 55-nm-Boost

Intenso84 schrieb:
Die Evolution des Marketings, heute würde eine 285 als 280 Super verkauft werden.
Nope, das wären Profikarten, der volle Chip ist viel zu schade für das Gaming Fußvolk
Die GTX 260 216 wäre dann die Ti Super oder so
 
  • Gefällt mir
Reaktionen: EntelodonX, eXe777 und LETNI77
Ich hatte damals den kleinen Bruder, die GTX 275. Das war damals eine tolle Karte für Bad Company 2.
 
  • Gefällt mir
Reaktionen: cornykorn
Hatte die GTx 285 SSC von Zotac, die erst Artefakte, später Toralaussetzer peoduzierte. Die lauteste und schlechteste Karte die ich jemals besaß. Gut daa die Zeit rum ist.
 
Das war schön langsam das Ende meiner Gamer-Zeit. Ich war damals auf einer 4850 unterwegs. Aber ab August 2008 hab ich angefangen mich mit der Fotografie zu beschäftigen.
Das hat dann meine Zeit und mein Geld in Anspruch genommen.
Nächste Grafikkarte war dann 2014 eine R9 290 die ich aber nach ein paar Monaten wieder verkauft habe, weil ich auf Laptop umgestiegen bin.
Mit einem Rechner ging es erst 2018 wieder weiter als Videoschnitt ein Thema wurde.
 
Eine meiner damals liebsten Grafikkarten. Sehr schade, dass die Hersteller wieder dazu übergegangen sind, schmalere Speicherinterfaces zu verbauen. Es gab eine Zeit da waren 512 Bit die Norm bei High End. Dass sich in all den Jahren und dem technischen Fortschritt keine günstigere Möglichkeit zum realisieren solcher Speicherinterfaces etabliert hat ist für mich teilweise nicht zu verstehen. Stattdessen krebsen wir von Low End bis High End mit teils verkrüpptelten Speicherinterfaces herum.
 
  • Gefällt mir
Reaktionen: JackTheRippchen, Azeron und -=[CrysiS]=-
JMP $FCE2 schrieb:
Mit dem kleinen Unterschied, dass die 285 bei zu der Zeit aktuellen Spielen mit vollen Details nicht ansatzweise 120 fps schaffte, auch nicht mit SLI.
Die Ansprüche haben sich natürlich gewandelt; zu der Zeit hat man üblicherweise eher in 1680x1050 gespielt. Allerdings gehört auch dazu, dass die GTX 280 die seinerzeit über lange Zeit unangefochtene, geradezu legendäre 8800 GTX/ultra leicht und locker verblies, und demnach ein guter bis würdiger Nachfolger für eine bereits exzellente Karte war. Wie wir heute auch wissen: keine Selbstverständlichkeit (mehr). Die Preise knapp über 300 Euro kamen aber auch daher zustande, dass AMD mit der HD 4870 eine echte Konkurrenz war und dazu wesentlich beigetragen hat, die Preise sehr deutlich zu drücken. So viel High End für so wenig Geld gab es mE weder davor noch danach wieder. Unabhängig davon, ob man im grünen oder roten Lager unterwegs war.

Ich hatte die 285 damals auch wegen der Gerüchte (?) um kaputtgesparte Platinen und Spulenfiepen bewusst ausgelassen und eine 280 (von Zotac) genommen. Das war eine schöne Karte, die geschmeidig mit 700/1400 lief. Mein 2900er Crossfire sah dagegen echt schlecht aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: -=[CrysiS]=-
Crazy_Chris schrieb:
Mir war die Karte damals einfach zu laut. Daher ist sie mir eher negativ in Erinnerung geblieben. Zumal meine vorherige 8800GTS 512 flüsterleise war.

Kann gut sein, aber nun mal jede Komponente am PC macht irgendwelche Geräusche.

Ich habe in einem PC eine Nvidia GeForce RTX 1650 Super und ich meine, die macht auch ein paar Geräusche, diese empfinde ich jetzt aber nicht als störend.
 
Zuletzt bearbeitet:
Die GeForce GTX 285, war seiner Zeit eine wirklich außergewöhnliche Grafikkarte, ich hatte eine Leadtek WinFast GeForce GTX 285, leider habe ich die Rechnung nicht mehr und kann mich nicht mehr daran erinnern, was die Karte 2009 gekostet hat.
Leider ist sie mir nach nicht mal 10 Jahren Laufzeit verreckt, habe sie wahrscheinlich zu sehr beansprucht.
 
Ick och hier……

Damit möchte ich mal ein krasses WinXP-Build machen…..
 

Anhänge

  • IMG_5537.jpeg
    IMG_5537.jpeg
    1,8 MB · Aufrufe: 112
  • IMG_5538.jpeg
    IMG_5538.jpeg
    1,7 MB · Aufrufe: 112
  • IMG_5539.jpeg
    IMG_5539.jpeg
    1,8 MB · Aufrufe: 110
  • Gefällt mir
Reaktionen: Hardy_1916, -=[CrysiS]=- und LETNI77
Die GTX 285 hat damals einen SLI Verbund aus zwei 8800 GT abgelöst, nachdem eine davon die Grätsche gemacht hat. War eine schnelle Karte, aber wie damals üblich für ein Referenzdesign sehr laut. 54 db ist schon nicht ohne. Und bis heute verstehe ich nicht, wieso im Kühlerdesign, bzw. der Verkleidung am Lüfter so ein "Knick" drin war :D

Danke Mal wieder an CB für den tollen Retroartikel 👍
 
Meine beiden 285
Im absoluten Nvidia Referenz look
 

Anhänge

  • PXL_20230123_095537068.jpg
    PXL_20230123_095537068.jpg
    1,4 MB · Aufrufe: 116
  • PXL_20230123_095550852.jpg
    PXL_20230123_095550852.jpg
    1,4 MB · Aufrufe: 111
  • PXL_20230123_095712653.jpg
    PXL_20230123_095712653.jpg
    1,7 MB · Aufrufe: 109
  • Gefällt mir
Reaktionen: Hardy_1916, Anti-Monitor und LETNI77
Meine Gainward 260 gefasht auf 275 liegt noch im Regal. Tolle Zeiten 😃
 
rumpel01 schrieb:
Die Ansprüche haben sich natürlich gewandelt; zu der Zeit hat man üblicherweise eher in 1680x1050 gespielt.

Bei der Framerate eigentlich nicht. Bei Multiplayershootern wie Quake 3 oder CS waren 120+ fps auf 120 Hz-fähigen Röhrenmonitoren schon lange üblich. Dass das bei Spielen wie Gothic 3 oder Crysis schlicht unmöglich war (selbst bei nach oben offenem PC-Budget), hat man zähneknirschend hingenommen.

Die Bugatti-Klasse (4090) gab es damals einfach nicht, und auch die Mittelklasse ist heute wesentlich länger brauchbar.

Ich habe neulich im Sale Hogwarts Legacy gekauft, und es läuft ohne Raytracing mit 80-100 fps - auf einer angegrauten, mittelklassigen RTX 2070 Super.

Bei Crysis auf der 8800 GT musste ich wesentlich mehr Details wegschalten, um läppische 50 fps zu erreichen.
 
  • Gefällt mir
Reaktionen: -=[CrysiS]=-
Hatte damals die GTX 285 von irgendeinem noname brand, aber bei Edel-Grafikkarten gekauft (die hießen wirklich so ;) da war dann vorselektiert, dass man sie auf einen bestimmten Wert garantiert übertakten konnte. Preis lag nur minimal höher. Das war eine tolle Karte und lief lange. Geräuschkulisse war auch erträglich, aber nicht mit heute zu vergleichen. Die Zeiten ändern sich...
 
JMP $FCE2 schrieb:
Mit dem kleinen Unterschied, dass die 285 bei zu der Zeit aktuellen Spielen mit vollen Details nicht ansatzweise 120 fps schaffte, auch nicht mit SLI.
Das macht die 4090 ? Also aktuelle AAA und volle Details 120 FPS? Oder Testparcurs hier im CB gelesen zum Review der 4090?
Aso, auch nicht im SLI 😁😉
Bevor du dich weiter warm redest, nochmal Berichte 2009 (für 285 auf 19") und aktuelle Review 4090 lesen.
JMP $FCE2 schrieb:
PS: Autovergleiche haben noch nie funktioniert, "Bugattiklasse"
PPS: Lass dir mal von @HisN volle Details erklären und benchen.
Und du erklärst ihm die 120 FPS einer 4090
 
  • Gefällt mir
Reaktionen: Snoop7676
Ich hatte/habe beide Karten (bzw. die fast gleich schnelle GTX 275), und die 2070 Super ist 4 Jahre nach Release immer noch besser brauchbar, als die 275 von Anfang an.

Die 4090 ist totaler Overkill, und nicht mit dem vergleichbar, was sich damals "High End" nannte.
 
JMP $FCE2 schrieb:
Multiplayershootern wie Quake 3 oder CS waren 120+ fps auf 120 Hz-fähigen Röhrenmonitoren schon lange üblich.
Ja, klar. Aber CS und Quake 3 hat man kompetitiv ohnehin mit niedrigen Details gespielt. Da waren 120FPS für eine GTX 280 eher kein großes Problem.

Crysis war bekanntlich technisch Jahre voraus. Man bekommt auch heute eine RTX 4090 problemlos klein mit den entsprechenden Einstellungen und Titeln klein, kann ich leider so auch bestätigen. Tatsächlich sind in der Chipgröße GT200 und Ada Lovelace AD102 sehr ähnlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: -=[CrysiS]=- und Joker (AC)
Das wird OT
Du kannst das jetzt noch zig mal wiederholen was deiner Meinung nach High End ist oder war.
Es wird nicht richtiger dadurch.
Die 285 GTX war die stärkste Solo Karte und die 295 die Dualkarte.
Mehr ging nicht, außer du hattest die sinnfrei gestapelt (Microruckler)
Das Nvidia irgendwann die Titan Klasse erfunden und zahlungswillige Kunden in Aussicht standen.....
Das ist anderes Thema. Und ich hab längst begriffen was du eigentlich meinst.
 
  • Gefällt mir
Reaktionen: JackTheRippchen
rumpel01 schrieb:
Ja, klar. Aber CS und Quake 3 hat man kompetitiv ohnehin mit niedrigen Details gespielt. Da waren 120FPS für eine GTX 280 eher kein großes Problem.

Hohe Details haben bei Quake 3 CTF durchaus ihre Vorteile (die Flagge beleuchtet den Boden), den Lego-Modus habe ich mir nie angetan.

Das Spiel hing anfangs sowieso eher im CPU-Limit, und seit dem Athlon XP mit Geforce 4 Ti hielt es die 125 fps bei vollen Details dauerhaft.

70 fps im Lego-Modus (Vertexlicht) schaffte schon die Voodoo2 SLI-Kombi.
 
Zurück
Oben