News Im Test vor 15 Jahren: GeForce 9800 GX2 mit viel Leistung und wenig VRAM

Damals als noch gpu mit festen Takt liefen OC quasi Pflicht war und die preise human.
Aber ich war schon 2008 auf 1680-1050 und war mit der 9800gtx+ die noch lebt zufrieden
das schwerste spiel damals war stalker clear sky,gta4 und far cry2.
Schade das damals nicht so ausführlich die Einzel benches gegeben hat.
 
[wege]mini schrieb:
Damals hat man aber die Voodoos durch eine 3te Karte geschlauft. Die hat mehr oder weniger die Synchronisierung der Frames ermöglicht.
Ich sag ja anderer technischer Ansatz.
Bei 3dfx wurden Bilder auch, vereinfacht gesagt ähnlich wie bei passivem 3D am TV/Kino, zeilenweise zwischen den GPUs gewechselt, während bei Nvidia Halbbilder oder ganze Bilder abwechselnd gerechnet wurden.Bei der Voodoo warens auch einfach nur Texturen die gerendert werden mussten, bei den "modernen" Karten kam ja dann auch das 3D-Modell dazu (T&L ?); das konnte man dann nicht mehr so einfach zeilenweise splitten.
Genau kann ich mich an die Tech-Artikel auch nicht mehr erinnern. Immerhin fast 20 Jahre her.
Kann gut sein dass ich da auch was durcheinander bringe, aber man wird ja auch nicht jünger...^^
 
  • Gefällt mir
Reaktionen: [wege]mini
Wie immer vielen Dank für die Zeitreise @Robert. Da kommen [teils gruselige] Erinnerungen hoch. :D

Einige Kollegen hatten die GX2 im Einsatz, während ich zwei 8800 GTX im SLI hatte. Eine wilde Zeit. ^^
 
  • Gefällt mir
Reaktionen: -=[CrysiS]=- und ro///M3o
Die 9800gx2 hatte ich und von der Leistung her fand ich die gut, solange das Game auch SLI unterstützt hat. War bei meinen damaligen Games relativ häufig.

Der größte Nachteil der Karte war aber die Lautstärke...eigentlich eine Zumutung und nur unter Kopfhörer ertragbar. Im Idle war die aber angenehm leise (alles im gut gedämmten Tower), weshalb sie erst später durch eine 580GTX ersetzt wurde.
 
Die Überschrift kannst auch heute noch an fast jede Nvidia Karte klatschen 😁

War schon eine wilde Zeit mit SLI/Crossfire damals, hatte nie das Interesse daran durch bekannte Probleme. Heute mit Karten die 500W brauchen auch sehr utopisch, aber wir sehen den Gedanken die Last auf mehrere Kerne zu verteilen bei AMD ja wieder aufblitzen. Zwar keine ganzen Cores, aber immerhin Uncore.
 
  • Gefällt mir
Reaktionen: eXe777
Boimler schrieb:
Ich hab damals wie heute nicht begriffen, wie man sich so einen Föhn einbauen kann.
Es gibt nur einen Föhn, und das war die 5800Ultra. ;)
(Vermisst eigentlich jemand Henner auch so wie ich ? ^^ )
 
  • Gefällt mir
Reaktionen: LadykillerTHG, HaRdWar§FreSseR, entengruetze und eine weitere Person
Preis und Leistungsaufnahme waren damals mit diesen Werten hoch und dann schaut man sich den kleinen Atomreaktor neben dem Tisch an und man weint innerlich (und lacht angesichts der Leistung heutzutage im Vergleich zu damals:heul::freak:).
 
  • Gefällt mir
Reaktionen: gustlegga
gustlegga schrieb:
3D-Modell dazu (T&L ?)

Das Transform and Lighting (oder so) war ein echter Fortschritt, als es in Hardware berechnet wurde. Wenn ich mich richtig erinnere, hatte die erste GForce das und mit der Gforce3 kam dann mit Pixel Shader 3.0 die neue Technologie richtig in Fahrt.

Später kamen dann unified Shader und heute redet man ja sowieso nur noch über CUs.

Waren spannende Zeiten und es war schön, sie miterleben zu dürfen.

Wenn kein OpenGL unterstützt wurde, waren die Voodoos sowieso "nutzlos" und eigentlich brauchte man eine Unterstützung von Glide. DirectX gab es damals noch nicht. :evillol:

Lang ist es her, aber immer wieder eine schöne Zeitreise.

mfg
 
  • Gefällt mir
Reaktionen: Stefan1207 und gustlegga
[wege]mini schrieb:
Wenn ich mich richtig erinnere, hatte die erste GForce das
War glaub ich damals bei der Geforce 256 so eins der Verkaufsargumente dieses T&L, ja.
Ein Freund hat sich so eine seinerzeit gekauft.
Das war schon so etwas wie eine kleine Revolution in der PC Grafik.
Keine Ahnung auf was ich da damals rumgeeiert bin...
ATI Rage irgendwas vermutlich oder wars doch schon eine TNT2-M64....
Den neumodernden Krempel gabs bei mir dann später mit dem Duron800 und einer GF2MX.
Kinder wie die Zeit vergeht. Damals hatte die Jahreszahl grade noch so eine 1 vorn dran, wir haben unser Gehalt noch in Schillinge (bzw. D-Mark) bekommen und ich durfte trotzdem schon 10 Jahre Autofahren.
 
Ganz gleich ob die 9800 GX2 in 2008 oder die 4070 Ti in 2023:

Nvidia spart am VRAM und schont damit in vorbildlicher Art und Weise die endlichen Ressourcen dieses Planeten. :D
 
  • Gefällt mir
Reaktionen: fox40phil, danyundsahne und Boimler
[wege]mini schrieb:
Wenn kein OpenGL unterstützt wurde, waren die Voodoos sowieso "nutzlos" und eigentlich brauchte man eine Unterstützung von Glide.
Mein Cousin hat damals bei seiner Voodoo3 3000 beinah für jedes zweite Spiel nen anderen (Omega)treiber installiert. Das eine Spiel lief mit dem nicht, das andere mit dem anderen wieder nicht.
Gut, recht viel geändert hat sich heutzutage ja auch nicht.... Hotfixtreiber hier, Hotfixtreiber dort.....
Früher war eben doch nicht alles besser, nicht mal die Zukunft.
 
  • Gefällt mir
Reaktionen: SVΞN und [wege]mini
[wege]mini schrieb:
Damals hat man aber die Voodoos durch eine 3te Karte geschlauft. Die hat mehr oder weniger die Synchronisierung der Frames ermöglicht.

Das ist falsch. Die Grafikkarte, an der die Voodoo 1 bzw. 2 und 2 SLI angeschlossen waren, diente der 2D Bildberechnung. Das Bild der 2D Karte wurde durch die Voodoo Karten mit durchgeschliffen.
Die Karte hat nichts zur Berechnung der 3D Bilder beigetragen.
 
  • Gefällt mir
Reaktionen: up.whatever
gustlegga schrieb:

Jupp.

Mein System mit AMD x2, 2 Voodoo 12mb und einer 9700pro läuft schon "fast".

Aktuell frickel ich am Treiber für die Voodoos rum und zwischenzeitlich war ich kurz davor, den Hammer raus zu holen und dem ganzen Schauspiel ein Ende zu bereiten. Das macht zwar nur kurz Spaß, aber es macht Spaß.

Natürlich läuft das im 98er Windows. Ich will aber XP!

Karre schrieb:
Die Karte hat nichts zur Berechnung der 3D Bilder beigetragen.

Korrekt. Deswegen sagte ich, sie hat die Bilder synchronisiert, da selbst die Halbbilder nicht gleichschnell berechnet werden konnten.

mfg
 
NV und VRAM....eine ewige Hassliebe :D
 
  • Gefällt mir
Reaktionen: lubi7
DJMadMax schrieb:
Und exakt diese Probleme hatte ich mit meinen beiden XFX 9800 GTX+ nie gehabt.
Doch, hattest du. Kann man jetzt nur leider nicht mehr prüfen. Micoruckler etc sind wegen der "Technik" dahinter aufgetreten, dagegen konnte man nichts tun. Manche sehen die, manche "nicht".

Ist wie mit dem FPS wenn mal wieder Märchenstunde ist und jemand erzählt 30 FPS sind flüssig :)
 
[wege]mini schrieb:
Deswegen sagte ich, sie hat die Bilder synchronisiert, da selbst die Halbbilder nicht gleichschnell berechnet werden konnten.
die separate 2d karte hat überhaupt nichts mit dem 3d der voodoos zu tun gehabt. sieht man schon daran, dass das vga-signal der 2d-karte durch die voodoo durchgeschleift wurde und nicht umgekehrt - die 2d-karte hat nie irgendein signal der voodoos bekommen.
 
  • Gefällt mir
Reaktionen: up.whatever
2007 war der Peak des Desktop-GPU-Hypes mit knapp unter 30 Millionen ausgelieferten Stückzahlen pro Quartal. Seitdem ging es kontinuierlich abwärts bis auf unter 7 Millionen in Q4/2022.

Vom Massenmarkt in die Freak-Nische und die Geforce 9000er markierte quasi diesen Übergang.

Das war vor 15 Jahren.
 
Macht mal lieber eine neue Testkampagne mit solch alten Produkten. Aus jeder Generation der letzten 15 Jahre das Topmodell von Nvidia und ATI/AMD. Oder vielleicht auch nur eine Auswertung der Messdaten von damals. Ich hätte mal so gerne einen Vergleich zwischen heute, gestern und damals.

Ich habe eine RTX 2080 und weiß z.B. jetzt schon nicht mehr, wo ich stehe. Denn die Karte wird bei neuen Tests nicht mehr herangezogen.
 
Zurück
Oben