News Im Test vor 15 Jahren: GeForce 9800 GX2 mit viel Leistung und wenig VRAM

Das war bewusst meine erste Graka mit Spulengeräuschen, und das auch noch mehrstimmig :-)
 
@mibbio Naja, das zeigt ja vor allem den Unterschied von analoger und digitaler Signalverarbeitung. Das ist kein Nachteil der TFTs sondern eine Besonderheit von CRTs und anderer analoger Wandler.
Das größte Problem dabei ist: Das CRT-Bild ist ein digitales Foto einer analogen Bildschirmdarstellung, während rechts (wahrscheinlich) ein Screenshot, also eine Kopie des digitalen Bildes, das jeder Monitor noch einmal anders "interpretieren" würde, vorliegt. Was also passiert, ist: Es sieht auf dem CRT weicher aus, ist in Wahrheit aber nur ein Signal-Rausch-Effekt. Das originale Bildsignal dürfte dem LCD-Bild wesentlich näher kommen. Das ist keine Anpassung der Entwickler, sondern schlicht ein glücklicher Umstand, das kleine Auflösungen im analogen Bereich weniger "schlecht" aussehen als im digitalen.

Aber wir schweifen ab ;-).
 
[wege]mini schrieb:
Das Transform and Lighting (oder so) war ein echter Fortschritt

Das weckt Erinnerungen.
I h weiß noch wie ich damals mit irgendeiner onboard Lösung unterwegs war und absolut keinen Plan hatte.
Damals die CBS im Abo gehabt und viele Demos getestet, die hatten damals soeinen systemchecker der dir gesagt hat ob die Demo laufen wird.

Ich habe immer hart abgekotzt wenn da T&L stand :D

Eine Erinnerung die schon sehr lange weg war.
 
  • Gefällt mir
Reaktionen: [wege]mini
GERmaximus schrieb:
Tja, Nvidia und der vram

Wenn ich so die letzten Jahre überlege, gab es nur einmal eine Situation, wo Nvidia besser aufgestellt war mit dem vram.
Das war zur Zeit der 980ti mit 6gb vram
Zur fury mit 4gb (hbm2)

Ansonsten:
780ti 3Gb, viel chipleistung wenig vram
970 3,5gb nvidias Test, ob man den Kunden verarschen kann, ja kann man inkl. Stockhausen Syndrom.
1000er Serie, ein Nvidia untypischer vram Traum.
Dann zur 3000er Serie hat der Nvidianismuss wieder zugeschlagen:
2080ti Leistung mit vram aus der vier Jahre alten Mittelklasse: 3070 mit 8gb.
Die 3080 war da aber nicht viel besser.

Jetzt zur 4000er Serie wollte man einen dann allen Ernstes 12gb in einer 80er Karte verkaufen.

Nvidia ist für mich ein Meister im minimal Prinzip und schafft es immer wieder ein Produkt am Markt zu platzieren, was im hier und jetzt gut da steht, morgen aber bereits irgendwo krankt
und obwohl du das alles weißt und verfolgst hast du eine teure 3090? :D ja sie hat ne menge Ram, aber damit supportest du doch den Vram-Verkrüppler.
 
SLI war/ist einfach Mist, besonders damals. Quasi nur Nachteile.

Aber die 8800 GTS 512 war eine gute Karte... erinnert mich gerade daran, dass die eine UVP von 299€ hatte... für eine fast-High-End Karte in 2007/2008.
Wenn man jetzt mal verschiedene Inflationsrechner benutzt, dann sind 299€ von 2007/2008 heute angeblich knapp über 400€... ob das jetzt so stimmt sei mal dahingestellt, aber selbst man wenn einfach mal brutal 100% Inflation vorgibt würde man immer noch nur bei 600€ landen.
Nvidia nimmt währenddessen für ihre High-End Karte RTX 4090 mittlerweile 1859€, und für ihre zweitschnellste Karte RTX 4080, die deutlich weniger Speicher hat und deutlich langsamer ist, im Vergleich viel langsamer als es die 8800 GTS 512 zur damaligen High-End 8800 Ultra war, immer noch 1400€. Da kann ich mich gar nicht entscheiden, welche Beleidigung ich für diese Firma verwenden will, weil es zu viele passende in der Auswahl gibt...
 
Pisaro schrieb:
Doch, hattest du. Kann man jetzt nur leider nicht mehr prüfen. Micoruckler etc sind wegen der "Technik" dahinter aufgetreten, dagegen konnte man nichts tun. Manche sehen die, manche "nicht".

Ist wie mit dem FPS wenn mal wieder Märchenstunde ist und jemand erzählt 30 FPS sind flüssig :)
Je höher die FPS, desto weniger bzw. negierter traten Mikroruckler auf. Und in diesem Zusammenhang, ich sags gerne noch einmal, hatte ich KEINE (wahrnehmbaren) Mikroruckler.
 
Auch bei dieser GPU gibt es das große Problem der 9000er-Reihe: ab 1600X1200 mit höherem Anti Aliasing versagt diese Grafikkarte auf jämmerlichste Art und Weise.
 
Ja die legendären Mikroruckler, die haben letztlich den Multi GPU Monsterkarten den Gar ausgemacht, weil das nie möglich war völlig zu eleminieren.
 
fox40phil schrieb:
und obwohl du das alles weißt und verfolgst hast du eine teure 3090? :D ja sie hat ne menge Ram, aber damit supportest du doch den Vram-Verkrüppler.
Die habe ich vom Kumpel im Tausch meiner 3080ti bekommen 😉

Bei amd gibt es ein paar Dinge die mich massiv stören, ist aber stand Anfang 2022

Und die 4000er Serie lasse ich derzeit aus, schlicht zu teuer
 
wie schon geschrieben das Ding war ein Speicherkrüppel und so laut wie ein Airbus,
ich hatte damals ne 3870 X2 und zwei 9600 GT im SLI und ja es hat mir gefallen (sehr) :daumen:
 
In dem Artikel sind widersprüchliche Speichertaktraten angegeben, kann das bitte jemand erklären, danke?!

Robert schrieb:
Die Taktraten der GeForce 9800 GX2 indes fielen in Relation zur GeForce 8800 GTS 512 mit 600 zu 650 MHz beim Chip und 1.512 zu 1.625 MHz beim Speicher etwas geringer aus. Pro GPU standen 512 MByte GDDR3-Speicher zur Verfügung – dieser wurde mit 1.000 MHz (anstatt 970 MHz bei der 8800 GTS 512) angesprochen.

1. Satz:
GX2: Speicher 1512 MHz
GTS: Speicher 1625 MHz

2. Satz:
GX2: Speicher 1000 MHz
GTS: Speicher 970 MHz

Was stimmt denn jetzt?
 
  • Gefällt mir
Reaktionen: Pitlord
Im ersten Satz war vermutlich Shadertakt gemeint, im zweiten Satz der Speichertakt.
So steht es auch in der Tabelle.

BTT: Das Hardwaredesign der Karte finde ich immernoch ziemlich beeindruckend. Die Sandwichbauweise mit der kompletten Metallverkleidung wirkt sehr wertig und hat sich von den bis dato bekannten Multi-GPU Karten wirklich abgehoben. Ansonsten war 9800GX2 leider auch zu laut und zu heiß, wie die meisten Multi-GPU Karten.
 
Pitlord schrieb:
Im ersten Satz war vermutlich Shadertakt gemeint, im zweiten Satz der Speichertakt.
So steht es auch in der Tabelle.
...
OK, soweit hab ich nicht mehr um die Ecken gedacht.
Pitlord schrieb:
Ansonsten war 9800GX2 leider auch zu laut und zu heiß, wie die meisten Multi-GPU Karten.
"Zu laut" ist nie (m)ein Problem gewesen. Ich hab einfach die Anlage lauter gedreht bzw. fast immer mit Kopfhörer gezockt.
Meine ganzen SLIs waren nie leise, die 3 8800GTX + 8800GT für PhysX haben ordentlich gefaucht, 3Way- später 4Way-SLI GTX285, 4Way GTX Titan, Quad-SLI GTX 590 ... immer Lüfterkurve ab 50°C auf 100% Lüfterdrehzahl.
Mit Kopfhörer oder lauter Anlage spürt man da nur noch den Durchzug der (aufgeheizten) Luft im Zimmer. ^^ Die Systeme sind mit Netzteilen mit 1000W oder auch 1500W ausgestattet gewesen. Davon bis zu 1200W nur für die Grafikkarten. Und dann noch die 5 Monitore ... Maximum bei GeForce bzw. 9 Monitore bei dem Setup mit den Quadros ... von maximal 16 möglichen. Der Stromzähler hat schon zu kämpfen gehabt. Den hat man aber zum Glück nicht gehört.
 
Mit zu laut sehe ich das ähnlich.
Wie laut meine Kiste damals generell meistens war ist heute fast nicht mehr nachvollziehbar.
[Die ganzen Lüfter in meinem Antec 900 liefen - dank meiner damaligen Blödheit was einzustellen - alle auf vollem rums sobald der Kasten an war ;) -> Auf der anderen Seite viel mir die Lautstärke im vergleich zu vorherigen Geräten nicht negativ auf, soweit ich mich erinnern kann.]
 
Ich kann mich noch daran erinnern, wie ich die x2 auf Wakü umgebaut habe. Damals. Vor 15 Jahren.
 
Wakü war bei GPUs nicht so meins. Die ganzen Schläuche und Verbinder ... bei den bis zu 2 CPUs im System hab ich AIO-Waküs verbaut, damit deren Abwärme nicht das Cass aufheizt. Im Rendering durchaus von Vorteil. Beim Zocken eher zu vernachlässigen, da die E5-2667v2 gerade mal mit 130W angegeben sind und beim Zocken eh nie alle Cores am Limit waren.

Lohnt sich eigentlich mal wieder ein aktuelles System? Gibt's neue Spiele oder tritt die Branche immer noch auf der Stelle? Dieses ganze Ingame-Kaufen kotzt mich so massiv an, daß ich mir seit locker 5 Jahren nix mehr gekauft habe!
 
Zurück
Oben