Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Im Test vor 15 Jahren: GeForce 9800 GX2 mit viel Leistung und wenig VRAM
- Ersteller Robert
- Erstellt am
- Zur News: Im Test vor 15 Jahren: GeForce 9800 GX2 mit viel Leistung und wenig VRAM
@mibbio Naja, das zeigt ja vor allem den Unterschied von analoger und digitaler Signalverarbeitung. Das ist kein Nachteil der TFTs sondern eine Besonderheit von CRTs und anderer analoger Wandler.
Das größte Problem dabei ist: Das CRT-Bild ist ein digitales Foto einer analogen Bildschirmdarstellung, während rechts (wahrscheinlich) ein Screenshot, also eine Kopie des digitalen Bildes, das jeder Monitor noch einmal anders "interpretieren" würde, vorliegt. Was also passiert, ist: Es sieht auf dem CRT weicher aus, ist in Wahrheit aber nur ein Signal-Rausch-Effekt. Das originale Bildsignal dürfte dem LCD-Bild wesentlich näher kommen. Das ist keine Anpassung der Entwickler, sondern schlicht ein glücklicher Umstand, das kleine Auflösungen im analogen Bereich weniger "schlecht" aussehen als im digitalen.
Aber wir schweifen ab ;-).
Das größte Problem dabei ist: Das CRT-Bild ist ein digitales Foto einer analogen Bildschirmdarstellung, während rechts (wahrscheinlich) ein Screenshot, also eine Kopie des digitalen Bildes, das jeder Monitor noch einmal anders "interpretieren" würde, vorliegt. Was also passiert, ist: Es sieht auf dem CRT weicher aus, ist in Wahrheit aber nur ein Signal-Rausch-Effekt. Das originale Bildsignal dürfte dem LCD-Bild wesentlich näher kommen. Das ist keine Anpassung der Entwickler, sondern schlicht ein glücklicher Umstand, das kleine Auflösungen im analogen Bereich weniger "schlecht" aussehen als im digitalen.
Aber wir schweifen ab ;-).
[wege]mini schrieb:Das Transform and Lighting (oder so) war ein echter Fortschritt
Das weckt Erinnerungen.
I h weiß noch wie ich damals mit irgendeiner onboard Lösung unterwegs war und absolut keinen Plan hatte.
Damals die CBS im Abo gehabt und viele Demos getestet, die hatten damals soeinen systemchecker der dir gesagt hat ob die Demo laufen wird.
Ich habe immer hart abgekotzt wenn da T&L stand
Eine Erinnerung die schon sehr lange weg war.
fox40phil
Rear Admiral
- Registriert
- Okt. 2008
- Beiträge
- 5.940
und obwohl du das alles weißt und verfolgst hast du eine teure 3090? ja sie hat ne menge Ram, aber damit supportest du doch den Vram-Verkrüppler.GERmaximus schrieb:Tja, Nvidia und der vram
Wenn ich so die letzten Jahre überlege, gab es nur einmal eine Situation, wo Nvidia besser aufgestellt war mit dem vram.
Das war zur Zeit der 980ti mit 6gb vram
Zur fury mit 4gb (hbm2)
Ansonsten:
780ti 3Gb, viel chipleistung wenig vram
970 3,5gb nvidias Test, ob man den Kunden verarschen kann, ja kann man inkl. Stockhausen Syndrom.
1000er Serie, ein Nvidia untypischer vram Traum.
Dann zur 3000er Serie hat der Nvidianismuss wieder zugeschlagen:
2080ti Leistung mit vram aus der vier Jahre alten Mittelklasse: 3070 mit 8gb.
Die 3080 war da aber nicht viel besser.
Jetzt zur 4000er Serie wollte man einen dann allen Ernstes 12gb in einer 80er Karte verkaufen.
Nvidia ist für mich ein Meister im minimal Prinzip und schafft es immer wieder ein Produkt am Markt zu platzieren, was im hier und jetzt gut da steht, morgen aber bereits irgendwo krankt
Pltk
Cadet 4th Year
- Registriert
- Juni 2019
- Beiträge
- 125
SLI war/ist einfach Mist, besonders damals. Quasi nur Nachteile.
Aber die 8800 GTS 512 war eine gute Karte... erinnert mich gerade daran, dass die eine UVP von 299€ hatte... für eine fast-High-End Karte in 2007/2008.
Wenn man jetzt mal verschiedene Inflationsrechner benutzt, dann sind 299€ von 2007/2008 heute angeblich knapp über 400€... ob das jetzt so stimmt sei mal dahingestellt, aber selbst man wenn einfach mal brutal 100% Inflation vorgibt würde man immer noch nur bei 600€ landen.
Nvidia nimmt währenddessen für ihre High-End Karte RTX 4090 mittlerweile 1859€, und für ihre zweitschnellste Karte RTX 4080, die deutlich weniger Speicher hat und deutlich langsamer ist, im Vergleich viel langsamer als es die 8800 GTS 512 zur damaligen High-End 8800 Ultra war, immer noch 1400€. Da kann ich mich gar nicht entscheiden, welche Beleidigung ich für diese Firma verwenden will, weil es zu viele passende in der Auswahl gibt...
Aber die 8800 GTS 512 war eine gute Karte... erinnert mich gerade daran, dass die eine UVP von 299€ hatte... für eine fast-High-End Karte in 2007/2008.
Wenn man jetzt mal verschiedene Inflationsrechner benutzt, dann sind 299€ von 2007/2008 heute angeblich knapp über 400€... ob das jetzt so stimmt sei mal dahingestellt, aber selbst man wenn einfach mal brutal 100% Inflation vorgibt würde man immer noch nur bei 600€ landen.
Nvidia nimmt währenddessen für ihre High-End Karte RTX 4090 mittlerweile 1859€, und für ihre zweitschnellste Karte RTX 4080, die deutlich weniger Speicher hat und deutlich langsamer ist, im Vergleich viel langsamer als es die 8800 GTS 512 zur damaligen High-End 8800 Ultra war, immer noch 1400€. Da kann ich mich gar nicht entscheiden, welche Beleidigung ich für diese Firma verwenden will, weil es zu viele passende in der Auswahl gibt...
DJMadMax
Fleet Admiral
- Registriert
- Mai 2007
- Beiträge
- 16.115
Je höher die FPS, desto weniger bzw. negierter traten Mikroruckler auf. Und in diesem Zusammenhang, ich sags gerne noch einmal, hatte ich KEINE (wahrnehmbaren) Mikroruckler.Pisaro schrieb:Doch, hattest du. Kann man jetzt nur leider nicht mehr prüfen. Micoruckler etc sind wegen der "Technik" dahinter aufgetreten, dagegen konnte man nichts tun. Manche sehen die, manche "nicht".
Ist wie mit dem FPS wenn mal wieder Märchenstunde ist und jemand erzählt 30 FPS sind flüssig
Tuetensuppe
Admiral
- Registriert
- Juli 2008
- Beiträge
- 7.229
Auch bei dieser GPU gibt es das große Problem der 9000er-Reihe: ab 1600X1200 mit höherem Anti Aliasing versagt diese Grafikkarte auf jämmerlichste Art und Weise.
GERmaximus
Rear Admiral
- Registriert
- Sep. 2015
- Beiträge
- 5.288
Die habe ich vom Kumpel im Tausch meiner 3080ti bekommen 😉fox40phil schrieb:und obwohl du das alles weißt und verfolgst hast du eine teure 3090? ja sie hat ne menge Ram, aber damit supportest du doch den Vram-Verkrüppler.
Bei amd gibt es ein paar Dinge die mich massiv stören, ist aber stand Anfang 2022
Und die 4000er Serie lasse ich derzeit aus, schlicht zu teuer
Dank eingebautem FXAA.Wechsler schrieb:Und auf Röhrenmonitoren völlig unnötig.
Plonktroll
Lt. Commander
- Registriert
- Dez. 2022
- Beiträge
- 1.175
wie schon geschrieben das Ding war ein Speicherkrüppel und so laut wie ein Airbus,
ich hatte damals ne 3870 X2 und zwei 9600 GT im SLI und ja es hat mir gefallen (sehr)
ich hatte damals ne 3870 X2 und zwei 9600 GT im SLI und ja es hat mir gefallen (sehr)
Mega-Bryte
Lt. Commander
- Registriert
- Aug. 2016
- Beiträge
- 1.430
In dem Artikel sind widersprüchliche Speichertaktraten angegeben, kann das bitte jemand erklären, danke?!
1. Satz:
GX2: Speicher 1512 MHz
GTS: Speicher 1625 MHz
2. Satz:
GX2: Speicher 1000 MHz
GTS: Speicher 970 MHz
Was stimmt denn jetzt?
Robert schrieb:Die Taktraten der GeForce 9800 GX2 indes fielen in Relation zur GeForce 8800 GTS 512 mit 600 zu 650 MHz beim Chip und 1.512 zu 1.625 MHz beim Speicher etwas geringer aus. Pro GPU standen 512 MByte GDDR3-Speicher zur Verfügung – dieser wurde mit 1.000 MHz (anstatt 970 MHz bei der 8800 GTS 512) angesprochen.
1. Satz:
GX2: Speicher 1512 MHz
GTS: Speicher 1625 MHz
2. Satz:
GX2: Speicher 1000 MHz
GTS: Speicher 970 MHz
Was stimmt denn jetzt?
Pitlord
Ensign
- Registriert
- Dez. 2011
- Beiträge
- 197
Im ersten Satz war vermutlich Shadertakt gemeint, im zweiten Satz der Speichertakt.
So steht es auch in der Tabelle.
BTT: Das Hardwaredesign der Karte finde ich immernoch ziemlich beeindruckend. Die Sandwichbauweise mit der kompletten Metallverkleidung wirkt sehr wertig und hat sich von den bis dato bekannten Multi-GPU Karten wirklich abgehoben. Ansonsten war 9800GX2 leider auch zu laut und zu heiß, wie die meisten Multi-GPU Karten.
So steht es auch in der Tabelle.
BTT: Das Hardwaredesign der Karte finde ich immernoch ziemlich beeindruckend. Die Sandwichbauweise mit der kompletten Metallverkleidung wirkt sehr wertig und hat sich von den bis dato bekannten Multi-GPU Karten wirklich abgehoben. Ansonsten war 9800GX2 leider auch zu laut und zu heiß, wie die meisten Multi-GPU Karten.
Mega-Bryte
Lt. Commander
- Registriert
- Aug. 2016
- Beiträge
- 1.430
OK, soweit hab ich nicht mehr um die Ecken gedacht.Pitlord schrieb:Im ersten Satz war vermutlich Shadertakt gemeint, im zweiten Satz der Speichertakt.
So steht es auch in der Tabelle.
...
"Zu laut" ist nie (m)ein Problem gewesen. Ich hab einfach die Anlage lauter gedreht bzw. fast immer mit Kopfhörer gezockt.Pitlord schrieb:Ansonsten war 9800GX2 leider auch zu laut und zu heiß, wie die meisten Multi-GPU Karten.
Meine ganzen SLIs waren nie leise, die 3 8800GTX + 8800GT für PhysX haben ordentlich gefaucht, 3Way- später 4Way-SLI GTX285, 4Way GTX Titan, Quad-SLI GTX 590 ... immer Lüfterkurve ab 50°C auf 100% Lüfterdrehzahl.
Mit Kopfhörer oder lauter Anlage spürt man da nur noch den Durchzug der (aufgeheizten) Luft im Zimmer. ^^ Die Systeme sind mit Netzteilen mit 1000W oder auch 1500W ausgestattet gewesen. Davon bis zu 1200W nur für die Grafikkarten. Und dann noch die 5 Monitore ... Maximum bei GeForce bzw. 9 Monitore bei dem Setup mit den Quadros ... von maximal 16 möglichen. Der Stromzähler hat schon zu kämpfen gehabt. Den hat man aber zum Glück nicht gehört.
Mit zu laut sehe ich das ähnlich.
Wie laut meine Kiste damals generell meistens war ist heute fast nicht mehr nachvollziehbar.
[Die ganzen Lüfter in meinem Antec 900 liefen - dank meiner damaligen Blödheit was einzustellen - alle auf vollem rums sobald der Kasten an war -> Auf der anderen Seite viel mir die Lautstärke im vergleich zu vorherigen Geräten nicht negativ auf, soweit ich mich erinnern kann.]
Wie laut meine Kiste damals generell meistens war ist heute fast nicht mehr nachvollziehbar.
[Die ganzen Lüfter in meinem Antec 900 liefen - dank meiner damaligen Blödheit was einzustellen - alle auf vollem rums sobald der Kasten an war -> Auf der anderen Seite viel mir die Lautstärke im vergleich zu vorherigen Geräten nicht negativ auf, soweit ich mich erinnern kann.]
Zitterrochen
Commodore
- Registriert
- März 2011
- Beiträge
- 4.195
Sprach er mit seiner 4090GERmaximus schrieb:Und die 4000er Serie lasse ich derzeit aus, schlicht zu teuer
Mega-Bryte
Lt. Commander
- Registriert
- Aug. 2016
- Beiträge
- 1.430
Wakü war bei GPUs nicht so meins. Die ganzen Schläuche und Verbinder ... bei den bis zu 2 CPUs im System hab ich AIO-Waküs verbaut, damit deren Abwärme nicht das Cass aufheizt. Im Rendering durchaus von Vorteil. Beim Zocken eher zu vernachlässigen, da die E5-2667v2 gerade mal mit 130W angegeben sind und beim Zocken eh nie alle Cores am Limit waren.
Lohnt sich eigentlich mal wieder ein aktuelles System? Gibt's neue Spiele oder tritt die Branche immer noch auf der Stelle? Dieses ganze Ingame-Kaufen kotzt mich so massiv an, daß ich mir seit locker 5 Jahren nix mehr gekauft habe!
Lohnt sich eigentlich mal wieder ein aktuelles System? Gibt's neue Spiele oder tritt die Branche immer noch auf der Stelle? Dieses ganze Ingame-Kaufen kotzt mich so massiv an, daß ich mir seit locker 5 Jahren nix mehr gekauft habe!
Ähnliche Themen
- Antworten
- 134
- Aufrufe
- 15.173
- Antworten
- 99
- Aufrufe
- 19.786
- Antworten
- 48
- Aufrufe
- 11.547
- Antworten
- 110
- Aufrufe
- 29.087