Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia GeForce FX 5200: Lesertest zur Bewältigung eines „Kindheitstraumas“
Sieben Varianten der GeForce FX 5200 (Test) messen sich im Benchmark mit weiteren Grafikkarten ihrer Epoche, darunter Nvidia GeForce 4 MX 440 und GeForce 6200 sowie ATi Radeon 9250 und Radeon 9200 SE. Weshalb es dabei vornehmlich um die Bewältigung eines Kindheitstraumas geht, erläutert der Autor in seinem Lesertest.
Das Kindheitstrauma kann ich verstehen.
Die FX-Serie war eh grottig und dann noch das schlechteste vom Schlechtesten.
Ein Kumpel hatte damals auch die Karte in seinem "Gaming-Rechner" die wurde aber schnell durch ne 9600Pro ersetzt.
Ich hatte mit ihr damals ne ganze Weile durchgehalten, zu der Zeit kamen gefühlt alle paar Wochen neue Modelle auf den Markt und da wollte ich auch nicht mitspielen und hätte es auch finanziell nicht gekonnt. Dafür gabs dann massive Kühlung auf der Karte und OC Bios. Damit konnte man es ein wenig aushalten bis ich dann irgendwann auf die HD2900XT ausgewichen bin.
Als vorübergehender Besitzer einer GeForce 4 MX440 schließe ich mich der Selbsthilfegruppe an.
Bitte nicht vergessen - Regel Nummer 1 lautet, kein Wort über die Gruppe zu verlieren
Bruder ich fühle dich.
Ich habe erst 2007 meinen ersten PC bekommen - für 550€. Ich hatte nicht die leiseste Ahnung von PC-Hardware und hatte zuvor nur Konsolen besessen.
Im Markt sagte der Verkäufer, die verbaute GPU sei "sehr gut und total zum Gaming geeignet": es war eine Geforce GS8400. Die letzten 3 Ziffern lassen es erahnen, es war die billigste (?) Lösung der 8000er Serie zu seiner Zeit.
Ich habe FarCry nicht mal auf Minimum zum Spielen bekommen, das frisch rausgekommene Crysis lief im 1-stelligen FPS-Bereich.
Ich war sehr enttäuscht und dachte mir, dass mir das nie wieder passieren wird. Wenig später habe ich angefangen, mich selbst schlau zu machen und bin iWann auf CB gelandet und seit dem hier aktiv ^^
@Toengel
FHD war zu der Zeit (2003) überhaupt kein Thema, der Standardbildschirm war eine 17" Röhre, oder wenn man Geld hatte etwas mit 21" und Röhre. Man hatte 1024x768 (17") oder 1280x1024 (19") oder 1600x1200 (21"). LCD spielten zu der Zeit überhaupt keine Rolle, so wie auch das 16:9 oder 16:10 Format noch nicht etabliert waren. Auch DVI war da noch kein Thema sondern eher VGA per D-Sub 15 oder BNC. DVI war zwar da, wurde aber meist per Adapter zu D-Sub 15 genutzt. Viele Monitore hatten ein fest verbautes VGA Kabel, weshalb man nicht einfach ein DVI zu VGA Kabel benutzen konnte. Du bist der Zeit mind. 3-4 Jahre voraus. LCD waren aufgrund der Reaktionszeiten überhaupt nicht geeignet, nicht mal zum Filme gucken (Darum waren die ersten flachen Fernseher Plasma). Vom Preis ganz zu schweigen.
Ich weiß gar nicht mehr, mit welcher GraKa ich zu der Zeit unterwegs war, könnte eine AMD 9600 oder so gewesen sein. Sicher weiß ich nur noch, dass ich danach eine x1600xt gekauft hatte und danach eine HD3870 (beide von HIS mit dem IceQ3 Kühler, wenn ich mich nicht vertue).
In der Tabelle scheint übrigens ein Fehler zu sein. Das "128 MD DDR" bei der XFX soll doch sicher "128 MB DDR" heißen, oder?
Ich hatte die 4200Ti und dann die 6600GT - die waren preislich auch absolut erschwinglich. Die FX hätte ich mal ganz schnell ersetzt - zumal man beim Kauf des PCs die 50 Euro mit investieren hätte können.
Mein Kindheitstrauma war eine ATI X550 im Familienrechner. Die Karte war einfach mies. Habe dann einen Salto rückwärts auf die 9800Pro gemacht in meinem ersten eigenen Rechner
Es war das erste mal für mich damals, dass ich mir eine kritische Meinung zu Nvidia bildete. Ich hatte eine Geforce 4 Ti 4200. Die FX 5200 klang wie der Nachfolger dieser Karte, war aber durchgängig (viel) langsamer. Was ich einfach nie begreifen werde, ist dass trotz der schieren Masse an Leuten denen es damals wie Sven erging, der Ruf von Nvidia dadurch (und die vielen folgenden miesen Karten mit irreführenden Namen) nie ernsthaft Schaden genommen hat. Der Tenor war, und ist bis heute: "Ja, was soll ich den machen? ATI/AMD sind ja NOCH schlechter."
Manchmal frage ich mich ob nicht in Nvidia's Grafikchips Gehirnwäschegeräte eingebaut sind.
Boah, exakt das gleiche Setup (aber AMD Athlon XP 2600+ statt 2800 wie hier) hatte ich auch als meinen ersten "Gaming" Rechner mit 13(?) Jahren. Damals hat man sich die Hardwarekomponenten und Preise noch anhand der Werbeseiten in der Gamestar, Computerbild o.Ä. rausgesucht
Ahnung von der hierarchischen Einordnung in die Leistungsklasse anhand der letzten 3 Zahlen (FX 5200) hatte ich und auch ein Familienmitglied, welches im Informatikbereich berufstätig ist, damals nicht. Ich hatte ja auch von meinen Eltern ein enges Limit gesetzt bekommen, wenn es denn für mich noch einen Zuschuss zu Weihnachten geben sollte...
Am Ende war die GeForce 4 Ti meines Kumpels trotzdem immer besser...das war echt eine Gurke!
Hatte ne 5600FX war ganz okay, aber hat nicht die Butter vom Brot geholt. Mein Kumpel hatte ne 5900Ultra, das Ding war Bombe und Konte Farcry 1 auf Alles high spielen
Ich hatte zum Glück zu der Zeit eine 9800 Pro im Familienrechner.
Im Zweitrechner 2005 dann (erster selbst-bezahlter PC) hatte ich dann einen 2800+, 512 MB DDR-400 und eine FX 5500.
... war die Grafikkarte ein Schrott, selbst Call of Duty ruckelte, BF42 und Serious Sam SE gingen gerade so.
Die kam da auch nur 60 Euro, aber ich habe sie gehasst, an Far Cry war da gar nicht zu denken.
Der xp 2800 und eine 4200ti war, nach Wochenlanger/Monatelanger Recherche in diversen PC-Magzinen, die erste von mir selbst Ausgewählte Hardware mit der ich meinen PC aufrüsten wollte.
Als die kleine Schachtel des 2800xp unter dem Baum für den noch sehr jungen Baron lag, schaute die verwantschaft etwas irritiert.