Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIm Test vor 15 Jahren: Platz da, hier kommt die GeForce 8800 GTX
Ich hab mir damals auch nur die GTS- Version gegönnt, aber auch die hat hat mich viele Jahre begleitet.
Wenn ich mich richtig erinnere, wurde sie dann irgendwann von der Geforce 460 abgelöst, welche zum damaligen Zeitpunkt auch ein Kracher war.
Ergänzung ()
The Professor schrieb:
Ich hatte damals eine und 580€ taten so dermaßen weh. Heute zahlt man fast ohne zögern 1400€ für ne Mittelklasse 3080...
Aber die 8800GTX hat sich lange in meinem PC gehalten, das war eine Karte vom Typ Quantensprung. Wirklich beachtlich, was NVIDIA da raus gebracht hatte.
Eine 3080 als Mittelklasse zu bezeichnen, naja, ist schon ein etwas besseres Stück Hardware.
Und was den Preis betrifft: nur die Leute, die es wirklich benötigen, geben solche Summen aus.
Oder unwissende Eltern, die ihrem Nachwuchs etwas Gutes tun wollen, neulich erst erlebt.
Aber ich habe mich da raus gehalten, der Sohnemann war der Meinung, seine derzeitige Graka 1660 müßte ersetzt werden, weil er bei Fortnite ein paar Ruckler hatte.
Zumal: meist spielt er garnicht das Spiel an sich, sondern chatet da.
Solang die Preise noch derart abgehoben sind, werde ich meine 1070ti noch weiterhin betreiben.
Ich kann ohne Raytracing leben, und Grafik ist nicht alles.
Spielspaß muss aufkommen, und das, was ich zur Zeit spiele, stemmt die Karte noch locker genug.
Nicht lachen jetzt, ich hab die Splinter Cell Trilogie jetzt wieder angefangen zu spielen.
Da ruckelt nix, und ja, es sieht vielleicht heut nicht mehr wirklich atemberaubend aus, aber Spaß macht es mir
persönlich immer noch und: nach mehr als 15 Jahren weiß ich endlich, wie man den Atem anhält, um ein bißchen besser zu snipern
...ein Meisterwerk des Beschisses von NVIDIA. Und die Gamerwelt drehte durch hypte alle Karten dieser Serie in den unverdienten Himmel.
Wie schon vorher hier im Thread angesprochen, litt die komplette Serie unter einem VRAM-Bug, was die Spieler bei längeren Sessions dazu zwang, das Spiel zu beenden und neu zu starten. Aber egal, die Karte hat Leistung.
Außerdem war das Bild im Vergleich zur Konkurrenz unscharf. War zwar gut wenn man 1024x768 er Auflösung fuhr. Aber in 1440x900 war schon eine erhebliche Unshärfe da, vor allem wenn man noch Antialiasing benutzte. Danke NVIDIA für das schlechte LOD!
Aber hey, dafür lobten die Redakteure, dass NVIDIA endlich den Beschiss mit der Anisotropischen Filterung bei den Vorgängerversionen aufgab. Und interessanterweise fingen dann viele Redakteure, die NVidia wegen der Bildqualität nicht rügten, plötzlich damit an, bei AMD deren nicht perfektes AF zu monieren.
Ich verweise hierzu auf den großen Bildqualitätsvergleichtest von Computerbase mit Half-Life 2.
Die Karte war stark, ohne Frage, und bis zur HD3870 ohne Konkurrenz (2 Jahre?), weil die HD2900 irgendeinen Hardwarefehler hatte, der Leistung kostete. Aber diese Generation war nur so stark, weil sie die Leistung auch mit gestiegenem Verbrauch erkaufte.
Klingt heute wie das Schlaraffenland: "Zwar fällt der Preis mit 600 Euro sehr hoch aus, jedoch ist die GeForce 8800 GTX allen anderen 3D-Beschleunigern zweifellos ein gutes Stück voraus und zudem werden bei guter Verfügbarkeit die Preise relativ schnell sinken."
600€ für das TOP Modell. Da liegen wir heute 3x drüber. Mindestens...
Mein Bruder hatte damals zwei 8800GTX bei sich in Rechner.. Der brauchte im Winter keine Heizung und im Sommer hätte er sich in seinem Zimmer einen Aufguss machen können..
Der Beginn meiner Zeit hier bei Computerbase. 😋 Weckt schöne Erinnerungen!
Für mich wurde es damals "nur" die 8800GTS mit 640mb obwohl ich zunächst die neue 8800GT hatte, welche aber zurückgeschickt wurde.
Wenn mich nicht alles täuscht habe ich sie später an @Brigitta verkauft.
Diese Grafikkarte war super heiß und hat nicht ensprechend der Leistungsaufname geliefert. Und der Preis war für ein Produkt welches wegen Spannungsrissen der Lötstellen welche bereits nach 1 Jahr fertig waren völlig übertrieben. 500€ für gerade mal 45 -70Fps in Farcry 2. 2x 8er PCI-E 300W + 75W PCI-E Mobo... Heizung konnte im Winter ausgeschaltet werden.... Insgesamt die schlechteste Grafikkartengeneration von Niwida!°!!!!
Das was damals von Nvidia und AMD auf den Markt kam, war über dem was jedes PCB und Lötstelle als auch RAM vertragen kann. Grundsätzlich sind Grafikkarten welche mit default Kühler zu heiß laufen und jeden High-End Kühler ausreizen, quasi Versuchskarten ( Chips ) bei denen der Kunde unausgereifte Technik doppelt und dreifach zahlt!!!
@Winxer komisch hatte keine Probleme und ist meiner Meinung einer der besten Generationen. Vor allem haben sie alle Architekturen über den Haufen geworfen. Deswegen hat sich bei amd dann auch alles verschoben.
Ich hatte ebenfalls "nur" die 8800GTS, war aber lange und gut zufrieden damit. Leider ist sie mir irgendwann abgeraucht, was aber bei den Temperaturen, die sie in Games produziert hat, im Nachhinein nur eine Frage der Zeit war.
Mein Eindruck war übrigens immer, dass sie insgesamt ein schlechteres Bild als die AMD-Karten produziert hat. Das hat mich damals nicht sehr gestört, aber als ich wieder auf AMD gewechselt habe, war es durchaus zu sehen. Wenn ich mich recht erinnere, war das damals auch ein großes Thema, weil Nvidia beim Antialiasing und anderen Bildverbesserungen "nachgeholfen" hat.
@DeathDealer Ja, das war die letzte Niwidakarte die ich für teuer Geld gekauft habe, weil die Enttäuschung doch sehr groß war. Damals war der Strom auch noch nicht so teuer wie heute. Aber es gab damals auch sehr viele Notebooks mit GPUs dieser Serie und die sind oftmals wegen Lötstellen welche gerissen sind ausgefallen. Jedem der das nicht hatte, kann ich nur sagen: Glück gehabt...
@Boimler Das schlechte Bild kann ich nur bestätigen!!!
Was mich heute immernoch bei den neuen Grafikkarten zurück hält vom kauf, egal welcher Hersteller ist einmal der Preis für unausgereifte Technik und weil die Miner alle Karten aufkaufen. Effektiv sind die Karten auch nicht.. Erkennbar an 2x 8er PCI-E Power.... Und marginal mehr FPS...
Man muß halt bedenken das 300W auch gekühlt werden wollen. Die Restlichen 50W für den Ram vom Mobo kann man vernachlässigen. Wenn es überhaupt soviel ist.
Aber das geht jawohl hoffentlich jedem hier gegen den Strich.. Jedenfalls war die Niwidakarte damals nix als ein Name mit total über jedem Materiallimit vermarktete Karten... Murks eben!
Ich denk einfach weiter: Man zahlt ne Karte einmal und danach zahlt man die laufenden kosten für den Strom und die Reinigung, Wärmeleitpaste ( Pads ) und wenn die Hersteller schlechte Arbeit geleistet haben auch noch für einen besseren Kühler!!!
Das was die Hersteller teilweise an Material einsparen, Spannungswandlern oder einem besseren PCB mit mehr Lagen und einem Bios das dann alles wieder so regelt das keiner etwas bemerkt... Das ist heut der Fall. Die 8800GTX hat immer und nahezu durchgehend ihre 300W durchgeheizt. Es gab damals keine Energiesparmodies.... Aber das Powertarget von AMD heute würde ich mir sehr gern anders wünschen. Also das was geht sind 100% und somit Takt und Leistungsaufname wie beschrieben. Powertarget Erhöhung dient dann auch tatsächlich dem OC... Aber so wie die heutigen Karten laufen ist es die totale verarsche. Die karten laufen nicht default auf defaulttakt 24/7 ohne drosselung....! Einfach nur gämmelkram den keiner gebrauchen kann!!!
Das ist so als wenn deine DSL Leitung bis kann, aber der Hersteller nicht in der Lage ist, es wirklich in einem Zuverlässigem zustand anbieten will oder kann. Also die totale verarsche....
ja das stimmt vergleicht man das ne rtx 3080 mit 3090 dann sind da nur 10 % Leistungsunterschied für nen unverschämten Preis.Damals war das mit ner 8800 gtx ja noch um ein vielfaches anderst als heute gewesen.
Lief bei mir bis zur Demo (oder Beta?) von Battlefield 3. Dabei wurde sie leider zerstört durch einen Treiberbug - war auch nicht die einzige auf der Welt