News ATi Radeon X1950 XTX: Ein Rückblick auf die letzte XTX-Grafikkarte von AMD

Vitali.Metzger schrieb:
400€-500€ für eine High End Karte das waren noch Preise. Heute kostet eine 1080ti mal locker das doppelte :freak:

Zielinflation liegt ja bei etwa 3%, in 11 Jahren kommen wir dann aufs insgesamt 100*(1,03)^11 = 138,4 %.

Die relativ niedrigen 400 Euro wären somit heute: 553,60 Euro,
die mind. 500 Euro für die Top nVIDIA-Karte: 692 Euro.

Aktuell kostet eine 1080Ti mind. 769 Euro, oder 11% mehr, dies während eines Mining-Booms und während es keine High-End alternative von der Konkurrenz gibt.

Hätte schlimmer kommen können wenn man mich fragt :P
 
Herdware schrieb:
Das war damals das Gesamtsystem, heute schafft das eine Grafikkarte allein. :)

Na ja das muss man immer relativ sehen.

Im Gegensatz zu damals leisten die Karten aber auch deutlich mehr. Man schau sich nur mal die 374 GFLOPs der X1950XTX an. Eine EVGA 1080 Ti hat z.B. 12.064 GFLOPs und 377 GFLOPs (Double). Die ist also um den Faktor 32 schneller also rund 45.000% schneller. Dabei kostet sie aber nur rund ~50% mehr und verbrauch wenn es hoch kommt 2,x mal so viel wie AGP (43,04 W) mit Zusatzstecker (110,5 W/Stecker).
 
Sliskovic schrieb:
Ja , weil man heutzutage einfacher mehr Geld kriegt als damals.

Also ich verdiene nicht das Doppelte wie vor 11 Jahren :eek:
 
Top mehr von den Rückblicken! :)
 
Zwar kommt man an die Leistung einer einzelnen GeForce 7950 GX2 nicht heran...

Das stimmte zwar noch 2006, in den Monaten und Jahren danach wurde die X1950XTX durch Treiberoptimierungen aber immer schneller und lag häufig deutlich vor der 7950GX2, die 7900GTX wurde gar um 50% und mehr geschlagen. Unter anderem hier zu sehen: https://www.computerbase.de/2007-05...-xt/32/#abschnitt_performancerating_qualitaet

Damals war die Karte für mich leider unerschwinglich, aber mittlerweile habe ich sechs Stück ( vier davon als CF Edition) :D
 
pmkrefeld schrieb:
Zielinflation liegt ja bei etwa 3%, in 11 Jahren.......
Etwas hoch gegriffen, wenn du mich fragst. Die Preissteigerung liegt laut Verbraucherpreisindex bei 15,5% seit dem Jahr 2006.
 
Raucherdackel! schrieb:
...der geringe Speicher von 320MB (die 640GB Version war unbezahlbar) machte der Karte damals schon zu schaffen...

Naja. Mir sind nie größere Probleme aufgefallen, wenn ich mit der 8800GTX auf 1920x1200 (Ergänzung: ich hatte mir schon 2005 einen großen LCD geleistet :) ) gespielt habe. Gegenüber dem, was meine vorhergehende X850XT (Ergänzung: mit nur 256MB) geschafft hatte, war das durchweg ein unvergleichlich besseres Spielerlebnis.

Aber man (bzw. ich und wohl auch die meisten anderen) war damals natürlich auch längst nicht so verwöhnt und sensibel wie heute, was z.B. konstante Frametimes und kurzzeitige FPS-Einbrüche angeht.
Man bedenke, viele saßen damals noch vor oft minderwertigen/"billigen" Röhrenmonitoren, bei denen man froh war, wenn man nicht vom Flimmern Kopfschmerzen bekam, die alles verzerrt und verwaschen darstellten usw.
Ich meine, ich komme aus 8Bit-Zeiten, als holprige 10 FPS noch als Maßstab für "flüssige Animationen" galten und ein ausrangierter alter Fernseher als Monitor herhalten musste, angeschlossen über RF. :lol:

Rückblickend war vieles, was damals absolute Spitzenklasse war, ziemlich mangelhaft. Viele Probleme gerieten erst nach und nach ins Blickfeld.
Wie gesagt, Frametimes hat damals niemand groß beachtet. Höchstens ein paar "Freaks". Auch z.B. Verbrauch und Lautstärke wurde in Reviews bestenfalls in einem kurzen Satz allgemein abgehandelt. Da mussten erst einzelne Karten (z.B. GeForce FX, HD2000, GTX480) kommen, die wirklich ohrenbetäubend waren und in deren Abluft man sein Essen kochen konnte, um langsam ein Problembewusstsein zu schaffen.

Und irgendwann war das Niveau dann halt auch mal so hoch, dass plötzlich kleine Details wichtig wurden, die vorher keinen gekümmert haben.

Cool Master schrieb:
Na ja das muss man immer relativ sehen.

Keine Frage. Die Hardware von heute ist in geradezu lächerlicher Weise effizienter. Aber das gilt auch für die Kühler, weswegen wir beim Verbrauch höher gehen können, als damals möglich, ohne sein Gehör zu verlieren.
 
Zuletzt bearbeitet:
Drei Monate später erschien mit der Nvidia GeForce 8800 GTX dann allerdings bereits ^^

und dann kam crysis :O da hät ich mal wieder bock drauf^^ ob das immernoch so gut aussieht wie in meiner Erinnerung?
 
@Herdware

Gut meine X1900XT und derren Nachfolger, die 8800 GTX, waren beide auf Wasser. Aber ja die Aussage stimmt natürlich :)
 
Gute Zeiten.

Habe mir damals eine X1900XT mit Standardkühler gekauft, man war das Ding laut^^ Gleich durch einen guten AC Kühler ersetzt..
Lief in Kombination mit einem AMD Athlon 64 X2 6400+ alles suppi :D

X1900XT - HD3870 - HD6950 (bzw. 560Ti nach RMA) - R9 290X und nun (leider) GTX1070 FTW, inzwischen zum zweiten mal in RMA... Wäre ich lieber bei AMD geblieben. Die Fury X gab es zum Kaufzeitpunkt für ca. 400€ :/
 
herdware schrieb:
Aber man (bzw. ich und wohl auch die meisten anderen) war damals natürlich auch längst nicht so verwöhnt und sensibel wie heute, was z.B. konstante Frametimes und kurzzeitige FPS-Einbrüche angeht.
Man bedenke, viele saßen damals noch vor oft minderwertigen/"billigen" Röhrenmonitoren, bei denen man froh war, wenn man nicht vom Flimmern Kopfschmerzen bekam, die alles verzerrt und verwaschen darstellten usw.

ähm, nein, nicht wirklich, denn die Frameausgabe war damals generell konstanter. Dass damals schon darauf Wert gelegt wurde, zeigte ja schon die schnell aufkommende Mikroruckler Diskussion, die dann zu den breiten Frametimes Messungen führte. Vor dieser Zeit hieß es halt: Spiel X ist mit 30 fps gut spielbar oder Spiel Y braucht minimum 50 fps...

Solche Themen wie Input Lag gab es mit den analogen Röhren nicht, da die ja quasi Lag frei arbeiten, und die damalige Technologie von CPU und GPU nutze mangels hohen Takt sehr niedrige Timings, was sich wiederum sehr positiv auf die Bildausgabe auswirkte.
 
ATI hatte NV mit der 19XX Generation mächtig zugesetzt und ich kann mich in dem Zusammenhang an manch leidenschaftliche Diskussionen hier im Forum erinnern. Die X1950 XTX war bei mir vor allem deswegen nicht lange im Rechner, da NVs Karten mit den ganzen Doom & Quake Mods deutlich besser klar kamen.
 
War die 1950 Serie nicht sogar auch die Letze wo es eine All in Wonder gegeben hat ?
 
Raucherdackel! schrieb:
.....aber der geringe Speicher von 320MB (die 640GB Version war unbezahlbar) machte der Karte damals schon zu schaffen, und der Speicher Bug führte dazu, dass nach wenigen Minuten spielen die Karte ruckelte. Erst die 9800GT war vom Bug befreit. Der 680MB RAM der 88GTX lief übrigens auch recht zügig voll und war für längere Spielesessions eigentlich ziemlich unbrauchbar.

Einspruch: die 8800GTX hatte 768MB VRAM. Und diese hatte keine Probleme, meinen damaligen Monitor zu füttern (war schon recht hoch auflösend). Du meinst die GTS-Varianten. Hier war die 320MB-Variante imo unbrauchbar.

Zur Bildqualität kann man sagen, dass diese erstmals mit der 88xx besser wurde. Nvidia hat da das cheaten aufgehört, wenn ich mich recht entsinne.
 
Ach ja die gute alte 1950XTX, die bis heute teuerste Karte die ich je gekauft habe :D
Man das waren noch Zeiten, ich werde alt...
 
meine erste war eine NV FX 5200 , bin ich alt? :D
 
Wenn ich mir meine bisherigen Grafikkartenhistory anschaue merke ich auch wie alt ich bin :eek:
Geforce 2, Geforce 4600Ti, Radeon 9700 Pro, Radeon 850 Pro, Radeon 1900XT, Radeon 4870, Geforce 670 GTX, als nächestes ev. Vega(?)
 
Nein Jan, alt bist du erst, wenn du mit in einer ATI EGA-Wonder gestartet bist :D

Edit bzw. noch weißt, dass der Amiga 500 einfach die besser Grafik und vor allem den besser Sound hatte
 
Zurück
Oben