News ATi Radeon X1950 XTX: Ein Rückblick auf die letzte XTX-Grafikkarte von AMD

1900XT@XTX Takt; Später sogar unter WaKü.
war meine erste und letzte:
- neu gekaufte Grafikkarte (danach nur noch gebraucht)
- WaKü

:D

edit: man, waren das noch Stromverbräuche :D
 
Kein Mensch zwingt dich den Bericht anzuklicken geschweige denn zu lesen!
Mir gefällt die Rückblende richtig gut!

Danke! Ich denke, das (erwartete) positive Feedback gibt dem Inhalt recht. Wenn's um Click gegangen wäre, wäre der Titel übrigens eher: "Radeon RX Vega: Benchmarks zur letzten XTX-Grafikkarte von AMD". Damit Auch Vega + Benchmark für Google im Titel steht...
 
DarkerThanBlack schrieb:
Ergänzung ()

War nicht eine HD7970, die früher auf dem Markt kam, schneller als eine GTX680 ?

Sie ist aktuell schneller durch mehr Speicher. Außerdem gab es 2 Varianten die GHz Edition die auch zum damaligen Zeitpunkt fast gleich auf war und als Konter zur 680 kam und die normale die ein 3/4 Jahr früher da war.
 
Hatte damals eine X1900XT von Sapphire.

Aktuelle Gerüchte besagten ja bis zu 375 Watt bei der Gaming Vega was mir einfach zu viel ist. Daher werde ich wohl eher in Richtung 1080 Ti gehen wird. Wird aber natürlich alles eine Preis- und vor allem Leistungsfrage.
 
Hach ja, das waren Zeiten.

Ich hatte damals einen Athlon XP 2400+ mit einer AMD X850XT.
Leider hat in so gut wie jedem Spiel die CPU gnadenlos limitiert. Es war einfach standard, dass sie konstant 100% Auslastung hatte.
Mit dem System hab ich sogar noch Oblivion und Crysis ! gespielt. Ja, Crysis 1 lief damit tatsächlich mit ca. 15 FPS auf niedrigster Detailstufe. Ich konnte mir sogar ansehen, wie hohe Details aussahen, dann wars allerdings nur noch eine Diashow.

Mitte 2008 gabs dann endlich ein neues System bzw. den ersten Gaming Rechner.

E8400 + 8800 GTS 512 mit G92 Chip.


Heilige Schieße, war das geil. Die ganzen DX10 Techdemos, dann die Grafik von Crysis usw. Man konnte förmlich 5-10 Jahre in die Zukunft blicken.

Die X1950XT war zwar ein Monster für damalige Verhältnisse, aber nen wirklichen Sprung haben erst die DX10 GPUs dank Unified Shader gemacht.
 
Jetzt fehlt nur ein Rückblick auf Karten mit einem 'L' in der Bezeichnung und wie viel Verlust an Leistung zu der jeweils Hauptversion und HighEnd-Version bestand.
 
Ich bin damals von einer x1800xt auf eine 8800GTX umgestiegen. Drei Wochen später kam die 8800gt mit der selben Leistung für den halben Preis auf den Markt... Das bleibt auf jeden Fall im Gedächtnis.
 
Gab es nicht auch eine 2900XTX und nicht nur 2900XT ?
 
Laggy.NET schrieb:
Mitte 2008 gabs dann endlich ein neues System bzw. den ersten Gaming Rechner.
Dein Vorgänger-System hört sich aber auch nach einen Gamingrechner an nur halt aus ca. 2005
 
luckysh0t schrieb:
Gab es nicht auch eine 2900XTX und nicht nur 2900XT ?

Die 2900XTX kam leider nie, da die XT ja schon zu heiß und strom hungrig war. War nicht die glorreichste Entwicklung seitens AMD.
 
Bitte löschen
 
Sehr netter Rückblick, hatte die 1950 XTX von Sapphire damals nach meiner 9800Pro gekauft. Heute steht sie in meiner Glasvitrine.
 
Sliskovic schrieb:
Ich habe doch das Recht auf meine eigene Meinung.
OK. Hab' ich auch. Intel CPUs sind lahmarschig, nVidia GPU reinste Stromfresser und Heizungen und BlinBling auf Mainboards steigert das OC Potential. Ganz zu schweigen von meiner steinalten Kugelmaus die jede, noch so teure Highend Gaming Mouse in der Präzision schlägt. Nur meine Meinung ;)



Laggy.NET schrieb:
E8400 + 8800 GTS 512 mit G92 Chip

Heilige Schieße, war das geil. Die ganzen DX10 Techdemos, dann die Grafik von Crysis usw. Man konnte förmlich 5-10 Jahre in die Zukunft blicken.
.
:cheerlead:



charmin schrieb:
Ich bin damals von einer x1800xt auf eine 8800GTX umgestiegen. Drei Wochen später kam die 8800gt mit der selben Leistung für den halben Preis auf den Markt... Das bleibt auf jeden Fall im Gedächtnis.
Das ist das typische nVidia Melk-System. Leistungskrone für königliche Preise und n halbes Jahr später annähernde Leistung zum Volkstarif ;)
 
Das war tatsächlich meine letzte ATI / AMD Karte... der Lärm erinnerte damals an ein startendes Flugzeug... aber ich habe sie geliebt!
 
Burner87 schrieb:
Wahnsinn: Damals erschienen einem 280 Watt Verbrauch als hoch, heute lächelt man müde.

Das war damals das Gesamtsystem, heute schafft das eine Grafikkarte allein. :)

Besonders interessant finde ich in dem Zusammenhang, wie ineffektiv die damaligen Grafikkartenkühler waren. Diese alten Dual-Slot-Blower sehen auf den ersten Blick auch heute noch sehr leistungsfähig aus, waren aber mit den aus heutiger Sicht sparsamen Karten von damals schon ziemlich an ihren Grenzen und fast immer ekelhaft laut.
Heute werden Grafikkarten (meist) leiser im Griff gehalten, obwohl die nahezu das Doppelte an Abwärme produzieren. Man schaue sich z.B. nur den eleganten Kühler der Vega FE an, gegenüber dem unförmigen Brocken der 1950XTX.
 
der "Nachbrenner" damals ...

hatte ich nem Kumpel verbaut, war mir zu teuer.

Hab sie jetzt als Sammelobjekt hier für nen Päckchen Kippen bekommen
 
Herdware schrieb:
"Fazit: Die Beste High-End-Grafikkarte für DirectX 9"

Der Titel wäre beeindruckend, wenn nicht ein paar Wochen später die 8800GTX gekommen wäre und alle DX9-Karten total deklassiert hätte. (Z.B. in 1600x1200 mit AA über 60% schneller als die X1950 XTX.)
Die hat sogar Dual-GPU-Karten aus der Vorgängergeneration gnadenlos abgehängt. :D

Ich habe meine alte 8800GTX noch rumliegen. Zusammen mit dem C2D war die damals ein absolutes Monster-Gespann. Ob wir wohl jemals wieder solche Leistungssprünge sehen werden? *seufz*
ähm... nein, nicht wirklich. In Benchmarks war die erste Generation der 88er GTX zwar meilenweit voraus, aber der geringe Speicher von 320MB (die 640GB Version war unbezahlbar) machte der Karte damals schon zu schaffen, und der Speicher Bug führte dazu, dass nach wenigen Minuten spielen die Karte ruckelte. Erst die 9800GT war vom Bug befreit. Der 680MB RAM der 88GTX lief übrigens auch recht zügig voll und war für längere Spielesessions eigentlich ziemlich unbrauchbar.

Die X1950 XTX hatte das wesentlich schärfere Bild wenn man mit Kantenglättung spielte. Auch die HD2000 bis hinauf zur HD4000 waren von der Bildqualität wesentlich schlechter.

BTW, für Crossfire musste man damals zwei Karten per DVI verbinden, da gab es eine Kabelpeitsche dafür. Erst ab HD2000 weg kommunizierten die Karten über PCI Express. Und plötzlich gab es Mikroruckler...
 
Candy_Cloud schrieb:
Mit wie wenig VRAM man damals noch auskam...

Ich hatte die 1900 XT mit 256 MB Speicher und die hat auch schon für Oblivion in fast allen Belangen gereicht.
Meine jetzige RX 480 hat 32 Mal soviel Speicher!:freak:
 
Habe noch eine funktionierende NVIDIA DualGPU 7950 von EVGA, jemand Interesse? ;)

P.S.: Wer daran zwei Monitore betreiben wollte musste das SLI lösen.
 
Zuletzt bearbeitet:
Zurück
Oben