News Im Test vor 15 Jahren: 249 Euro waren zu viel für die Radeon HD 2600 XT X2

Chilisidian schrieb:
Das entspricht also in etwa der günstigsten verfügbaren 3060
Du meinst die 3050?

SupaKevin schrieb:
Vor 15 Jahren konnte man eine 2 Jahre alte Karte nur noch in einen Office Rechner stecken
Preislich oder von der Leistung her? Letzteres: nö

Chilisidian schrieb:
Das vergessen eben auch viele. Die heutige 3080 für einen Tausender hätte vor 15 Jahren eben nur 750 Euro gekostet und überdauert zwei Jahre. Aufs Jahr gerechnet sind das also 375 Euro. Dafür hat man damals nicht das Topmodell bekommen. Heute krieg man also ganz objektiv gesehen deutlich mehr fürs Geld.
Auch damals musste man nicht jedes Jahr die neue High End Klasse kaufen.

Ayo34 schrieb:
Idle Stromverbrauch > 200 Watt? Auch wenn der komplette PC gemeint wäre, wäre das immer noch ganz schön hoch.
Nicht wirklich, ...
RaptorTP schrieb:
damals gab es kein Idle
... obwohl es auch damals schon den Idle bei CPUs gab. Durch Tools der Mainboard Hersteller ging auch noch mal etwas.
Nur war der Effekt, wenn der Quad-Core von 2,5 auf 2,0 GHz sank nicht so gravierend wie heute.
Die Taktabsenkung bei GPUs war spätestens mit der FX Reihe möglich, aber anscheinend kaum genutzt.

RaptorTP schrieb:
Hab ein Stream geschaut bei dem ein PC aufgebaut wurde. Der zog im IDLE auch ~170W ....
Ja, der eine Golem Redakteur braucht im Leerlauf auch 160W - da frage ich mich aber echt, was da am Rechner falsch läuft.

RaptorTP schrieb:
Wenn es eine Gaming Maschine ist, ja
Naja, muss man denn immer zur 120W CPU greifen oder reicht auch eine kleinere?
 
  • Gefällt mir
Reaktionen: FR3DI, RaptorTP, Eller und eine weitere Person
y33H@ schrieb:
Klick
IMG_20220924_130858.jpg
 
  • Gefällt mir
Reaktionen: FR3DI und NMA
Ich wünsche mir diese Schlagzeile in 15 Jahren:
1949,- waren zu viel für die 4090
 
  • Gefällt mir
Reaktionen: medsommer, Wowka_24, Fyrex und 8 andere
Die Benchmarks zeigen ganz eindrücklich, was damals einfach kaputt war...

Ein Nvidia GeForce 8800 Ultra hat im idle locker mal 100W mehr aus der Steckdose gezogen als eine 2400 XT.

Gut das die Karten seit mittlerweile ca 10 Jahren einen hinnehmbaren Idle-Verbrauch haben. Ein PC der im Idle 150 bis 250W verbraucht ist einfach nur Hölle.
 
Im Test vor 15 Jahren :love: :schluck:

Die ging ja total an mir vorbei. Hatte vorher eine x1950xt und hab für 550€ auf eine XFX 8800 GTX xxx gewechselt. Man waren das noch coole Zeiten und Karten:daumen:
 
  • Gefällt mir
Reaktionen: Porter.12, FR3DI und NMA
leckerbier1 schrieb:
Die ist damals glatt an mir vorbei gegangen. Kann mich nicht an das Modell erinnern. Zu der Zeit war eine 8800GT bei mir verbaut.


Dann bist du in der Zeit gereist, die war zu der Zeit noch gar nicht auf dem Markt. :D
Die kam erst später raus, Ende Oktober, und konkurrierte dann schon mit der Nachfolgergeneration von ATI, den HD3000ern.
War im Nachhinein betrachtet echt ne absurde Zeit. NVidia hat zwar auf dem Papier eine neue Generation auf den Markt gebracht (G8x->G9x), aber erstmal weiter an dem bekannten und guten Namen 8800xxx festgehalten nur um dann später mit dem selben Chip gleich zwei neue Generationen "vorzugaukeln", und ATI/AMD hat dem GPU-Namen nach in der selben Generation einen preisgünstigen "Refresh" rausgebracht (R600->RV670), dafür aber einen neuen Name gewählt weil der alte ja ziemlich verbraucht war.:D
Dass man den G92(b) dann in eine 8800GS, 8800GT, 8800GTS, 9800GT, 9800GTX, 9800GTX+, 9800GX2, GTS240 und GTS250 steckte setzte dem ganzen dann die Krone auf...

Hachja, was war das damals ein "Skandal", dass man von nVidia beim Namen so verarscht wurde. Mit der Vorstellung der 4000er im Hinterkopf sehnt man sich nach solchen "Skandalen" zurück.



3faltigkeit schrieb:
Glaub erst mit der HD4000 konnte ATI wieder aufholen und mit der HD5000er überholen.


Das kommt ein bisschen drauf an wie man an die Sache herangeht. Schon mit den HD3000ern war ATI wieder auf Augenhöhe mit den Karten mit denen man es sein wollte, die HD3870 war etwas langsamer, aber auch etwas günstiger als die direkte Konkurrenz 8800GT. Was man da gekauft hat war Jacke wie Hose und eher abhängig von der Liefersituation, beide konnten die Nachfrage wenn ich mich recht entsinne kaum stillen. Gegen die 8800GTX/Ultra oder 9800GTX hatte man aber trotzdem keine Konkurrenz, wenn man von der HD3870X2 mit all ihren Problemen absieht. Aber mit den HD4000ern sah es dann auch nicht wirklich anders aus: die Karten waren alle richtig gut und konnten mit der direkten Konkurrenz mithalten, aber "darüber" gabs halt noch die Dickschiffe von nVidia.
Aber mit den HD5000ern konnte ATI/AMD dann tatsächlich für eine Weile die Leistungskrone zurückerobern und hatte auch nach dem Release von Thermi im Gesamtpaket die DEUTLICH bessere Karte.


Zum Thema: war insgesamt eine spannende Zeit. Gab doch viele eigene Projekte der Hersteller, nicht nur von Sapphire und auch mit nVidia-GPUs, oder? Hat Asus nicht auch später noch ein Modell mit sogar 3 RV670ern geplant? Generell ging es ja von R600 bis RV770 ja Schlag auf Schlag, mit dem ganzen Namenschaos und dem gefühlt ersten Mal dass es einen Trend zu effizienteren Karten gab war das schon super unterhaltsam. Damals als Schüler waren die großen Chips völlig außer Reichweite für mich, deshalb ist es für wenn ich mich recht entsinne schmale ~120€ eine 9600GT geworden, die man auf 8800GT-Niveau übertakten konnte. Meine einzige nVidia bis heute...
 
  • Gefällt mir
Reaktionen: axi, Wowka_24, Draco Nobilis und eine weitere Person
Die 8800 GTS 320 war damals das, was heute die 4080 mit 12 GB Speicher ist. Damit wäre der Preispunkt für die 4080 12 GB festgelegt - etwa 350 €, bedenkt man die Inflation.
 
  • Gefällt mir
Reaktionen: Wowka_24, Fyrex, Coeckchen und eine weitere Person
25Plus schrieb:
wäre der Preispunkt
Ich sag es nur ungern, aber die Chips sind massiv größer geworden.
Das 1.000€+ auch in meinen Augen völlig übertrieben ist, ist eine andere Sache. Daran können aber nur die Kunden etwas ändern, wenn man halt zur kleineren, günstigeren Karte greift.
 
  • Gefällt mir
Reaktionen: FR3DI
Sowas war damals natürlich nicht konkurrenzfähig bei den starken Nvidia g80 Karten. Heute hätte ich gern eine solche Karte in der Sammlung.

Hat jemand noch soetwas bei sich liegen ? Egal ob defekt oder mit Funktion.
 
@andi_sco
leider sind auch die kleineren Karten immer noch nicht "günstig". Während man eine 6800 schon für 550€ (inkl Steuern) in den USA kriegen kann, muss man hier noch immer 700€+ hinblättern
 
Aus technischer Sicht, ist die Karte interessanter als eine Single GPU-Karte. Wenn man heutzutage einen Vintage PC haben will, will man darin auch möglichst exklusive Hardware und wenn sich darum Legenden bilden, umso besser. Eine Highend Karte von damals ist nur schrecklich langsam im Vergleich zu einer Mittelklasse Karte aus der Zeit, die furchtbar langsam ist.
Ich würde in einem Vintage PC möglichst Sachen verbauen, die ein schlechtes Preis-/Leistungsverältnis hatten und selten waren und Hardware meiden, die jeder hatte. Die Leistung spielt bei alter Hardware keine Rolle. Das ist nur bei neuer Hardware wichtig, die nicht zum Sammeln angeschafft wird.
 
deo schrieb:
möglichst exklusive Hardware
Die mittlerweile aber auch gut kostet. Jedenfalls sind die Preise bei ebay teilweise horrend.
 
Die erwähnte 8800 GTS 320 war ein reiner Benchmark Blender. Wenig VRAM und dazu noch den Bug, dass sich der VRAM nicht leerte und nach einigen Minuten die Karte vor sich hinruckelte. Aber egal, damals ging kein Tester darauf ein. Ebenso wie die unscharfe Kantenglättung, Da war AMD erheblich schärfer.
 
Habe ich

IMG_20191129_183807.jpg
IMG_20191129_183819.jpg
 
  • Gefällt mir
Reaktionen: 0laf, FR3DI, axi und 7 andere
LTT hat eine Beispielrechnung (inflationsbereinigt) für die 4090 gemacht wonach diese heute maximal 900 USD kosten dürfte. Davon sind wir leider weit entfernt, aber das Gejammere bringt nichts solang genügend Menschen dafür bezahlen. Die Zeiten sind aber vorbei wo man für 500€ eine geile Karte bekommen hat.
 
  • Gefällt mir
Reaktionen: n8mahr, Corpus Delicti, andi_sco und eine weitere Person
@ssh
Nvidia hat halt ein fast Monopol. Wenn man sich alle Hardwarestatistiken ansieht die es so gibt, dann kratzt AMD ja nichtmal an deren Monopol. Bei Steam kommen auf 100 Nvidia Karten zwei bzw. drei AMD Karten
 
  • Gefällt mir
Reaktionen: Wowka_24
Lumiel schrieb:
249 Euro und dann redete man noch von zu teuer.
Heute wären das ca. 450 - 500€, wenn man die Inflation miteinberechnet, also auch relativ teuer. ;)
 
Zurück
Oben