Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Im Test vor 15 Jahren: 249 Euro waren zu viel für die Radeon HD 2600 XT X2
- Ersteller Robert
- Erstellt am
- Zur News: Im Test vor 15 Jahren: 249 Euro waren zu viel für die Radeon HD 2600 XT X2
Hm, ich sehe das anders: Der Spiele-Markt ist mittlerweile (zumindest bei AAA-Titeln) weitgehend innovationsfrei. Da kommt noch FIFA 2097 und CoD MW IV Remastered, aber ansonsten war es das.Chilisidian schrieb:Außerdem sind die Zeiten, in denen man jedes Jahr aufrüsten muss, um ordentliche Grafik zu haben, längst vorbei.
Ich würde also sagen, heute ist es deutlich besser.
Ich wünschte, wir hätten aufgrund der veröffentlichten Titel nach wie vor den Bedarf, jedes Jahr aufrüsten zu müssen!
engineer123
Banned
- Registriert
- Jan. 2009
- Beiträge
- 3.783
Im Test vor 15 Jahren stand die ATi Radeon HD 2600 XT X2, die mit zwei GPUs teurer, lauter und langsamer als eine GeForce 8800 GTS 320 war.
mit anderen Worten: sie wurde weg gebutzt.
Spawnkiller
Lieutenant
- Registriert
- Apr. 2001
- Beiträge
- 522
Ich denke Captains Workspace wird bald ein passendes Video zu einer ähnlichen "leistungsfähigen Karte" veröffentlichen.Corpus Delicti schrieb:Man stelle sich das mal heute vor:
2 x RTX-4090 bei bis zu 1200W Verbrauch, 6-Slot-Kühlung für 6000,-€ für den betuchten 4k-144Hz-Raytracing Gamer. (und dann immer noch zu schwach für zB Cyberpunk) Und gekauft würde es trotzdem. ;-)
CDLABSRadonP...
Commodore
- Registriert
- Feb. 2021
- Beiträge
- 4.244
Erhält den Preis für die dämlichste Dual-GPU-Karte der beiden großen Hersteller. Es nicht das bescheuerste DualGPU-Setup, denn es gab manche Notebooks mit zwei Mittelklasse-GPUs.
Realtiv gesehen zu teuer kann alles sein, die 6500 XT ist mit ihren 209€ ja auch zu teuer.Lumiel schrieb:249 Euro und dann redete man noch von zu teuer.
lowrider20
Lt. Commander
- Registriert
- Apr. 2011
- Beiträge
- 1.825
Tja, man hatte damals scheinbar nichts zwischen 2600 XT und 2900 XT. Somit eine Notlösung die schief ging.
Ich musste mich echt am Kopf kratzen... Hatte auch eine 8800GTS und hab keine Erinnerung an eine 2600XTleckerbier1 schrieb:Die ist damals glatt an mir vorbei gegangen. Kann mich nicht an das Modell erinnern. Zu der Zeit war eine 8800GT bei mir verbaut.
damals hätten einen halt User/Käufer für Stromverbrauch und Lautstärke den Vogel gedeutetFR3DI schrieb:Warum hat man das ganze nicht mit zwei "Radeon HD 2900 XT" gemacht?
St3ppenWoLF
Commander
- Registriert
- Sep. 2013
- Beiträge
- 2.925
Dann kannst du dich schon auf die Rechnung für die benötigten 1,21 Gigawatt an Leistung freuendideldei schrieb:Wo ist der Fluxkompenstor?😑
Eigentlich echt human ... also alles.
@Ayo34 - damals gab es kein Idle. Also von wegen Kerne legen sich schlafen und Karte taktet unendlich runter. Eher so ON oder eben nit
Nuja, das toppen wir ja locker flockig mit den heutigen System.
Manche Leute sind auch zu blöd den Rechner richtig zu konfigurieren.
Hab ein Stream geschaut bei dem ein PC aufgebaut wurde. Der zog im IDLE auch ~170W .... wurde dann abgetan und gut. Man merkte sofort das da mehr das "Zusammenstecken" faszinieren sollte und mehr nicht. Bissi traurig.
Verbrauch ist ja glaube gesamtes System, richtig?
Kenn die Karte aber auch gar nicht. Verrückt.
Hatte vor kurzem noch eine 2600 XT AGP die ein 6pin hatte.
Hab ich vercheckt.
Bin dann doch lieber in anderen Regionen daheim was AGP angeht. (Geforce 4 / Radeon 9600/9700)
@Ayo34 - damals gab es kein Idle. Also von wegen Kerne legen sich schlafen und Karte taktet unendlich runter. Eher so ON oder eben nit
Nuja, das toppen wir ja locker flockig mit den heutigen System.
Manche Leute sind auch zu blöd den Rechner richtig zu konfigurieren.
Hab ein Stream geschaut bei dem ein PC aufgebaut wurde. Der zog im IDLE auch ~170W .... wurde dann abgetan und gut. Man merkte sofort das da mehr das "Zusammenstecken" faszinieren sollte und mehr nicht. Bissi traurig.
Verbrauch ist ja glaube gesamtes System, richtig?
Kenn die Karte aber auch gar nicht. Verrückt.
Hatte vor kurzem noch eine 2600 XT AGP die ein 6pin hatte.
Hab ich vercheckt.
Bin dann doch lieber in anderen Regionen daheim was AGP angeht. (Geforce 4 / Radeon 9600/9700)
PusteBlume0815
Lt. Commander
- Registriert
- Sep. 2020
- Beiträge
- 1.381
Da sind die neuen 4000er Karten richtig dünn im Vergleich. Wer kommt auf die Idee sowas zu kreieren? Die Karte ging an mir vorbei. Ich hatte eh nur eine Karte von ATI in meinem leben. Weiß leider nicht mehr welche. Zu lange her.
- Registriert
- Feb. 2019
- Beiträge
- 5.662
RaptorTP schrieb:Eigentlich echt human ... also alles.
Verbrauch ist ja glaube gesamtes System, richtig?
Trotzdem irgendwie interessant. Heute brauchen Rechner 50-60 Watt Idle und das finde ich eigentlich noch zuviel, wenn man Smartphone und Notebook betrachtet. Früher sind die PCs einfach den ganzen Tag mit 200 Watt+ im Idle durchgelaufen.
Ayo34 schrieb:Heute brauchen Rechner 50-60 Watt Idle
Wenn es eine Gaming Maschine ist, ja
Aber unter Last haben wir heute ganz andere Hausnummern. Leider.
Generell ist die Entwicklung erschreckend. 1000W Netzteil wird bald zu Standard ... :/
Wenn der Gaming PC 4h am Tag läuft und davon 3h unter Last, ballert der PC heutzutage auf jeden Fall mehr Strom im Schnitt durch die Leitung
@PusteBlume0815 - 4000er und dünn war aber Ironie, richtig ? .... Vielleicht hab ich sie einfach nicht verstanden. Die 4000er werden ja bis zu 3,65 Slots dick sein.
- Registriert
- Feb. 2019
- Beiträge
- 5.662
Wobei man das auch immer schauen muss was man mitmacht. Aktuell verbrauche ich noch unter Vollast mit 5800x und GTX1070 um die 200 Watt in Spielen. Das finde ich vollkommen okay für die Leistung. Wenn man sich jetzt eine aktuelle Karte kauft und z.B. die 3070 betrachtet, dann kann diese bei deutlich mehr Leistung als die 1070 mit um die 200 Watt laufen. Also auch nur 50 Watt mehr. Wären wir insgesamt bei etwas über 250 Watt für Gaming.
ThePlayer
Captain
- Registriert
- Aug. 2011
- Beiträge
- 3.221
Ja finde die optisch richtig gut. Technisch war die aber richtig schlecht. Wobei damals der Verbrauch kaum eine Rolle gespielt hat. Ja man schaute auch da drauf was eine GPU oder CPU zieht. Aber an erster Stelle stand ob man das leise gekühlt bekommt. Der Stromverbrauch ist doch erst seit knapp 10 Jahren wichtig.Chesterfield schrieb:Heute würde ich diese Karte definitiv einfach behalten und im Regal lassen
Und jetzt haben wir wieder das Problem mit dem Verbrauch der immer weiter steigt. Dann gibt es den Einwand "die Karten sind pro Watt effizienter", nur was bringt mir das wenn ich alle 2 Jahre 50-100W mehr brauche.
MilchKuh Trude
Captain Pro
- Registriert
- Dez. 2006
- Beiträge
- 3.151
Ähnliche Themen
- Antworten
- 90
- Aufrufe
- 5.123
- Antworten
- 50
- Aufrufe
- 5.288
- Antworten
- 55
- Aufrufe
- 7.893
- Antworten
- 89
- Aufrufe
- 11.156
- Antworten
- 48
- Aufrufe
- 7.136