News Im Test vor 15 Jahren: AMDs Radeon HD 5670 bot DirectX 11 für 79 Euro

Und 100 Lüfter haben auch schon vor 10 Jahren über 100 Euro gekostet... wenn man die Mengen pro Packung groß genug macht, kann man alles argumentieren.
Und ich bin kein Mathematik-Experte, aber 60 ist glaube ich kleiner als 79.

Und am besten sucht man sich jetzt irgendwelche Lüfter raus, die kaum mehr lieferbar sind, da findet man dann auch welche für 500 Euro...
 
MilchKuh Trude schrieb:
Naja, 15 Jahre Inflation darf man halt auch nicht vergessen. Trotzdem scheint es mir als würden die Konzerne sich viel mehr die Taschen füllen, denn sonst müsste es ja eine Karte geben im Bereich 150 Euro, die voll spieletauglich ist.
Das Problem ist vielmehr, daß man sich heutzutage mit bombastsicher Grafik (a la Metro LL als Beispiel) nicht mehr zufrieden gibt. Nein, es muß ja "Raytracing" sein. Und auf dieser Basis haben sich diese Strom fressenden Monster entwickelt, die eine extrem aufwendige Hardware (u. Entwicklungsarbeit) benötigen um nicht gleich bei jeder Gelegenheit abzurauchen. Und die ist halt sehr teuer.
 
  • Gefällt mir
Reaktionen: mae und MilchKuh Trude
Und da ich auf raytracing etc. verzichte, hält meine Karte länger. Darf man halt auch nicht vergessen. Zu Zeiten der 5670 habe ich praktisch jedes Jahr CPU und oder gpu aufgerüstet. Heutzutage halten die Jahre mit (unter Verzicht auf maximale Grafik).
 
  • Gefällt mir
Reaktionen: reichtnich
MilchKuh Trude schrieb:
Und da ich auf raytracing etc. verzichte, hält meine Karte länger. Darf man halt auch nicht vergessen. Zu Zeiten der 5670 habe ich praktisch jedes Jahr CPU und oder gpu aufgerüstet.

CPU: Zu der Zeit hatte ich einen Core 2 Duo 8400, gekauft 2008. Habe ich 2015 durch einen 6700K ersetzt, der ist nach einem Jahr verstorben und wurde durch einen 6600K ersetzt (also ja, da war's wirklich nur ein Jahr), und der wurde dann 2024 durch einen Ryzen 8700G ersetzt.

GPU: Ich habe eine 5770 zu Zeiten der 5670 gekauft (um WIMRE EUR 130), und dann im Prinzip bis zum 23.12.2024 betrieben (wurde am 24.12. durch einen Ryzen 8700G ersetzt). Zu "im Prinzip": Die 5770 ist mir nach wenigen Jahren weggestorben, ich habe sie durch eine praktisch baugleiche 6770 ersetzt (nochmal ca. EUR 100); die habe ich nicht die ganze Zeit verwendet, sondern zwischendurch ein paar Jahre mit Intel HD530 (Grafik des Core i5-6700K/6600K) gespielt, bis der 2560x1600-Monitor repariert war und die HD530 zu schwach dafuer war (danach wieder weiter mit der 6770).

Und dann gibt's ja hier oefters Berichte, wo Leute von 7800X3D auf 9800X3D oder von 3090 auf 4090 aufruesten. Ok, ist nur ca. alle zwei Jahre, aber bei den aktuellen Preisen ist das halt deutlich teurer als selbst die Leute, die damals jedes Jahr was gekauft haben (wenn's die gab).

Die Zeiten, wo ich wirklich haeufig gekauft habe, gingen deutlich frueher zu Ende. Von 1995 bis 2000: Pentium 133, K6-2 300, K6-2 500, Athlon 800, Athlon 1200, da waren die Spruenge aber auch groesser. Danach war schon 3 Jahre Pause bis zum Athlon 64, dann 5 bis zum Core 2 Duo. Die Entwicklung ist ab ca. 2001 deutlich langsamer geworden.
 
  • Gefällt mir
Reaktionen: Marko 1181, Hexxxer76 und Dr.Death
Die gute alte Radeon HD 5xxx Series. Hab noch eine XFX Radeon HD 5750 512MB DDR5 hier rumliegen. Für die damalige Zeit war der kleine Speicher von 512 MB recht wenig. Hab ich aber trotzdem gekauft. Für ein Office PC mehr als ausreichend! Konfiguration damals: AMD Athlon X2 3800+, 4 GB DDR1,ASRock 939Dual-SATA2, Creative Sound Blaster AUDIGY 2 ZS SB0350.
Gaming ging da erstaunlich gut. Spiele wie CounterStrike, Call of Duty 2, SIMS, Empire - Total War usw. Natürlich nur in 720p Auflösung bei niedrig bis mittlere Einstellungen. Auf der Kiste war Windows 7 später dann Windows 10.

Grüße vom Hexer
 
  • Gefällt mir
Reaktionen: Marko 1181
MilchKuh Trude schrieb:
Und da ich auf raytracing etc. verzichte, hält meine Karte länger. Darf man halt auch nicht vergessen. Zu Zeiten der 5670 habe ich praktisch jedes Jahr CPU und oder gpu aufgerüstet. Heutzutage halten die Jahre mit (unter Verzicht auf maximale Grafik).
Und ich bin mit meiner GTX1650 immer noch wunschlos glücklich. Kann sehr gut auf etwas Grafikdeails verzichten und habe dafür lieber einen Strom sparenden PC.
 
  • Gefällt mir
Reaktionen: Hexxxer76, MilchKuh Trude und Marko 1181
DrFreaK666 schrieb:

Haeh!?

Ich verstehe deinen Beitrag nicht. Du hast nach Gründen gefragt, was gegen eine alte und für eine neue Grafikkarte spricht. Ich habe dir eine Antwort gegeben. Was verstehst Du daran genau nicht? Wenn man einfach "nur ein Bild" haben will, dann könnte man ja auch eine USB-Grafikkarte kaufen... Das taugt aber halt nicht mal zum Arbeiten.
 
BlaBlam schrieb:
Naja, mehr als die Teuerung zu damaligen Grafikkarten stört mich die Entwicklung des Energieverbrauchs. Meine letzte Karte ohne zusätzlichen Stromanschluss war die HD4670 und ich hätte gern mal wieder etwas halbwegs Potentes UND Sparsames zu Grafikausgabe. Bei IGPs (und mehr oder weniger im mobilen Bereich) geht geht's doch schließlich auch effizient. Oder besteht dafür einfach kein ernst zu nehmender Retail-Markt?
Da werden dann etliche Leute vermutlich gegen halten, daß du ja auch mehr FPs pro Watt bekommst, aber ich stimme dir zu. Die Energieeffizienz ist auch für mich ein entscheidender Faktor, wobei man natürlich nicht nur den absoluten, höchsten Verbrauch immer nehmen sollte.
Aber ich sag mal so: irgendwie hab ich das Gefühl, daß die neueren Karten immer mehr Energie verbrezeln.
Ich fahre noch mit einer 1070ti, weiß nicht genau, was die für eine maximale Stromaufnahme hat, gepaart mit einem Ryzen 5 3600 und habe ein 400Watt bequite inside, daß reicht, bisher noch keine Stromprobleme gehabt.
Gut, die neusten Grafikkracher gehen an mir vorbei, aber reizen mich auch nicht wirklich mehr.
Anstatt Doom Eternal spiel ich lieber Doom Remake, für Sniper Elite 5 hat es auch noch gereicht, mehr brauch ich vermutlich auch nicht mehr, so ca. eine Dekade vor Renteneintritt.
 
Die ATi Radeon HD 5670 (Test) fiel mit einem Preis von 79 Euro in das Budgetsegment. Trotz des geringen Preises konnte die Grafikkarte vor 15 Jahren mit DirectX-11-Unterstützung, 40-nm-Fertigung und akzeptabler Gaming-Leistung aufwarten.



The times they are a-changing.


ffffff.png
gggggg.png





Hatte persönlich den Nachfolger HD 6670 für eine Zeit. Mit 1GB VRAM für unter 70 Euro bei Mindfactory. Eigentlich nur für Football Manager und Gedöns gekauft, konnte ich damit trotzdem noch recht ordentlich Skyrim, Dishonored und drei Jahre später (!) selbst noch Alien:Isolation spielen. Mittlere Settings. Wenn auch bei mir damals noch nicht in Full-HD. Mit der Leistung von Desktop-APUs ist das nicht vergleichbar -- die hinken noch immer mehrere Jahre alten Einstiegs-GPUs hinterher. Die beste hat GTX 1650-Niveau von 2019. Im absoluten Best Case. Selbst Gamestar hatte solche Karten empfohlen. Wird aktuellen Desktop-APUs nie passieren.

https://www.gamestar.de/artikel/die...euro-radeon-hd-5750-fuer-97-euro,1957256.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: crogge und mae
Tzk schrieb:
Die absolute Rechenleistung steigt halt auch, weil die Leistungsaufnahme steigt. Natürlich wird die Effizenz besser, aber nicht so viel. Im Bereich um 75W müsste man die GPUs Rech niedrig Takten und lässt so absolute Rechenleitung liegen. Deshalb gibt es dort kaum Karten. Der Markt existiert schlicht nicht. Entweder iGPU oder direkt Karten mit 120W (RTX 4060).

Verstehe ich übrigens auch nicht. Die beste integrierte Desktop-Lösung erreicht im Best Case in etwa die Performance einer GTX 1650 -- das war Nvidias 2019er-"Wachablösung" für die 1050Ti von 2016. Nvidia brachte seither immerhin noch die RTX 3050/6GB mit 75W raus -- die war trotz allem nicht viel langsamer als die normale RTX 3050. Mit aktueller Architektur wäre auch mit 75W sicher zumindest 3060er-Leistung drin. Obs dann dafür viele Käufer dafür gäbe, ist was anderes. Aktuell rechnet es sich aber wohl eher nicht. Die 3050/6GB ist da und "füllt" die Lücke -- und die endlichen Ressourcen steckt man lieber da rein, wos mehr Geld bringt. Zum Beispiel: KI. :D

Ein negative Entwicklung auf jeden Fall: Selbst Kleinstmodelle aktueller Reihen, die bereits mit ~165W gelistet sind. Und das, obwohl sie weder großartige Performance noch irgendwelche Extras haben (siehe RX 7600).
 
Möchte zu meinem PC noch folgendes hinzufügen:
Sowohl meine GTX1650, alsauch mein i5-3570k laufen beide untervoltet. Die Spannung der 1650 lässt sich mit Afterburner via Kurve enorm senken, so daß sie sehr viel weniger Strom zieht (min 0.65v / max 0.9v). Die CPU läuft auf 3000MHz limitiert (alle Kerne) mit einem Untervolt-Offset von -150mv in jeder Situation schnell und stabil. Die Stromaufnahme des PC's sinkt so bei voller Spiele-Auslastung (1-7 Jahre alte Titel) auf max. 115 Watt. Einen höheren Wert habe ich auf dem immer angeschlossenen Strommesser nicht mehr gesehen. ABER: die allermeisten 5-10 Jahre alten Spiele bleiben bei 60Hz unter 80 Watt. Mehr als 60Hz brauche ich einfach nicht. Auch auf Kantenglättung und oft auch Tessellation verzichte ich ohne daß mir irgendwas fehlen würde. Einzig ältere schnelle Shooter wie z.B. UT3 lasse ich auch mal mit 120Hz laufen, das macht die 1650 ohne mit der Wimper zu zucken. Und wenn's wirklich mal etwas ruckelt habe ich auch kein Problem damit, die FPS mit RTSS auf 40 zu limitieren. Dank G-Sync tut das dem Genuß wirklich keinen Abbruch.
 
Svennc schrieb:
Die ATi Radeon HD 5670 (Test) fiel mit einem Preis von 79 Euro in das Budgetsegment. Trotz des geringen Preises konnte die Grafikkarte vor 15 Jahren mit DirectX-11-Unterstützung, 40-nm-Fertigung und akzeptabler Gaming-Leistung aufwarten.



The times they are a-changing.
Stimmt, die Anzahl der Umfrageteilnehmer hat sich gedrittelt. Der Rest ist raus, weil er gar keinen Desktop-PC mehr hat.

APUs sind natürlich ein brauchbarer Ersatz - in Konsolen, wo sie passenden GDDR SDRAM zur Seite gestellt bekommen. Als DIY-PC gibt es das überhaupt nicht. Dann lässt man es eben bleiben.
 
reichtnich schrieb:
Möchte zu meinem PC noch folgendes hinzufügen:
Sowohl meine GTX1650, alsauch mein i5-3570k laufen beide untervoltet. Die Spannung der 1650 lässt sich mit Afterburner via Kurve enorm senken, so daß sie sehr viel weniger Strom zieht (min 0.65v / max 0.9v). Die CPU läuft auf 3000MHz limitiert (alle Kerne) mit einem Untervolt-Offset von -150mv in jeder Situation schnell und stabil. Die Stromaufnahme des PC's sinkt so bei voller Spiele-Auslastung (1-7 Jahre alte Titel) auf max. 115 Watt. Einen höheren Wert habe ich auf dem immer angeschlossenen Strommesser nicht mehr gesehen. ABER: die allermeisten 5-10 Jahre alten Spiele bleiben bei 60Hz unter 80 Watt. Mehr als 60Hz brauche ich einfach nicht. Auch auf Kantenglättung und oft auch Tessellation verzichte ich ohne daß mir irgendwas fehlen würde. Einzig ältere schnelle Shooter wie z.B. UT3 lasse ich auch mal mit 120Hz laufen, das macht die 1650 ohne mit der Wimper zu zucken. Und wenn's wirklich mal etwas ruckelt habe ich auch kein Problem damit, die FPS mit RTSS auf 40 zu limitieren. Dank G-Sync tut das dem Genuß wirklich keinen Abbruch.




Na ja, wenns wirklich nur ums Stromsparen geht, dann macht ein Ersetzen irgendwann aber auch Sinn. Alleine schon, weil mehr und mehr Games gar nicht mehr erst anlaufen. Ich hatte ja bis relativ neulich selbst noch eine 1050 Ti (auch undervoltet, viel zu holen war da aber nicht mehr). Aber während die im WItcher 3 auf Anschlag rödelte, zieht die neue Karte (Undervoltet) bei vergleichbaren Settings für mehr FPS trotzdem weniger Strom. Und das ist kein 75W-Modell.... Denn auch für stabile 60FPS für den "ollen" Witcher taktet die Karte nicht mal richtig hoch -- die 1050ti schaffte die nicht, hatte aber immer Maximaltakt und basierte auf einer älteren Technologie, sprich, war ineffizienter. Und selbst das aktuelle Indiana Jones kann ich so konfigurieren, auch dank DLSS, das selbst da nicht viel mehr als 100-110W gezogen werden. Das angesprochene Thema: Jede neue Grafikkartengeneration liefert (bislang) mehr Frames pro Watt. Sowohl in älteren als auch in aktuellen Games.

Natürlich kauft sich jetzt niemand eine RTX 4090, um damit Stromsparrekorde zu brechen. Aber mit einer RTX 4060 ist da sicher so einiges drin -- auch ohne Leistungsverlust. Wie gesagt: Sollte Nvidia noch mal einen Nachfolger zur RTX 3050/6GB bringen, dann wäre damit "Von Haus aus" sicher mehr drin. Ada Lovelace war effizienter als Ampere. Und jetzt kommt mit Blackwell schon die nächste Architektur.


wechseler schrieb:
Stimmt, die Anzahl der Umfrageteilnehmer hat sich gedrittelt. Der Rest ist raus, weil er gar keinen Desktop-PC mehr hat.

Nun, das ist eine Interpretation für die sinkenden Teilnehmerzahlen. Wenn man sich die abnehmenden Leserzahlen der PC Games Hardware bzw. Zeitschriften und von klassischen Internetforen generell anschaut, tippe ich auf eine andere als die wahrscheinlichere Hauptursache hierfür. Der ein oder andere User von damals wird auch keinen PC mehr haben, klar. Aber eine Community besteht ja nicht nur aus Bestandskunden, die per se nicht ersetzt werden, wenn sie sich anderen Themen zuwenden oder diese Community verlassen.
 
Zuletzt bearbeitet:
Ich hab zuhause am Fernseher nen ollen i5 Haswell Dell Optiplex dranhängen und darin werkelt auch noch eine Radeon 5550. Zum Streamen/Fernsehen auf FullHD und für den Herrn Sohn und seine Browsergames reicht das alles noch aus. Evtl kommt dann dieses Jahr der Umstieg auf Linux, da Win10 ja bald abgesägt wird.
MfG
 
wechseler schrieb:
APUs sind natürlich ein brauchbarer Ersatz - in Konsolen, wo sie passenden GDDR SDRAM zur Seite gestellt bekommen. Als DIY-PC gibt es das überhaupt nicht.

Ich habe kuerzlich meinen Computer mit Core i5-6600K und Radeon HD 6770 durch einen mit einem Ryzen 8700G (im Eco-Mode) und ohne separate Grafikkarte ersetzt. Und ja, den habe ich selbst zusammengebaut. Klar sind da nicht alle Spiele brauchbar, na und?
 
@mae Die 79€-HD 5670 kam mit 512 MB GDDR5, DDR3 war ein Vielfaches langsamer.

Das Verhältnis hat sich nicht verändert. GDDR6 liefert bis zu 1 TB/s, GDDR7 dann 1.5 TB/s. DDR5 liefert immer noch nur einen Bruchteil davon. Ein DIY-PC mit APU liefert deshalb nur einen Bruchteil der Leistung einer Konsole mit APU.

mae schrieb:
Und ja, den habe ich selbst zusammengebaut. Klar sind da nicht alle Spiele brauchbar, na und?
Und ich baue nichts mehr zusammen, wegen s. o.
 
Svennc schrieb:
Na ja, wenns wirklich nur ums Stromsparen geht, dann macht ein Ersetzen irgendwann aber auch Sinn.

Eher nicht, denn die Herstellung der neuen Komponenten kostet auch Strom. Und selbst wenn Du einen geringeren Stromverbrauch hast (und da bist Du wohl die Ausnahme, wie sich dadurch zeigt, dass sich das Netzteilangebot immer mehr in Richtung hoeherer Verbrauch verschiebt), wie lange dauert es, bis Du im Gesamtstromverbrauch die Herstellung amortisiert hast? Und setzt Du die neuen Komponenten ueberhaupt so lange ein? Wenn nein, waere es fuer den Gesamtstromverbrauch sinnvoller, die alten Komponenten jetzt nicht zu ersetzen, sondern erst dann, oder noch spaeter.

Alleine schon, weil mehr und mehr Games gar nicht mehr erst anlaufen.

Was meinst Du damit? Das hat jedenfalls nichts mit "wenns wirklich nur ums Stromsparen geht" zu tun.

Und jetzt kommt mit Blackwell schon die nächste Architektur.

In diesem Sinn: Wenn's nur ums Stromsparen geht, einfach auf die (jeweils) naechste Generation warten.

Nun, das ist eine Interpretation für die sinkenden Teilnehmerzahlen. Wenn man sich die abnehmenden Leserzahlen der PC Games Hardware bzw. Zeitschriften und von klassischen Internetforen generell anschaut, tippe ich auf eine andere als die wahrscheinlichere Hauptursache hierfür.

Diesen Einflussfaktor koennte man vielleicht ueberpruefen, indem man die Teilnehmerzahlen an Umfragen in Konsolenforen mit denen im PCGH-Forum vergleicht.
 
Im Prinzip hast Du völlig Recht. Es kommt halt auf den individuellen Anspruch an. Früher hatte ich mir auch quasi alle 2 Jahre 'ne neue Graka gekauft, aber dann wurde für mich das Thema Stromsparen und Nachhaltigkeit immer wichtiger. So habe ich mir nach der Radeon 7770 in 2015 eine GTX 750ti gekauft und diese dann ganze 7 (SIEBEN!) Jahre genutzt. Nachhaltiger geht es wohl kaum. Möglich wurde das nur durch eine neue Bescheidenheit bei den jeweiligen Grafikoptionen und FPS, aber das ist für die meisten heutzutage ja ein Fremdwort, leider. Mir hat es nichts ausgemacht Crysis 3 mit nur 30 FPS zu spielen. Hat genau soviel Spaß gemacht.
Svennc schrieb:
Na ja, wenns wirklich nur ums Stromsparen geht, dann macht ein Ersetzen irgendwann aber auch Sinn. Alleine schon, weil mehr und mehr Games gar nicht mehr erst anlaufen. Ich hatte ja bis relativ neulich selbst noch eine 1050 Ti (auch undervoltet, viel zu holen war da aber nicht mehr). Aber während die im WItcher 3 auf Anschlag rödelte, zieht die neue Karte (Undervoltet) bei vergleichbaren Settings für mehr FPS trotzdem weniger Strom. Und das ist kein 75W-Modell.... Denn auch für stabile 60FPS für den "ollen" Witcher taktet die Karte nicht mal richtig hoch -- die 1050ti schaffte die nicht, hatte aber immer Maximaltakt und basierte auf einer älteren Technologie, sprich, war ineffizienter. Und selbst das aktuelle Indiana Jones kann ich so konfigurieren, auch dank DLSS, das selbst da nicht viel mehr als 100-110W gezogen werden. Das angesprochene Thema: Jede neue Grafikkartengeneration liefert (bislang) mehr Frames pro Watt. Sowohl in älteren als auch in aktuellen Games.
 
Zurück
Oben