News Im Test vor 15 Jahren: Die ATi Radeon HD 4770 überzeugte dank 40 nm

Quidproquo77 schrieb:
Ich meine das aus der Gesamtsicht. Wenn ich mir heute eine Einsteigerkarte um die 200 Euro kaufe, zum Beispiel die RX6600, werde ich damit wohl auch noch in 10 Jahren jedes Spiel irgendwie zum laufen bekommen (siehe GTX 970 2014/290X 2013) Habe ich mir jedoch eine HD 4770 oder HD 4870 gekauft, funktionierte das nicht. Es geht ja nicht nur um die Hardware, sondern auch um die Software. Der Mehrpreis resultiert aus Schweiß und Know-How, was viele da reingesteckt haben.

Ich stimme zwar zu, dass GPUs (genau wie CPUs) länger halten. Das hat zumindest teilweise auch damit zu tun, dass die Konsolen meist die Leadplattformen sind -- erst so langsam ziehen die Anforderungen wieder an, die PS5 kam erst 2020 auf den Markt. Entsprechend fallen die Dauerbrenner wie GTX 1060 und Co. nach und nach durchs Raster (die GTX 970 war schon früher dran mit ihren 4GB).

Wo ich aber skeptisch bin, dass eine RX 6600 in zehn Jahren jedes Spiel zum Laufen kriegen wird. Das wird sie nicht mal in fünf. Wie gesagt: Es gab bereits letztes Jahr Spiele, die 8GB VRAM minimum brauchen -- was kein Wunder ist. Eigentlich hatten bereits einige Midrange-Karten wie die RX 480 8GB -- für damals 250 Euro. Vor ACHT Jahren. Davon abgesehen: Die RX 6600 ist nicht als Einsteigerkarte positioniert. Sie ging mit einer UVP von 339 Euro an den Start. Damit kann man sich eine Konsole kaufen. Der einzige Grund, warum sie jetzt reingerutscht ist, ist der, dass sie salopp ausgedrückt, ein Auslaufmodell ist. Verspäteter RDNA2-Einstieg war die extremst beschnittene RX 6500XT.

PS: Wenn RDNA2 vom Markt ist, ist mit der RX 7600 eine TDP165W-Karte die "kleinste", die AMD anbieten kann. Der GPU-Markt regelt das. :D Eigentlich verrückt, dass mal irgendwer auf Intel hoffen würde, wieder Wettbewerb herzustellen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer und Quidproquo77
Moin zusammen,

Auch ich hatte die ATI HD4770 und nutze diese bis zur GTX 470 ziemlich lange. War eine echt gute Budget Karte und hatte leider so seine Probleme mit dem Arctic Silencer. Mir ist zumindest damals mind. eine Karte gestorben.

Alles in allem eine gute Karte, mehr aber auch nicht.
 
  • Gefällt mir
Reaktionen: SweetOhm
Mit einem Preis von 89 bis 99 Euro war die Radeon HD 4770 eine sehr gute Grafikkarte.

Damals gab es noch richtig gute Grafikkarten für den kleinen Geldbeutel. Heute werden um die 200€ für LowEnd Grafikkarten aufgerufen, für die FHD schon fast eine Hausnummer zu groß ist.

Die 4770 war zu ihrer Zeit ein absoluter Preis/Leistungsknaller. Zudem war sie ein Fingerzeig auf das, was mit der folgenden Generation 5870/5850 folgen würde. Eine 5850 liegt auch hier noch im Schrank.
 
  • Gefällt mir
Reaktionen: ThePlayer, Fernando Vidal und SweetOhm
Die Karte lief seit Sommer 2009 bis Sommer 2021 bei meiner Mutter im PC.
 
  • Gefällt mir
Reaktionen: o_dosed.log, SweetOhm und konkretor
basix schrieb:
N4 kostet mehr als 40nm
Werben nicht alle Hersteller immer damit, dass sie mit feineren Prozessen die Produktionskosten senken können, weil dann mehr Dies auf einen Wafer passen?

Das steht sogar hier im Artikel:
Die wichtigste Änderung der RV740 war, dass sie in TSMCs 40-nm-Verfahren hergestellt wurde. Das neue Herstellungsverfahren ermöglichte kleinere Chips, die somit günstiger herzustellen waren und eine höhere Energieeffizienz aufwiesen.

Ich gehe bei der Preisdiskussion mit, dass heute bestimmt im Schnitt die 8-fache Menge an RAM verbaut ist, aber dafür sind heute vielleicht genauso viele Chips notwendig wie damals.

basix schrieb:
Ich hätte aber auch gesagt, dass 3x zu viel ist. Bei ~2x hätte ich gesagt das passt [...]
Da gehe ich tendenziell mit, wobei mir irgendwas zwischen Faktor 1,5 und 1,8 am realistischsten erscheinen würde.

Insgesamt zeigt das für mich schon, dass es die Hersteller sehr schlau angestellt haben, die höheren Preise am Markt durchzusetzen. Vermutlich haben nahezu wir alle uns mittlerweile damit abgefunden. (Auch wenn man, so wie ich, es immer wieder mal thematisiert 😅)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Verak Drezzt
Hatte damals die ATI Radeon 4870.... 3x. Die erste ist nach 3 Wochen nicht mehr angegangen und gebrutzelt. Die zweite konnte die versprochenen Taktraten nicht halten und war instabil und die dritte war OK und liegt hier noch verstaut im Karton im Keller. War damals im Zusammenspiel mit dem Phenom II X4 955 und DDR3 RAM ganz nett :D
 
  • Gefällt mir
Reaktionen: SweetOhm
Die hatte ich damals für die Frau eines Kumpels bestellt, war eine tolle Karte und sie hat sie bis vor 2 Jahren genutzt.
 
  • Gefällt mir
Reaktionen: C4rp3di3m, konkretor und -=[CrysiS]=-
SHEG schrieb:
Werben nicht alle Hersteller immer damit, dass sie mit feineren Prozessen die Produktionskosten senken können, weil dann mehr Dies auf einen Wafer passen?

Das steht sogar hier im Artikel:

Ich gehe bei der Preisdiskussion mit, dass heute bestimmt im Schnitt die 8-fache Menge an RAM verbaut ist, aber dafür sind heute vielleicht genauso viele Chips notwendig wie damals.
Also: 200mm² Chipfläche in neuerem Verfahren ist teurer als 200mm² Chipfläche in älterem. Das sollte klar sein. Aber, früher galt noch, dass ein 200mm²-Chip im alten Verfahren teurer war als ein 150mm²-Chip im neuen Verfahren, letzterer aber gleich schnell bis schneller. Entsprechend flink wurde auch zu neuen Fertigungsprozessen gewechselt. Das ist heute nicht mehr der Fall. Es braucht einiges an Vorlaufszeit, in der der neue Fertigungsprozess noch nicht so dermaßen überzeugen kann.
 
  • Gefällt mir
Reaktionen: SHEG
wern001 schrieb:
müsste es nicht µm heißen? Den nm sind eigentlich Newtonmeter
das waren noch Zeiten als die µm angebe die tatsächliche Struckturbreite war
NM sind im Hardware Bereich. Nanometer. Die Karte hatte 40 nm so wie auch die HD 5870 oder GTX 480 580.
 
HD 4850 hatte ich, war Top. Bin mir nicht sicher ist so lange her, aber ich meine das war die Karte wo man den 70er Bios draufflaschen konnte und die Gratis noch etwas Flotter wurde.

Zum Teuer/Günstig Thema, muss man sagen das GPU´s bis vor ca. 5 Jahren noch relativ günstig waren gerade die im nicht Hiendbereich. Heute zahlst du für eine Gammelkarte z.B. RX6600 so viel wie für eine 390+ neu. Das Nvidia so reich ist udn so einen hohen Aktienkurs hat kommt nicht von ungefär auch wenn sie heute mehr geld mit Enterprise machen. Ihren Wohlstand aufgebaut haben sie mit eurem/unseren Geld.
 
  • Gefällt mir
Reaktionen: ThePlayer
Verak Drezzt schrieb:
wobei allein schon bei Pascal der Aufpreis gegenüber Maxwell exorbitant war mit 789€ zu 540
Bitte vergleiche in $, sonst wirds kompliziert mit Währung
980ti und 1080ti hatten beide 750$ uvp, der Rest war Euro/Dollsr Kurs
Teuer wurde es von 500 auf 600 Gen, da es plötzlich den kleinen Chip für das alte Geld gab, der große wurde zur Titan

Zur Preisentwicklung, Inflation ist nur wenig anteilig.
Monopol Nvidia, Monopol TSMC, sich entwickelnde/konkurrierende Märkte (Mining, AI, Content Creator vs Gamer) die alle mehr Geld bereit sind zu zahlen, Gesellschaft (Gaming ist keine Niche mehr und die Leute sind besser Indikatioiert ohne Hirn auf Kaufen zu drücken), Alter (durchschnittliche Gamer ist heute Älter und har mehr Geld)
 
DIe hatte ich damals nicht auf dem Schirm , bei mir war die 4870,4890 und die GTX 270,280
 
Super Karte, nutzte ich sehr lange vollkommen zufrieden und hat mich neu nur 70€ gekostet. 🤗

Die 290€ für die 6700 10GB waren da schon mehr.
 
Ich hatte damals die HD4870 mit 512MB VRAM und war - was ich heute noch weiß - ganz zufrieden. Davor hatte ich Probleme mit der X850XT PE und musste diese innerhalb der Gewährleistung einsenden, wenn ich mich noch recht erinnere.

Hach, schöne alte Zeit... in der eine Oberklasse-Grafikkarte noch für unter 400 EUR zu haben war :-)
 
Ich hab die HD4670 gehabt... eine großartige Karte, extrem sparsam (hatte eine passiv gekühlte) und trotzdem ausreichend schnell.
 
Zurück
Oben