News Im Test vor 15 Jahren: Die ATi Radeon HD 4770 überzeugte dank 40 nm

Verak Drezzt schrieb:
Hatte damals ne HD4870 von Powercolor mit 1GB und wurde dann 2011 von einer MSI GTX460 abgelöst, die glaub keine 120€ gekostet hatte, seit dem ersten Mining-Hype und den Preisen seit Turing einfach nur unterirdisch wo wir derzeit mit den Preisen stehen

Aber.... sei fair. Die Inflation war doch so hoch! Das war doch vor Jahrzehnten!

Bildschirm-, Speicher- und CPU-Preise so: Halt mein Bier.

athlon2.png


cpu.png
 
  • Gefällt mir
Reaktionen: Mcr-King, OiOlli und Verak Drezzt
unspektakulaer schrieb:
Naja der Unmut ist aber auch durchaus berechtigt. Nicht unbedingt weil früher alles besser war. Aber es gibt von keinem Hersteller sinnige Angebote im Einstiegsbereich.

Weil der Einstiegsbreich den APUs gehört. Da wird auch nichts mehr kommen in Punkto Dedizierte Grafikkarte. Warum auch? Hat nur Nachteile in diesem Bereich.


Ich mochte die HD4770. Zu dieser Zeit hatte ich noch ein HD3870X2 Quadfire Setting und einen HTPC mit HD3450 Crossfire am Laufen. Und ja, Low End Crossfire konnte auch durchaus Sinn ergeben.
 
  • Gefällt mir
Reaktionen: Mcr-King, clarkathome, denbaschu und eine weitere Person
  • Gefällt mir
Reaktionen: SweetOhm
Verak Drezzt schrieb:
wobei allein schon bei Pascal der Aufpreis gegenüber Maxwell exorbitant war mit 789€ zu 540€: https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/

https://www.computerbase.de/2016-05/geforce-gtx-1080-test/

dachte die 1080 war günstiger zum Release

Jepp.
Gullveig schrieb:
Weil der Einstiegsbreich den APUs gehört. Da wird auch nichts mehr kommen in Punkto Dedizierte Grafikkarte. Warum auch? Hat nur Nachteile in diesem Bereich.

Für die Hersteller anscheinend ja. Anders sieht es auf Verbraucherseite aus. Denn im Best Case hält selbst der Ryzen 8700G mit einer vier Jahre alten GTX 1650 mit. Zwischen der und selbst einer RDNA2-RX 6500XT (die nur mehr eine Notlösung war und enttäuschte), klafft dann doch noch ein Loch. Zumal sie trotzdem zu einer bereits Jahre alten Architektur zählt. Und bereits zu Release so wenig VRAM hatte, dass sie nicht mal mehr Minimum-Anforderungen von einigen Spielen erfüllte. Mit wirklichen EINSTIEGS-GPUs wie der hier getesteten konnte man ALLES Aktuelle spielen -- die anspruchsvollsten Titel zur Not eben auf mittleren/reduzierten Details.

Dass APUs Einstiegs-GPUs ersetzen sollen, wird seit Jahren gepredigt. Selbst AMD sagte, dass sie GPUs nur noch ab 300 Euro anbieten wollen (schon die RX 6600 hatte eine UVP von 339,-). Tatsächlich wird der Abstand nicht großartig verringert. Der Ryzen 2400G war vor einem halben Jahrzehnt auch schon etwa auf dem Niveau einer R7 ca. 265 -- damals in etwa der Gleiche Technologie-Abstand wie der des Ryzen 8700G zur GTX 1650 jetzt.
 
  • Gefällt mir
Reaktionen: aid0nex, Mcr-King, Wanderwisser und 4 andere
Der wahrscheinlich beste Shrink der Hardwaregeschichte. Wobei das allerdings durch die Tunings auch eine Dehnung des Begriffes Shrink ist.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich hatte die Karte damals auch. Wirklich ein tolles Stück Hardware.

Damit konnte ich das erste Dragon Age in voller Grafik spielen.
 
  • Gefällt mir
Reaktionen: Gray_, ovi und SweetOhm
Svennc schrieb:
Mit wirklichen EINSTIEGS-GPUs wie der hier getesteten konnte man ALLES Aktuelle spielen -- die anspruchsvollsten Titel zur Not eben auf mittleren/reduzierten Details.
Tatsächlich ist schwer zu sagen, wie der RV740 eingeordnet werden soll:
  • Alte Architektur
  • Kein reiner Shrink eines anderen Chips, sondern im Vorfeld angepasste Konfiguration
  • Teil eines Rumpfportfolios
    • Selbst aber der einzige Chip in neuer Fertigung
  • Absolut gesehen: Ein kleiner Chip gesehen (137mm²)
Ich halte es für sinnvoller, solche Betrachtungen an der HD 5000er-Serie/ HD 6000er-Serie oder an der GTX 400er/ GTX 500er-Serie vorzunehmen.
 
  • Gefällt mir
Reaktionen: Hornet78
SHEG schrieb:
man kann es halt nicht oft genug sagen :D

Mittelklasse vor 15 Jahren kostete also gut 100€... heute ca. 3x so viel... das entspricht einer jährlichen Inflation von etwa 7,5% über 15 Jahre! Soweit ich weiß, hatten wir die nicht. Da sieht man mal, wie sich der Markt (also vornehmlich das Gefüge aus Angebot und Nachfrage) verändert haben muss, damit sich heute überproportional erhöhte Preise etablieren können.
Ja, GPUs sind einiges teurer geworden. Man muss sich aber schon eingestehen, das die GPU-Produktion auch teurer geworden ist. N4 kostet mehr als 40nm. Absolut gesehen und inflationsbereinigt. Dasselbe beim VRAM. Selbst eine RTX4060 8GB hat 16x GPU-Speicher wie eine HD4770. Seit knapp 2010 sinken die Kosten für DRAM aber nur noch relativ schwach, insgesamt evtl. 5x in den letzten 15 Jahren.

Ich hätte aber auch gesagt, dass 3x zu viel ist. Bei ~2x hätte ich gesagt das passt (z.B. 229$ MSRP anstatt 299$ für die RTX4060).

Was ich bei der HD4770 noch interessant finde:
Die absolut schnellste Single-GPU ist gerade mal 1.7x schneller. Eine RTX4090 wird locker 3x so schnell wie eine RTX4060 sein.
 
  • Gefällt mir
Reaktionen: DerFahnder und lubi7
Wenn man fair ist, war die Speichermenge nach heutigen Standards schon damals nicht mehr zeitgemäß und wäre heute massiv abgewatscht worden. Siehe 4870 512mb vs 4870 1GB bis zu 18% Leistungsunterschied.
Die Karte wäre eine heute RX 6500XT. So günstig waren die 99 Euro dann auch nicht, wenn man die Kosten des damaligen Billig-Die mit einplant.
Gehalten hat das Ding auch nur 1-2 Jahre, danach war sie nicht mehr wirklich brauchbar und ist gnadenlos am Speicher verhungert.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
CDLABSRadonP... schrieb:
Tatsächlich ist schwer zu sagen, wie der RV740 eingeordnet werden soll:
  • Alte Architektur
  • Kein reiner Shrink eines anderen Chips, sondern im Vorfeld angepasste Konfiguration
  • Teil eines Rumpfportfolios
    • Selbst aber der einzige Chip in neuer Fertigung
  • Absolut gesehen: Ein kleiner Chip gesehen (137mm²)
Ich halte es für sinnvoller, solche Betrachtungen an der HD 5000er-Serie/ HD 6000er-Serie oder an der GTX 400er/ GTX 500er-Serie vorzunehmen.

Die hatten genauso Leistungskracher. Die HD 6770 stand sogar an der Spitze der P/L-Tabelle bei Computerbase. Auch hier: Absolut gamingtauglich für ~100 Euro. Ich hatte wie gesagt eine Weile nur die kleine 6670 drin -- selbst damit ließ sich noch Skyrim spielen (wenn auch natürlich nicht mit 60fps plus Reglern auf Anschlag).

basix schrieb:
Man muss sich aber schon eingestehen, das die GPU-Produktion auch teurer geworden ist.
In anderen Tech-Bereichen nennt man das zum Glück weiterhin Fortschritt, wenn bessere Technologie zu großteils stabilen Preisen, gelegentlich gar niedrigeren angeboten werden kann. Der 4K-Fernseher im Discount. Der aktuelle Ryzen, der kaum mehr kostet als der Athlon 64 vor zwanzig Jahren. Das hat natürlich auch mit Fortschritt in der Produktion zu tun; denn Fortschritt in der Produktion bedeutet sinkende Produktionskosten.
Ergänzung ()

Quidproquo77 schrieb:
Wenn man fair ist, war die Speichermenge nach heutigen Standards schon damals nicht mehr zeitgemäß und wäre heute massiv abgewatscht worden. Siehe 4870 512mb vs 4870 1GB bis zu 18% Leistungsunterschied.
Die Karte wäre eine heute RX 6500XT.

Wäre sie nicht. Weil die RX 6500XT mit ihren 4GB schon damals unter Minimum-Anforderungen von einigen Spielen lag, oder diese gerade erfüllte. Damals waren 512MB noch eine absolut gängige Speichermenge. Genau wie die 1GB der HD 6670, die ich später hatte (für 69 Euro). Natürlich hatte das Auswirkungen auf die Performance, je nach Spiel und Settings. Aber es war eine damals noch immer gängige Speichermenge. Und nicht unter bzw. gerade so auf dem Minimum. Das gebenchte Call Of Duty 5 hatte etwa eine Minimumanforderung von 256 MB. Crysis Warhead genauso.

Darüberhinaus war die RX 6500XT sogar in Sachen Rohleistung ein Downgrade zu ihrem Jahre älteren Vorgänger 5500XT, der schon keine Bäume ausriss. Hatte keinerlei Features whatsoever. War ein umgemodelter Laptopchip. Und kam als Notlösung spät nur mehr auf den Markt, weil AMD (berechtigt) eine Marktnotlage samt Lücke ausgemacht hatte. Die RX 6500XT ist generell eine der schlechtesten Karten, sowohl absolut als auch relativ in Sachen Preis-Leistung, die in den letzten Jahren veröffentlicht wurden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer, Wanderwisser, [F]L4SH und 4 andere
Svennc schrieb:
Die hatten genauso Leistungskracher. Die HD 6770 stand sogar an der Spitze der P/L-Tabelle bei Computerbase. Auch hier: Absolut gamingtauglich für ~100 Euro. Ich hatte wie gesagt eine Weile nur die kleine 6670 drin -- selbst damit ließ sich noch Skyrim spielen (wenn auch natürlich nicht mit 60fps plus Reglern auf Anschlag).
Definitiv. Ich meine nur: Den RV740 heranzuziehen macht die Aussage unnötig angreifbar. Ich stimme ihr zu.
 
  • Gefällt mir
Reaktionen: Svennc
"Ähnlich sah es mit der Konkurrenz von Nvidia in Form der GeForce 9800 GT aus, die für knapp 10 Euro weniger etwa 10 Prozent langsamer war."

Und jetzt für 10% schneller 500€ mehr :stock:

"Mit einem Preis von 89 bis 99 Euro war die Radeon HD 4770 eine sehr gute Grafikkarte."

Dafür bekommst heute nicht mal einen GPU Kühler dafür ... :freak:
 
  • Gefällt mir
Reaktionen: Slayn
Hatte damals auch in meinen LAN Party Rechner eine 4770 von Saphhire verbaut. War aber bisschen enttäuscht. Hab ich wohl damals anders gesehen. Hier im Test Rückblick anscheinend für damals eine Super Karte für 99€. Hatte meine damals im Media Markt gekauft.

Leise und Stromsparend war Sie aber wirklich.

MfG

Nox84
 
Gekonnt ausgelassen xD ... für echte Gamer musste es eine HD4850/4870/4890 sein ;)
 
  • Gefällt mir
Reaktionen: lubi7 und Verak Drezzt
Svennc schrieb:
Wäre sie nicht. Weil die RX 6500XT mit ihren 4GB schon damals unter Minimum-Anforderungen von einigen Spielen lag, oder diese gerade erfüllte.
Ich sehe das alles nicht so, denn früher gab es immer noch die Dual GPUs als "High End", zudem war die Herstellung der Chips nur einen Bruchteil so teuer und ich glaube kaum, dass die Minimal Vorraussetzungen nach heutigen Standards so ausgefeilt und genauso ausfallen wie damals.

Früher war der Anspruch noch deutlich niedriger. Nachladende Texturen, Ruckler, ja sogar micro-ruckler waren eigentlich gar kein Thema, weil sie niemand kannte und messen konnte. Man hat einfach damit gelebt, wenn einem der V-RAM ausgegangen ist und aus dem RAM nachgeladen wurde. Auslesetools waren die Seltenheit, bzw. existierten gar nicht.
Svennc schrieb:
Damals waren 512MB noch eine absolut gängige Speichermenge.
Gängig sicherlich, aber 1-2 Jahre nach Release durch die Bank zu wenig.
Selbst mit 8GB ist man heute besser aufgestellt, da es genügt ein paar Regler anzupassen und die Engines darauf reagieren. Damals war das Kraut und Rüben.
Svennc schrieb:
Die RX 6500XT ist generell eine der schlechtesten Karten, sowohl absolut als auch relativ in Sachen Preis-Leistung, die in den letzten Jahren veröffentlicht wurden.
Ich persönlich empfinde sie genauso schlecht wie die HD 4770. Ich hatte die Karte damals und nachdem ich Far Cry 2 damit zocken wollte, flog sie sofort wieder aus dem Rechner, weil zu wenig Speicher + zu lahm, schlechte Treiber, hoher Idle Verbrauch, kaum Funktionen, schwache Kantenglättung, Flimmerhölle.
Ich gebe dir recht, dass die Karte unter den damaligen Voraussetzungen besser war, aber in der Rückschau hat man Mmn damals einen "Haufen Mist" angedreht bekommen. Ich finde die heutigen Preise daher nicht teuer. Muss ja nicht unbedingt die 6500XT sein, reicht ja auch eine RX 6600.
 
Quidproquo77 schrieb:
Ich finde die heutigen Preise daher nicht teuer. Muss ja nicht unbedingt die 6500XT sein, reicht ja auch eine RX 6600.

Eins der wenigen Modelle, die halbwegs vertretbar sind, ja. Aber auch nur deshalb, weil sie von ihrer UVP von 340 Euro als Auslaufmodell bereits ein gutes Drittel eingebüßt hat... Ähnlich verhält es sich so langsam mit der RTX 3060 / 12 GB, die dazu den Vorteil dieser 12 GB hat. Trotzdem: GPUs mit Minimalvoraussetzungs-Mengen an VRAM zum Einführungspreis einer ganzen Spielkonsole -- das gabs jedenfalls noch nie. Entsprechend skaliert auch der Rest.


Mit einem Preis von 89 bis 99 Euro war die Radeon HD 4770 eine sehr gute Grafikkarte. Die Spieleleistung war vor 15 Jahren für die allermeisten Spieler ausreichend.


Computerbase hätte eine RX 6500XT auch damals schon nicht mit so einem Abschlussfazit versehen. Tatsächliches Fazit: "Der neue RDNA-2-Einsteiger ist weder konkurrenzfähig noch für sich genommen gut." Das Fazit zur HD 4770 liest sich hingegen samt Preisanker so, als sei das vor dem ersten Weltkrieg gewesen. 89 Euro, die für die allermeisten ausreichend sind. Dabei ist das drei Fußball-WMs her. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer
Svennc schrieb:
Eins der wenigen Modelle, die halbwegs vertretbar sind, ja.
Ich meine das aus der Gesamtsicht. Wenn ich mir heute eine Einsteigerkarte um die 200 Euro kaufe, zum Beispiel die RX6600, werde ich damit wohl auch noch in 10 Jahren jedes Spiel irgendwie zum laufen bekommen (siehe GTX 970 2014/290X 2013) Habe ich mir jedoch eine HD 4770 oder HD 4870 gekauft, funktionierte das nicht. Es geht ja nicht nur um die Hardware, sondern auch um die Software. Der Mehrpreis resultiert aus Schweiß und Know-How, was viele da reingesteckt haben.
 
Oh ich erinnere mich.
Die damaligen Diskussionen ob die HD4000 Reihe nun ein Paperlaunch war oder nicht :D

Kaum zu bekommen, sehr wenig stock und alle wollten die haben :)
 
Derzeit habe ich noch eine gaming-tauglichte GPU im Laptop. Desktop-Rechner finde ich dank "dickem" Heimserver überflüssig und aufgrund Mobilitätsanforderung (Betrieb abwechselnd im Wohnzimmer und Büro) auch unpraktisch.

Ich denke, mein nächster Laptop wird nur noch eine iGPU haben. Für Factorio reicht auch diese, die sind kompatibler zu linux/wayland und wenn ich wirklich mal Zeit zum zocken habe, dann wird es geforce now premium für einen Monat geben. Das ist sinnvoller und günstiger, als ~2k€ für einen Gaming-Laptop zu kaufen. Dann lieber einen günstigen, leisen, leichten Laptop mit rund 48 Monaten Lebensdauer holen und davon vielleicht 6 Monate geforce now bezahlen. Mit der jeweils aktuellen Hardware.
 
  • Gefällt mir
Reaktionen: lubi7
Zurück
Oben