News Im Test vor 15 Jahren: Radeon HD 4890 und GeForce GTX 275 lagen Kopf an Kopf

Wirklich eine schöne Serie, geht aber natürlich im Vergleich zu den Nachfolgern zurecht ziemlich unter, die ja zu den besten GPUs aller Zeiten gehören.

Die 4890 war schon eher Brechstange, ich glaube ja nicht, dass AMD das nötig hatte. Die kleinen Geschwister waren definitiv die runderen Produkte.
Bei mir hat damals die kleine 4850 eine 9600GT ersetzt, und ich war so zufrieden, dass bis heute keine nVidia länger im Rechner geblieben ist, außer mal eine 3070 für Cyberpunk.
So ewig habe ich die 4850 aber nicht genutzt, dann kam die 5850, mit RV870 hat AMD wirklich alles zersägt und nVidia zum Thermi-Fiasko gezwungen... was absolute Leistung angeht für mich herausragend, sehr schnell und im Vergleich zu nVidia einfach um Längen voraus, was die Effizienz anging. G80 oder R300 mögen was die Leistung im Vergleich zur Konkurrenz anging noch beeindruckender gewesen sein, aber wenn man den Preis mit einbezieht ist RV870 für mich die eindeutig rundeste Grafikkartengeneration aller Zeiten.
 
  • Gefällt mir
Reaktionen: ThePlayer
Hab auch noch eine und die direkte Konkurrenz dazu... Der Vorteil von der Geforce 275 war, dass diese auch noch Physx konnte, hat man dann bei Mafia 2 direkt gemerkt. :D

IMG_20240330_114446.jpg
IMG_20240330_114505.jpg
IMG_20240330_114522.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LETNI77, NMA, Hurricane.de und eine weitere Person
Hach ja, TeraScale. Hab damals ca. 2010 eine gebrauchte Radeon HD 4890 günstig von einem Kumpel bekommen um meine GeForce 9600GT zu ersetzen. War ein riesen Upgrade, sieht man ja auch in den Diagrammen vom Test.

Die Karte hat mich damals sehr beeindruckt und einige Zeit lang konnte ich damit mehr oder weniger alles auf hohen Einstellungen spielen. Leider hat das nicht so lange gehalten wie es wahrscheinlich gekonnt hätte, da AMD bereits 2013 den Treibersupport eingestellt hat - und die Treiber sogar in einem teilweise kaputten Zustand zurückgelassen hat.

Vor ein paar Jahren habe ich die Karte wieder rausgekramt und mit gemoddeten Treibern getestet, damit ist die Karte zu durchaus beachtlichen Leistungen fähig (man muss ja auch immer bedenken, in welchen Auflösungen wir damals gespielt haben). CrossFire habe ich auch getestet, kann es aber nicht wirklich empfehlen: Die Skalierung ist minimal.

Unter Last war der Schalldruckpegel doppelt so hoch wie bei einer Radeon HD 4870 und damit störend laut.
Ach was. So ein Düsentriebwerk unterm Schreibtisch ist doch genial :daumen:

Fun Fact: Die Lüftersteuerung meiner Karte drehte ab Werk den Lüfter nie auf 100%, egal wie heiß die GPU war. Ich erinnere mich noch sehr genau daran, dass die Karte auf einer bestimmten COD:MW2 Maps durch die Staubeffekte regelmäßig Temperaturen von über 100c erreichte - der Lüftersteuerung war das aber offensichtlich egal :D
 
  • Gefällt mir
Reaktionen: JunkyardSpecial
Hatte damals eine 9800GTX+ mit einem bescheidenen Lüfter und bin dann irgendwann auf eine GTX470 gewechselt, auf der ich den Thermaltake VF3000 Kühler montiert hatte.
Wollte damals bewußt keine ATI haben. Entweder hatte ich noch immer von der 9800Pro böse Erinnerungen, oder ich hatte schon 3D Vision im Auge.
Egal wie, die Generation danach (GTX400 und HD5000) waren ein gigantischer Sprung damals.
 
entengruetze schrieb:
Und heute bekommt man dafür ne popelige RTX 3060 oder RX7600 .....
Ja leider, das müsste aber nicht sein. Hersteller und Händler sind zu gierig geworden, warum kann AMD die UVP der Topmodelle teils über €200 reduzieren und trotzdem Gewinn machen? Und AMD ist noch der mit den "günstigen" Preisen.

Miningboom, Corona-Scalper, jetzt AI-Boom, manchmal wünscht man sich fast einen kompletten Crash/Reset des Marktes.
 
  • Gefällt mir
Reaktionen: Vulture, entengruetze und Fyrex
4890 Hate ich damals zwei von XFX. Beide sind Zeitgleich gestorben, seit dem nie wieder XFX.
Bei nem Kumpel der sich die auch besorgte ebenfalls.

Leistung hatten die richtig gut und ich meine mal das ich erst mit denen Crysis durchgespielt hatte XD

So oder so ne wilde zeit.
 
  • Gefällt mir
Reaktionen: NMA
man solche test mit aktuellen methoden wäre sehr interessant sofern man die gpu hat insbesondere mit den heutigen tbp auswertungen was damals nicht ging.
ich habe selbe ne 9800gtx4 da die dürfte um die 140w ziehen

Bei den benchmarks brauchte man wirklich nur fps vs fps setzen da die spiel gnadenlos einbrachen bei zu wenig bandbreite oder zu wenig vram da passte die game engine nix an.
heute würde ich das anders machen

als erstes die grafik intensivsten spiele was 2009 folgendes war

fallout 3 (creation engine)
far cry 2 (dunia)
crysis warhead (cryengine 2)
resident evil 5 (re engine)
dragon age (Ea)
cryotasis (cry engine)
nfs Shift (EA)
borderlands (unreal engine 3)

mehr gab es nicht was in dem Jahr auf die tube gedrückt hat.
Die gtx295 war ne dual gpu auf einer Platine und somit von sli Problemen behaftet das nicht jedes Spiel linear skalierte. meist gab es zwischen 60-80% Auslastung beider chips.
cpu limits gab es damals auch da der schnellste desktop cpu ein core i7 965 war quadcore cpu mit maximal 2,66ghz oc bar bis 4,0ghz mit glück.
hach war es damals einfach den ram auf ddr3 1866 zu bekommen. Es gab zwar keine xmp profile aber der ramtakt war quasi sicher und das fsb oc brachte zudem noch perf Zuwächse.
Der ringbus war daran gebunden.
amd ht bus ist es identisch es brachte deutlich mehr den ramtakt zu erhöhen als die cpu coreclock von ddr3 1600 mit ht1600 auf ddr3 1866 mit ht2400 brachte viel da war die konfig mit nen phenom2x4 955
beim Takt ging nicht viel bei knapp 4,0ghz war Schluss. bei grob 1,42v llc steigend von 1,38v
temps waren eher das problem da die phenoms ab 70°c drosselten

Heute ist oc der cpu quasi sinnfrei und bei gpu ebenso komplett sinnlos eher sollte man die tbp begrenzen
Gpu oc brachte extrem viel aber damals gab es kein msi afterburner somit musste das per riva turner gemacht werden da zu der Zeit feste taktraten und feste vcore gab.
Da waren aib Modelle noch von Bedeutung nicht selten das ein chip derselben klasse zwischen den sku bis zu 20% perf Differenzen gab. Entsprechend dem preis ne 9800gtx+ gab es ab 160€ januar 2009 und war der vorgänger gen high end chip g92b derselbe chip oc auf 790mhz(effektiv 1,58ghz) war um 20% schneller für 180€ P/l war damals durchaus kaum möglich manuell war das ne frage der Kühlung.
dann konnte man manuell noch mal ordetlich oc bei 850mhz der n55 node war quasi dann am limit
das ging ab 2010 mit dem msi afterburner was einiges vereinfachte
bandbreite fehlt dieser sku am meisten diese aber war limitiert mit dem gddr3 chips mehr als 2,3gbps gehen nicht
Übe die perf machte man sich keinen Kopf da die spiele von den Konsolen her designt wurden und quasi ab ner entry gpu bei maxed settings immer über 80fps kamen Die ausnahmen habe ich beschrieben

entry 2009 9600gt 512mb preis ab 80€ (1-1,50) das wären heute 170€ Danke inflation seit 2021 ohne diese also bis 2021 war es nur 10% seitdem sind es 33% und das wegen nen krieg und pandemi.
Womit klar ist wo entry preise sein müssten bei 170-220€
mid class was die 9800gtx+ entspricht in etwa kostete das 160-200€ heute 299-369€
high end damals 250-350€ heute 469€-649€

entry 9600gt amd hd4670 (170€) = rtx4060 rx7600 (300€)
mid class gtx260 hd4770 (299€)=rtx4070 rx7800xt (550€)
high end gtx295 hd4970 dual gpu (469€) = rtx4090 rx7900xtx (1700€ und 1000€)
inflation inklusive

man siehe die Diskrepanz warum ich die aktuellen preise völlig absurd halte zumal wieder ein Konsolen Wechsel ansteht was die perf nochmal anhebt. = höhere Anforderungen bei der gpu. in entry den diese reichen nicht mehr aus für min 60fps auf 1080p

Am ende bleibt nur eins, die Medien müssen das bemängeln und dafür können die Entwickler nix den die preise bestimmen die chip Hersteller
Was Aktuell amd nvidia und intel sind. umsetzbar sind solche sku ohne Probleme aber man will die asp auf min 1000$ führen aktuell ist das 700$ gier kennt keine grenzen.
Die war mal bei 300$ maximal sehe ich das die asp für 400$ als angemessen an.
asp ist der Durchschnittspreis alle sku einer gen.
Das bemängeln könnte so laufen
Spiel a mit min max vergleich bei allen gpu mit bildvergleich und fps vs gpu load tbp Angabe und das je gpu und eine Übersichttabelle mit den werten am ende ein video mit low settings wo die Test Sequenzen sind timestamps dabei
und das nur für eine Auflösung je gpu klasse maßgebend für den unterschied ist min 60-90fps die games für aktuelle Jahr dxr und raster Anzahl der Spiele schon schwieriger es gab Jahre wo kaum was herauskam . Dieses Jahr scheint wieder so eins zu sein wo man mühe hat über 10 games zu kommen die anspruchsvoll werden.

aber danke für die Erinnerung wie einfach damals gpu test waren
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cele
Meine 275, schön schnell, hat mein damaliges 550W gekillt und hatte Spulenfiepen aus der Hölle.
Nur 220€ für Topdog Leistung.


😍
 
@bad_sign Hattest du bestimmt son LCPower Chinaböller verbaut... :D
 
Leider keine Ahnung, kann mich erinnern, dass es keinen Namen trug, der mit heutigen bekannten Marken übereinstimmt.

Der PC Stammte ursprünglich von einem lokalen PC Dandler (Athlon 64), wo dann später ein C2D 6750 mit 8800gt rein kam. Ende 2009 die 275 und Mitte Januar machte es ein lauten Knall - nur Netzteil explodiert, sonst alles heile^^

Danach kam ein Enermax 82+ 625W NT rein, das lief bis zum Ryzen 1700 in 2017
 
  • Gefällt mir
Reaktionen: entengruetze
Uff ich hatte gar nicht mehr auf den Schirm, dass diese Grafikkarten im IDLE deutlich über 100 Watt gezogen haben. Das ist heute die max TDP einer 4060 :mussweg:
 
Quidproquo77 schrieb:
Damals gab es gefühlt noch gar keine Speicherdiskussionen, nicht einmal als die HD4870 512MB auf den Markt gekommen ist.
Ich erinnere mich an die PC Games 2002 C&C Generals 64 vs 128MB. War damals aber natürlich kein Thema nach 2 Jahren war jede Karte zu lahm😂.
 
DevPandi schrieb:
Während eine GPU mit den schlechten Latenzen wunderbar zurechtkommt, weil man In-Order arbeitet

Das waere schoen, wenn man Probleme mit hohen Latenzen einfach durch in-order-Verarbeitung loesen koennte.

Tatsaechlich ist es so, dass GPUs Probleme mit viel Datenparallelismus bearbeiten (und deswegen auch fuer Supercomputing und AI verwendet werden). Dabei kann man die Latenz ueberbruecken, indem andere Daten verarbeitet werden, waehrend die gerade angeforderten Daten aus dem Speicher geladen werden.

Dagegen werden CPUs fuer Probleme mit wenig oder gar keinem Datenparallelismus eingesetzt. Da hat in-order schlechte Karten und reagiert noch empfindlicher als OoO auf Latenzen. Deswegen hatte Itanium und Itanium II (in-order) lieber einen 16KB kleinen D-cache mit 1 Zyklus Latenz, waehrend der gleichzeitige Athlon XP (OoO) einen 64KB grossen D-cache mit 3 Zyklen Latenz hatte (wobei 3 Zyklen auf dem 1800MHz Athlon XP so lang dauerten wie 1,7 Zyklen auf einem 1000MHz Itanium II, beide im Juli 2002 verfuegbar).

Man sieht auch die Entwicklung beim Xeon Phi: Zuerst als Grafikprozessor entworfen mit in-order-Verarbeitung, dann auf Supercomputing ausgerichtet, aber dafuer ist in-order offenbar nicht mehr so toll, und so wurde der auf OoO umgebaut, und schliesslich von der Mainstream-Xeon-Linie abgeloest, vielleicht auch, weil der in-order Xeon Phi fuer die total datenparallelen unter den Supercomputing-Problemen mit den GPUs von Nvidia und AMD genausowenig konkurrieren konnte wie in Spielen und aehnlichen Graphikanwendungen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA
silentdragon95 schrieb:
[...]Leider hat das nicht so lange gehalten wie es wahrscheinlich gekonnt hätte, da AMD bereits 2013 den Treibersupport eingestellt hat - und die Treiber sogar in einem teilweise kaputten Zustand zurückgelassen hat.{...]
Oh ja, deswegen bin ich bis heute nachtragend. HD5000/6000 ist nicht ganz so schlimm, aber die letzten offiziellen Windows-Treiber für HD2000-4000 sind reine Grütze.
 
  • Gefällt mir
Reaktionen: silentdragon95
Für diejenigen, die den Preisen hinterhertrauern: Vergesst auch nicht, dass diese Jahre mit den wenigen Problemen bei GPUs gleichzeitig die Jahre mit den härtesten Problemen im Bereich Grakadesigns und Konsolenports waren. Abrauchende Grakas, Kühler aus der Hölle, oftmals anfangs nur Referenzdesigns kaufbar, Namenschaos noch und nöcher und Spieleoptimierung, die ähnlich schlecht ausfiel wie bei manchen Totalausfällen, die einem heutzutage zwischendurch vorgelegt werden.
 
Bulletchief schrieb:
Achja... Früher, wo AMD tatsächlich noch konkurrenzfähig in Sachen Leistung war...
Was soll das denn jetzt heissen. Mit GCN war man anfangs durchaus konkurrenzfähig, und RX6000 spielte auch leistungsmäßig ganz vorne mit der RTX 3000er Serie mit - dass die meisten Spieler davon recht wenig gemerkt haben weil beide Serien es nie so richtig in die Regale geschafft haben ist ja nicht AMDs Schuld.
 
  • Gefällt mir
Reaktionen: TKaiTO, cele und konkretor
Zurück
Oben