News Im Test vor 15 Jahren: Die ATi Radeon HD 4850 punktete über den Preis

Dennoch ist es eine Kompromisslösung. Wären die Leute bereit 500€ für einen UHD@144Hz auszugeben und dazu eine Grafikkarte der oberen Leistungsklasse würden diese einen WQHD weit umfahren, wenn sie ihn sehen. Man kann mit ein wenig Wissen und Willen aber selbst mit einer RTX 4060/3060(Ti),RX 6600XT/6700 die meisten aktuellen Games wunderbar in UHD spielen, nur eben nicht @Ultra. Ältere Spiele laufen dann aber auch in Ultra und das ohne Probleme mit 8 oder teils sogar 6GB VRAM.
 
@sethdiabolos

Ein Kompromiss für was? In der Regel kaufen die Leute das, was sie benötigen und es werden immer (!) Kompromisse eingegangen. Das perfekte Produkt gibt es nicht. Könnte es nicht einfach sein, dass die Konstellation für viele Leute ein Sweetspot zwischen Bildschirmgröße, Pixeldichte, benötigter Rechenleistung und Preis darstellt? Natürlich verschiebt sich dieser mit der Zeit durch die technische Entwicklung.
Was wäre denn in deinen Augen keine Kompromisslösung? Bei dir klingt es so, als ob 4K die kompromisslose ultimative Endausprägung wäre. Ist es aber nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ja_Ge und NMA
@sethdiabolos
UHD vs. WqHD
Es stimmt schon, dass es gut möglich ist, auch moderne Spiele in UHD Auflösung, passabel spielen zu können.
Jedoch eben "nur" in "hoher" Auflösung, dafür häufig jedoch nicht, mit höheren Bildraten was, für viele jedoch ein ebenso nicht unwesentlich erwünschter Faktor ist.

Und genau deshalb, also aus der Konstellation heraus: Auflösung und Bildwiederholrate vs. zur Verfügung stehende Rechenleistung ist, WQHD@24"@144HZ, aus meiner Sicht, sehr wohl ein "Sweetspot".

@Backtopic
Richtig reingeballert hat dann (wie schon häufiger erwähnt), die HD 5870.
Zusammen mit Crysis und einem 1080P Panel, mein persönlicher Aha Effekt.
 
sethdiabolos schrieb:
Dennoch ist es eine Kompromisslösung.

Warum sollte ich mir einen Monitor holen, mit dem ich die Details in Spielen grundsätzlich reduzieren muss? Das ist doch auch nur ein Kompromiss. Ich spiele weiterhin in FHD und kann die Details beliebig hoch einstellen. Kann sein, dass das Bild gröber ist als bei UHD, aber das ist mir schlicht egal.
Das ist wohl eine der wenigen Dinge, die genau wie vor 15 Jahren sind: Jede Karte hat ihre Auflösung.
 
Seppuku schrieb:
Der lag bei 199$ für die 4850 bzw. 299$ für die 4870.
Wo bekommt man heute für einen vergleichbaren Preis eine Karte, welche sich in einem ähnlichen relativen Leistungsspektrum bewegt?
Das musst du aber auch noch die Inflation berücksichtigen, wenn du es mit den Preisen aktueller Grafikkarten vergleichst. Die MSRP der 4580 würde heute entsprechend 282$ und die der 4870 dann 424$ betragen.
 
Floppy5885 schrieb:
Selbst absolute Enthusiasten haben damals nicht auf ein 4x SLI System gesetzt.
Stimmt, ich hatte nur Crossfire-X mit 2 HD4870X2, SLI mit mehr als 2 Karten scheiterte bei mir am Board, da ich zuvor nur 2 GTX 280 hatte und die dritte nicht reinpasste. :P
 
Ich war damals stolzer Besitzer der großen Schwester der HD 4850, nämlich der HD 4870. Super Karte für einen guten Preis, welchen ich als Schüler mit Job problemlos zahlen konnte.

Hab den Preis von 150 EUR mal durch einen Inflationsrechner gescheucht. 150 EUR 2008 entsprechen ~200 EUR heute. Für 200 EUR bekommt man heute gerade mal eine RX 6600. Bei Nvidia bekommt man bestenfalls eine GTX 1660. Beides an sich keine schlechten Karten, aber für 2023 und darüber hinaus (1080p und mehr, Raytracing, etc.) einfach nicht zukunftsfähig.

Der Markt ist einfach kaputt :freak: Midrangekarten mit zu wenig VRAM wie die RX 7600 gehen nicht für unter 270 EUR über die (virtuelle) Ladentheke und bei Nvidia steigt man aktuell erst ab 400 ein. Die RTX 4060 soll eine UVP von 329 EUR haben, was höchstwahrscheinlich auch zu viel ist für die gebotene Leistung.
 
Absolut lustig, wenn einige Trolle hier meinen, heute wäre es ja nicht teuer.
Ich habe mir damals ungefähr in der 4850 Zeit oder leicht davor eine 9800 GT gekauft. Für - ich habe nachgeguckt - 110 Euro.
Die GT war immer noch recht gut, nämlich nur etwas langsamer als die 4850, die ja auch eine sehr gute Karte war. War glaube ich noch eine OC-GT, aber macht den Kohl auch nicht fett.
Jedenfalls war die Karte im Herzen eine Karte der alten Generation und daher ... genau: billig, also noch billiger. Genau das ist aktuell eben kaum der Fall. Die "alten" Dinger aktuell gehen ja erst seit einiger Zeit per UVP über den Tisch und seit kürzerem vielleicht auch mal günstiger.
Also wenn sowas nicht absurd ist, zumal der UVP ja eh der Knaller war / ist. Der Markt wird ja ganz bewusst so gehalten und er scheint hinreichend zu laufen.

Natürlich sind die neuen Karten komplexer usw. Aber es liegt mehr als auf der Hand, dass gerade auch die Mittelklasse / Midrange von früher viel besser und viel günstiger war. Letzteres trifft auf alle Karten natürlich zu. Und Lowtier war beiweitem nicht so schlecht.
Naja was will man machen, außer boykottieren. Hätte ich ehrlich gesagt auch machen sollen, denn meinen alten Rechner benutze ich nach wie vor mehr als die "neue" Möhre. Gibt auch anderes Hobbys!

Die 4850 war jedenfalls eine solide Karte. Typische Midrange-Karte, wo man eigentlich nur zuschlagen musste.
 
Hab die 8800GT gegen eine 4850 mit doppelt RAM getauscht.
Ein Unterschied wie Tag und Nacht.
Fallout 3 mit HD Mod war plötzlich ruckelfrei spielbar.
Von da an wusste ich, was VRAM Mangel (bei NVidia Karten^^) bedeuten kann!
Ergänzung ()

MPQ schrieb:
Die 4850 hatte gefühlt jeder. 150 - f***ing Euros!!! Und das bei der Leistung. Wenn es danach geht, dürfte die 6700XT heute auch nur 200€ kosten.
Die 6700Xt wäre aber eher eine 4870. ;-P
 
Seppuku schrieb:
@sethdiabolos

Bei dir klingt es so, als ob 4K die kompromisslose ultimative Endausprägung wäre. Ist es aber nicht.

Ist es nicht. 8k auf 27 Zoll wäre für mich wahrscheinlich das Ultimo zusammen mit 120+Hz und das bei 10-12bit Farbtiefe und einer gleichmäßigen Ausleuchtung. Wird es aber vermutlich so schnell nicht geben.
 
Schon cool was damals möglich war, allerdings sieht man an den Charts, dass die Abstände auch nicht so mega gross waren und die Karten kamen viel schneller raus. Wenn heute jedes Jahr oder manchmal 3/4 Jahr ne neue Karte rauskäme, wären die Preise vermutlich auch viel niedriger.
 
Hatte damals auch AMD Karten, Radeon 4870 und 7870 GHz... damit hatte ich bis auf ne Lötstelle keine Probleme. Danach nur noch schlechte Erfahrungen mit AMD gemacht und seit VR ein Thema ist können mir ATI/AMD Karten gestohlen bleiben. :)
 
sethdiabolos schrieb:
Dennoch ist es eine Kompromisslösung.
Mehr eine von vielen Möglichkeiten, die je nach Bedarf besser oder schlechter geeignet ist.
sethdiabolos schrieb:
Man kann mit ein wenig Wissen und Willen aber selbst mit einer RTX 4060/3060(Ti),RX 6600XT/6700 die meisten aktuellen Games wunderbar in UHD spielen,
3D Shooter mit low FPS oder ultralow Details? Das wäre für mich ein wirklich schlechter Kompromiss. Habe selber eine 6700XT und HLL ist in 4K nicht vernünftig spielbar. Upscaling ist dann wieder nur ein Kompromis.
 
Hell let Loose ist aber auch kacke optimiert und eine GPU da voll auszulasten ist scheinbar nicht ganz so einfach. Da kann aber die GPU nichts für, sondern die Software ist einfach nicht oder nicht genug optimiert. Da eine 3060 in 4K@Ultra aber 50-75 Fps schafft sollte die 4060 das auch schaffen.
 
Pisaro schrieb:
Das kann man auch umdrehen. Klassische Steam Bubble halt. Da wo selbst Office Laptops als "Gaming" zählen und viele Leute wohl eh nur 2 Stunden die Woche spielen:p
Kann man aber da Steam eine große Anzahl von Spielern abdeckt kann man das im Grunde Prima zum Hochrechnen nehmen.
Man muss ja davon ausgehen was die Masse macht. Der Casual haut halt keine 2000€ für nen PC aufn Kopf.
 
Meine 4850 konnte keine 30 FPS in Anno 1404 auf einem 22 Zoll 1680x1050 Monitor darstellen. Die Erinnerung daran, es war doch gefühlt erst vor wenigen Jahren? Wie die Zeit vergeht ;) Sonst lief sie problemlos.

Sie wurde später durch eine 5770 abgelöst. Das Megaupgrade war sie nun auch nicht, aber Anno lief geschmeidiger. Dafür waren die Idlewerte super.
 
Ich habe leider nicht so gute Erinnerungen an diese Karte.

Ich hatte 2 von Sapphire (Blaues PCB & Referenz Design beim Kühler) im CrossFire Cluster zusammen mit einem Phenom X4 9950 BE im Einsatz und die Karten sind trotz sehr Großzügiger Case Kühlung ständig überhitzt und haben sich Abgeschaltet.

Selbst ein Austausch durch Sapphire hat mit dem Replacements keine Besserung der Situation ergeben.

Im Sommer wurde es da so Absurd, dass ich beim Crysis Zocken, das Gehäuse aufgemacht habe und einen Zimmerventilator mit voller Power an die Seite das Gehäuses und auf die Karten habe pusten lassen. Was... immerhin 30 min Gameplay vor der Abschaltung der Karten gebracht hatte.

Das Ganze hatte mich wirklich Schockiert, da ich zuvor mit Radeon 9800 Pro, X800 & X1950 Pro (AGP) sehr gute Erfahrungen gemacht hatte.
 
@Benzolium meinst du die:
IMG20230701135230.jpg

Sind tatsächlich Heißsporne, da ist eine entsprechende Asus kühler
 

Anhänge

  • IMG20230701135227.jpg
    IMG20230701135227.jpg
    910,5 KB · Aufrufe: 106
  • Gefällt mir
Reaktionen: Hardy_1916
@andi_sco

Nicht ganz, über die wäre ich recht froh gewesen, weil mich meine zu erinnern, dass das "neue" Model etwas besser bei der Wärme Performt hat, aber ich mag mich irren.

Ich meine diese Model:
RadeonHD4850_Saphire_Reference.png


Das Ganze hatte mich wirklich stark geärgert, weil es mein erstes (und einziges) CrossFire System war, welches ich jemals Build/Owned hatte.

Ich muss dazu sagen, dass ich mich nie auf einen CPU Manufacturer o. GPU Manufacturer festgelegt hatte.
Daher bin ich direkt auf eine GeForce GTX 260 von Asus (ASUS GeForce GTX 260 Matrix) umgestiegen bin.

Das Gesamte System hatte aber nur eine sehr kurze Lebenszeit bei mir, da ich danach ein AMD Phenom II X6 System zusammengestellt hatte.

EDITH Sagt: Jetzt wo Ich drüber nachdenke und derzeit so ziemlich alle meine alten Retro Systeme wieder aufbaue (6 Computer gesamt, von Pentium II über AMD Athlon Thunderbird, Pentium 4 HT, Core 2 Duo, AMD Phenom II) fällt mir auf, dass ich Ständig zwischen Intel/AMD/nVidia/ATi/3Dfx u. PowerVR gewechselt bin. Mag meine Nostalgie sein, aber ich sag nur "Good Times" (╯°□°)╯︵ ┻━┻
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andi_sco
Zurück
Oben