News Im Test vor 15 Jahren: ATis Radeon HD 5750 war trotz 115 Euro UVP zu teuer

Iarn schrieb:
Die Grafikpeistung bekommst Du auch in einer 8700G APU von AMD.

Ja, habe ich diese Woche ausprobiert (auf einer Maschine, die im Produktivbetrrieb fuer was anderes bestimmt ist). Der 8700G hat in Runes of Magic in 3840x2160 um die 90FPS geboten, mit Ausreissern nach unten auf 75fps. Zum Vergleich: Die 6770 schaftt aehnliche FPS in 2560x1600; Intel HD530 (Core i5-6600K iGPU) schafft in 2560x1600 maximal 20fps (in 1920x1200 war sie ok).

Wenn AMD im 8700G das ECC nicht deaktivieren wuerde, oder eben den Pro 8700G verkaufen wuerde, haette ich schon laengst einen gekauft. So zoegere ich noch, und habe schon beim 5700G bis heute gezoegert, diese Entscheidung AMDs reduziert ihren Umsatz also.
 
  • Gefällt mir
Reaktionen: lubi7
MastaHabi schrieb:
Grob geschätzte 200€ (inflationsbereinigt) für eine vernünftige GraKa... Wo sind diese Zeiten nur hin? träum
In der vergangenheit. Da findet übrigens unsere gesamte Erinnerung statt 😂
Aber ja die Cryptoboys haben die preise wirklich nach oben getrieben. „Is doch egal ob ich die karte 2 oder 4 monate laufen lassen muss bis sie sich selbst bezahlt“ und zack war der markt leer und teuer. Ich wette wenn GPÙs die hälfte von heute kosten würde einfach der nächste Coin gehyped werden.
Der hohe preis ist dafür dafür verantworlich dass du überhaupt etwas kaufen kannst…
Von den 700€ UVP bei der 3080 hatten die wenigsten was davon, die meisten haben fast das doppelte bezahlt.
Selbst meine 2080ti vorher war günstiger aber wurde gehasst weil die UVP so hoch war. Aber 6 Jahre später ist sie immer noch relativ solide für 1440p und ist quasi eine 4060ti mit 11GB mit doppeltem Stromverbrauch :P
Und jemand in der in der gleichen zeit 3x Mittelklasse gekauft hat war insgesamt wahrscheinlich such nicht günstiger dran, hatte aber 4 jahre davon weniger Leistung zur verfügung.
 
  • Gefällt mir
Reaktionen: lubi7
Alesis schrieb:
Mein empfinden ist, dass man zu Radeon 5770 Zeiten für ~160€ eine starke Einsteigerklasse hatte.

Nur war das damals schon obere Mittelklasse. Einsteigerklasse war die 5450 mit Cedar (80 shaders), dann kam die untere Mittelklasse (5550-5670) mit Redwood (320-400 shaders), dann die obere Mittelklasse (5750-5770) mit Juniper (720-800 shaders), dann die Oberklasse (5830-5870) mit Cypress (1120-1600 shaders), und schliesslich die Spitze (5970) mit 2xCypress.
 
  • Gefällt mir
Reaktionen: lubi7, Yesman9277, stevefrogs und 2 andere
Damals waren Mittelklasse-GPUs noch ne richtige Option meist ohne nennenswerte Pferdefüße. Mittlerweile haben Mittelklasse-Grafikkarten oft irgendwelche Pferdefüße - sei es eine schmalbandige PCIe-Anbindung, ein sehr schmaler Speicherbus oder schlicht zu wenig Grafikspeicher.

Wenn nicht die Sprünge bspw. zwischen einer x700XT und einer x750XT extrem gravierend sind, die Bezeichnung es aber nicht wirklich suggregiert... Gibt es auch teilweise mehrere völlig unterschiedliche Konfiguration einer Grafikkarte unter sehr ähnlichem Namen...

So vor ~15 Jahren ging mein näheres Interesse hinsichtlich Hardware los, da wünsche ich mir machnmal schon die alten Zeiten zurück, wo vielleicht nicht alles, aber vieles besser war, und es einfach mehr Spaß gemacht hat.

Damals hab ich mit ner GTS250 1GB gezockt - sogar noch bis Black Ops II. 🥲
 
mae schrieb:
im 8700G das ECC nicht deaktivieren wuerde
Ist es wirklich deaktiviert? ECC ist bei AMD oft trotzdem nutzbar, aber eben nicht offiziell validiert (und die Boardhersteller geben selten an, ob ein Consumer Board ECC kann).
Ergänzung ()

Coeckchen schrieb:
Aber ja die Cryptoboys haben die preise wirklich nach oben getrieben.
Haben sie witzigerweise doch auch schon damals zur HD 5000 Serie. Da gabs einen ersten Mining Boom und man hat die Karten lange kaum und nur weit über UVP bekommen.

Mit einer der Gründe, wieso die Reihe bei Gamern nicht richtig eingeschlagen hat, obwohl sie so gut und effizient war.
 
  • Gefällt mir
Reaktionen: Coeckchen
Powl_0 schrieb:
Ist es wirklich deaktiviert? ECC ist bei AMD oft trotzdem nutzbar, aber eben nicht offiziell validiert (und die Boardhersteller geben selten an, ob ein Consumer Board ECC kann).

Das ist bei den AM4-CPUs so (und wir haben einige AM4-Maschinen mit ECC-RAM). Aber bei den APUs habe ich gelesen, dass es in denen, die uns AMD verkauft (z.B. 5700G) tatsaechlich deaktiviert ist, das hat jemand ausprobiert und dann darueber gepostet. Da muss man sich einen Pro 5750G kaufen, um ECC zu haben, aber den verkauft uns AMD ja nicht, und auf dem grauen Markt ist der oft kaum erhaeltlich und daher viel teurer.

Bei AM5-CPUs ist ECC tatsaechlich offiziell unterstuetzt (wird auf den Seiten von AMD als Feature gefuehrt). Bei den APUs stand ECC kurz als Feature auf der Seite, ist aber dann noch vor Verkaufsbeginn verschwunden. Beim Pro 8700G steht dagegen: "ECC-Unterstuetzung: Yes (Requires platform support)". Ich gehe daher davon aus, dass beim non-Pro 8700G wie beim 5700G die ECC-Unterstuetzung deaktiviert ist.
 
Zuletzt bearbeitet:
115€ UVP in 2009 entsprechen heute ca. 167€. Und das für eine ordentliche Mittelklassekarte. Wie sich die Preise geändert haben ist unglaublich. Meine Einschätzung dazu:

Um 2009 herum war eine ziemlich harte Zeit für PC-Gaming und die Entwickler haben sich viel stärker auf Konsolen (PS3/360) konzentriert. Der PC als Gamingplattform feierte erst ca. Mitte der 2010er sein Comeback, insbesondere eben als Premium-Plattform. Seitdem ist Hardware deutlich teurer geworden, auch inflationsbereinigt.
 
  • Gefällt mir
Reaktionen: butchooka, eXe777, Coeckchen und eine weitere Person
So und jetzt erzählt der Opa mal wie es wirklich war ! Die hd5770 war schon kurz nach Release kaum zu bekommen und kostete zum Teil 175eu und mehr wenn es um edle Modelle wie die sapphire Hawk ging , ich meine die GPU Chips waren knapp und darum wurden die vorhandenen Chips auch nur in teure custum Designs verbaut, weil die Marge da besser ist. Also von wegen die 5750 war zu teuer im Vergleich zum UVP gingen die auch auf 130 rauf und ob es wirklich flächendeckend 4850 für 85 Eu gab wage ich zu bezweifeln ... Das war auch der Grund wieso ich statt einer 5770 eine 4870 gekauft habe , was ich auch erst 2014 bereut habe da Alien Isolation dx11 sehen wollte 😎
PS: Wirklich unsinnig war die 5830, weil hoher Verbrauch wegen der stark beschnittenen high eng GPU und trotzdem geringen Leistung, viele werden die nur gekauft haben weil die Hawk schon fast gleich teuer war 😜
 
Bluebird79 schrieb:
Das war auch der Grund wieso ich statt einer 5770 eine 4870 gekauft habe , was ich auch erst 2014 bereut habe da Alien Isolation dx11 sehen wollte 😎

Jetzt kommt Ururuopa und erzählt, dass er Isolation dann eben auf einer HD 6670 gespielt hatte, die seine 8600GT abgelöst hatte. Nicht in maximalen Details. Nicht in stabilen 60fps. Und auch nicht in Full-HD. Aber angesichts einer Karte, die drei (!) Jahre vorher für 70 Euro zu haben war, hatte ich schon schlechtere Deals gelandet. :D(Eigentlich spielte ich zu dieser Zeit vorwiegend Football Manager und son Käse, deshalb die Karte -- dass dann auch noch Skyrim, Dishonored und Isolation ganz ordentlich drauf liefen, war nur ein Bonus). :D
 
Zuletzt bearbeitet:
Humbertus schrieb:
Immer wieder fasziniert zu sehen wie sich die Technik seitdem entwickelt hat. Da hatte ja alles im Test bei idle weit über 100 Watt Verbrauch und teils Lautstärken dir man heute euch unter Last nicht erreicht.

Auch wirken die alten kühllösungen wir billiges Spielzeug heutzutage. Nur die Preise, die waren definitiv um Welten besser.
Und wie immer unter in jedem Retro-Grafikkarten-Artikel seufz:

Wie im Test beschrieben entsprechen die angegebenen Verbrauchswerte dem des gesamten Systems...
 
@mTw|Marco Und ich find über 100W idle für ein gesamtes System ist verdammt viel. Und an der idle Lautstärke ändert das auch nichts.
 
die HD5xxx hatte ich damals ausgelasssen... hatte zu dem Zeitpunkt ne HD4870 welche durch eine HD 6870 ersetzt wurde...
 
Humbertus schrieb:
@mTw|Marco Und ich find über 100W idle für ein gesamtes System ist verdammt viel. Und an der idle Lautstärke ändert das auch nichts.
Hat doch auch nie jemand behauptet, dass das wenig sein soll?

Es geht hier um die 5770 und die verbraucht 18W in Idle. Und das ist doch völlig ok oder?
 
Ich hatte im Gaming System eine 4870 und die 5750 ist damals in meinen Media PC am Fernseher eingezogen und das war wirklich ein super Teil für diesen Zweck.
 
Drakrochma schrieb:
Damals wohnte ich noch im Hotel Mama. Daher hat mich der stromverbrauch nicht wirklich interessiert und die 4850 war eindeutig angenehmer.
Zumindest im zweitrechner. Im hauptrechner lief ein Triple Crossfire. Ich glaube ich will zurück ins Hotel Mama. ;)

Euch allen einen wundervollen guten Morgen und einen hoffentlich angenehmen Tag.

Hatte Stromverbrauch nie auf dem Schirm in meiner Jugend aber eins weiß ich: in den 2000ern hatte ich zwei PCs die genug Wärme rausgeballert haben um in Schreibtischnähe selbst im Winter für angenehme Temperaturen zu sorgen.

Mein System mit 4070 und Ryzen 7500f kriegt das nicht mal mehr ansatzweise hin. :lol:
 
Da ja wieder keiner es für nötig befunden hat auch die Einsteiger-/OfficeKlasse zu testen... ☝️😌
Zufällig hab ich neulich erst ne 5450 (1GB DDR3) im Rechner gehabt und Xontoic drauf laufen lassen.

Wer sich für interessiert:

Danke für die "Im Test vor 15 Jahren" Artikel!!
Immernoch interessant!
Schönen Abend und ruhigen Sonntag an Alle.
 
SamSoNight schrieb:
Um 2009 herum war eine ziemlich harte Zeit für PC-Gaming und die Entwickler haben sich viel stärker auf Konsolen (PS3/360) konzentriert.
Insbesondere ist 2009/2010 das letzte mal, dass sich nvidia und AMD einen echten Preiskampf gegeben hatten. Nvidia hatte damals zwischendurch ihre GTX 260 mit negativer Marge verkauft um irgenwie den Marktanteil erhalten zu können bis die 400er Generation startbereit ist.

Heute absolut undenkbar. Weder nvidia noch AMD haben Interesse an aggressiver Preispolitik.

Abgesehen davon sind u.A. die Einkaufspreise pro Wafer durch die Decke geschossen. Einen 576mm² Chip für ~160€ (GTX 260) verkaufen? Der kostet heute im Einkauf schon mehr.

Beim 12" Wafer sind bei 576mm² ca. 93 Chips drauf. Beim $20k 4nm Wafer sind das $215 pro Chip - und von denen sind nichtmals alle funktional.
Oben drauf kommen dann noch Kosten für Entwicklung, Masken, Binning, Packaging, weitere Komponenten (insbesondere VRAM), Mangement Overhead, Distribution, Marketing, etc pp... und das ist der Preis den nvidia einem Board Partner in Rechnung stellt. Deren Kosten kommen da noch oben drauf - da kannst du fast alle oben genannten Punkte nochmal nennen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sly123, Rock Lee und Nine-tailed Fox
iGameKudan schrieb:
Damals waren Mittelklasse-GPUs noch ne richtige Option meist ohne nennenswerte Pferdefüße.

Wer anfangs eine HD 5850 für 200€ ergattert hatte, konnte sich die Sparversion sparen.

Ich hatte eine der ersten 5850, musste sie allerdings wegen 120 Hz-Inkompatibilität zurückschicken.
 
Zuletzt bearbeitet:
Zurück
Oben