News Im Test vor 15 Jahren: Radeon HD 4890 und GeForce GTX 275 lagen Kopf an Kopf

  • Gefällt mir
Reaktionen: NMA, Bigfoot29, mae und 2 andere
Besser als die Preise zu streichen wäre es bei den Preisen von damals den inflationsbereinigten Preis mit anzugeben. Für die HD4890 wären das ca. €280 und für die GTX275 €320
 
  • Gefällt mir
Reaktionen: Vulture, entengruetze und mae
Dito schrieb:
Müsste doch 4870 heißen bei "doppelt so laut als 4870"
Ja und Nein. Ja es muss dir 4870 sein. Nein, es beleibt bei einem Wie: Die 4890 ist so Laut wie die 4870.

Die Grafikkarte ist lauter als die andere.
Die Grafikkarte ist so laut wie die andere.
Die Grafikkarte ist doppelt so laut wie die andere.
 
  • Gefällt mir
Reaktionen: vAro
Das waren noch Zeiten. Ich habe damals die limitierte Sapphire Atomic Radeon HD 4890 gekauft und die Karte lagert noch heute im Regal.

Mit den 1000 MHz GPU-Takt hat die einer „normalen“ GTX 285 gut Dampf gemacht und war dazu auch noch sehr leise! Eine tolle Grafikkarte!
 
  • Gefällt mir
Reaktionen: Wowka_24
Falcony6886 schrieb:
Mit den 1000 MHz GPU-Takt

Jupp, auch daran sieht man, wo wir uns in den letzten par Jahren hin entwickelt haben.

Meine 780Ti Golden Sample, Double Hand Selected, reißt die 1000 Mhz gerade so. OC ist da mit Umgebungstemperaturen, die für Menschen nicht Lebensfeindlich sind, eher "for the mood".

Da kam nicht mehr viel.

Heute reden wir über 3Ghz und den Weg zu 4Ghz. :heilig:

Es geht voran.

mfg
 
  • Gefällt mir
Reaktionen: NMA
Federn lassen musste die Radeon HD 4890 in den B-Noten. Unter Last war der Schalldruckpegel doppelt so hoch wie bei einer Radeon HD 4890 und damit störend laut.
Wat.
Joa, das waren noch Preise damals, praktisch 200€-250€ für die zweitschnellsten Karten, das kostet heute in Richtung 1000€. o.O
 
metoer schrieb:
Besser als die Preise zu streichen wäre es bei den Preisen von damals den inflationsbereinigten Preis mit anzugeben. Für die HD4890 wären das ca. €280 und für die GTX275 €320
Auch wenn ich damals gerade mit meiner Ausbildung durch war war die Karte mit 200€ damals bei so 2000€ netto deutlich greifbarer als eine 4080, für die man nun vierstellig zahlt (mein Nettogehalt hat sich seither etwa verdoppelt + nochn bisschen was obendrauf).

Selbst inflationsbereinigt sieht man den gewaltigen Unterschied sehr deutlich.
War schon ne gute Zeit.
 
  • Gefällt mir
Reaktionen: Vulture, ThePlayer, entengruetze und eine weitere Person
Svennc schrieb:
Bitte löscht doch die Preistabellen aus alten GPU-Tests.

Das ist ja schlimmer als dieser Fritzchen-Witz. Als Fritzchen mit der Rechen-Hausaufgabe aus der Schule kommt, in der ein Bier noch fünf Pfennig kostete. Und sein Vater anschließend mit schwersten Depressionen in psychiatrische Intensiv-Behandlung muss.

:D 😭
😂😂 Das geiche habe ich auch gerade gedacht und beim runter scrollen um eine Antwort zu tippen deinen Text gefunden. Da hat sich wirklich was verändert... Gut fand ich auch "Die guten schlechten Zeiten des Ref-designs"... Aber die waren billig, wurden von mir zumeist mit einem Arctic Mod kühler versehen und waren dann unhörbar...

Grüße Feldi
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA und Svennc
andi_sco schrieb:

Schoener Versuch. Wobei fuer mich beim Kauf die jeweilige Strassenpreise und nicht der UVP relevant ist, aber das wuerde den Aufwand noch weiter in die Hoehe treiben.

Was die Frage der Klassifizierung angeht, die da auch diskutiert wurde: "Einstieg", "Mittelklasse" etc. sind ja Marketinglabels, da versucht das Marketing gerne, den Leuten einzureden, dass sie zu was teurerem greifen muessen als das letzte mal, um in der selben Klasse zu bleiben.

Von daher finde ich technische Kriterien relevanter. Ein moegliches Kriterium waere die Groesse des GPU-Chips (in mm^2), ist aber aufwaendig zu ermitteln, wenn ueberhaupt. Ein anderes Kriterium, das ich gerne heranziehe und das ueber viele Jahre mit den Marketingklassen halbwegs uebereingestimmt hat, ist die Breite des Speicherinterfaces: 64 bit, 128 bit, 256 bit, oder mehr (bzw. HBM). Z.B. waren die Gforce 4 Ti 4200 und Radeon 9600 128-bit-Karten, die Radeon HD 5770 auch, und in juengerer Zeit die RX540-RX560, die Radeon RX5500(XT), RX6600(XT), RX7600(XT).
 
DevPandi schrieb:
Ja und Nein. Ja es muss dir 4870 sein. Nein, es beleibt bei einem Wie: Die 4890 ist so Laut wie die 4870.

Die Grafikkarte ist lauter als die andere.
Die Grafikkarte ist so laut wie die andere.
Die Grafikkarte ist doppelt so laut wie die andere.
Da ging es bloß um einen Vertippsler, da stand beides mal der gleiche Name der Graka.
 
Deswegen auch ja für den Vertipper - hab den mal auch jetzt angespasst. In der U-Bahn macht sich das schlecht.

Aber es bleibt beim Nein für das Als. :P
 
  • Gefällt mir
Reaktionen: vAro, angband1 und lubi7
mae schrieb:
Wobei fuer mich beim Kauf die jeweilige Strassenpreise und nicht der UVP relevant ist
Das sind alles Straßenpreise aus der Wayback Machine gewesen - also kein UVP oder sonstiger Fantasiepreis
 
  • Gefällt mir
Reaktionen: Vulture und [wege]mini
Also ich hatte mir recht zu Beginn die 4870 geholt, hatte gut Leistung und einfach ein sehr guter Preis damals.
Die 4890 war halt total überzüchtet und (schon die 4870 war echt ein heißes Eisen) da hätte ich mir im späteren Verlauf eher die Nvidia gekauft, war ja kaum teurer.
Kannte einen Nerd der sich die 4890 geholt hatte, dem sein PC war im Sommer absolut am Limit und im Grunde war es ein Fehlkauf für ihn, wenn ich mich richtig erinnere ist die ihm auch irgendwann verreckt. Aber gut, der hatte immer billiges Zeug, vielleicht lag es an der Kombo.
 
metoer schrieb:
Besser als die Preise zu streichen wäre es bei den Preisen von damals den inflationsbereinigten Preis mit anzugeben. Für die HD4890 wären das ca. €280 und für die GTX275 €320

Und heute bekommt man dafür ne popelige RTX 3060 oder RX7600 .....
 
  • Gefällt mir
Reaktionen: Vulture und ReVan1199
mae schrieb:
ist die Breite des Speicherinterfaces

Es ist ein Indiz.

Wenn die Rohleistung des Chips vom Speicher limitiert wird, kann man den Takt am Speicher erhöhen oder das Interface verbreitern, um den Durchsatz auf dem Level möglich zu machen, was der Chip braucht.

Das große SI ist z.B. wichtig, wenn der Chip an der Latenz hängt, da hohe Taktraten meist eine höhere Latenz verlangen, trotz größerem Durchsatz, in GB/s gerechnet.

Daher sind (phantasiezahlen) 512 GB/s gegen 512 GB/s mit 256 bit gegen 64 bit, nichts aussagend, wenn man nicht über die Architektur redet.

Meine Nano hat z.B. 4096 bit mit HBM, unfassbaren RAM Durchsatz und nichts davon, kommt in FPS an.

GPU RAM verhält sich nicht anders als CPU RAM, die Anforderungen sind nur anders. Einen RAM zu finden, der dir 1-1-1-2 DDR ermöglicht, wirst du wohl im DDR5+ Segment nicht finden. Das währe "Voodoo".

Was man daraus macht, ist wichtig und die Jungs auf der Softwareseite, arbeiten hart daran, die Latenz eher weniger wichtig zu machen und den Durchsatz zu präferieren.

Dann kann man auch mit 64bit und GDDR7X ordentlich abliefern. Ob man das dann noch als "Mid-Range" bezeichnet, liegt am Marketing.

mfg

p.s.

Meine Einstellung, am aktuellen Gerät, macht z.B. keinen Score mehr, der "valid" ist, da ich meiner Hardware verboten habe, mehr als 62 FPS zu rendern. Das glättet die Kurve, da ich 2 FPS als pre rendering eingestellt habe und ich diese "Mikrorukler" echt hasse.
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    373,8 KB · Aufrufe: 82
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA
Hurricane.de schrieb:
In meinem damaligen Zimmer bei meinen Eltern habe ich noch eine rumliegen :D
Geiles Bild :daumen:
Musste bei der Verpackung und Aufschrift 1 GB VRAM gerade daran denken das mein Smartphone bereits 16 GB hat.
Schon irre wie sich alles entwickelt. Hätte man damals nicht geglaubt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hurricane.de
Ich habe noch eine kaum benutze R4870 von MSI hier rumfliegen. Das Teil hatte ich damals von meinem Bruder bekommen - er mochte die Karte einfach nicht. :D Und ich war immer zu faul, die Karte zu verbauen. Daran kann man aber gut sehen, dass so eine starke Grafikkarte für mich damals noch völlig overkill war. Heute sieht das aber anders aus, da ich längst viel mehr am PC zocke als früher.
 
[wege]mini schrieb:
wenn der Chip an der Latenz hängt,
In der Regel hängen GPUs nicht an der Latenz, sondern alleine an der Bandbreite. Latenzen sind für "moderne" CPUs heute zum Teil entscheidend, weil sie Out-Of-Order arbeiten, dazu kommen auch Techniken wie spekulative Ausführung. Diese Techniken machen den Zugriff auf den RAM für den Compiler quasi unvorhersehbar und die CPU bekommt zwar die Anweisungen, dass sie was aus dem RAM laden soll, muss das in der Regel, aber früh wie möglich machen, dass keine Wartezeit entsteht. Entsprechend arbeiten Intel und AMD auch an ihrem Data-Prefetcher, der Daten möglichst rechtzeitig aus dem RAM in den L2 und L1-Cache verschiebt. Ist natürlich weit komplexer, weil da auch das Registerfile, das Register-Set der ISA und CO mit spielen.

GPUs arbeiten immer noch weitgehend In-Order und entsprechend ist das Vorhersagen, welche Daten am Ende in im welchen Cache sein müssen, wesentlich effizienter und einfacher zu planen. Selbst moderne GPUs, die "selbstständiger" agieren, arbeiten in ihren eigentlichen Rechenwerken immer noch In-Order und die "Logik" der Chips, die die CPU entlasten, machen das, was vorher der Treiber gemacht hat.
[wege]mini schrieb:
… da hohe Taktraten meist eine höhere Latenz verlangen, trotz größerem Durchsatz …
Die Latenzen bei GDDR sind - selbst wenn man es freundlich ausdrückt - mehr als bescheiden. Das lässt sich wunderbar am AMD Ryzen 4700S sehen. Während eine GPU mit den schlechten Latenzen wunderbar zurechtkommt, weil man In-Order arbeitet, der Compiler als auch der Treiber sowie die Steuerlogik in der GPU weitgehend wissen, was sie benötigen, spielt die Latenz keine Rolle.

Für die CPU, die mit OoO, spekulativer Ausführung, ist das nur bedingt möglich, entsprechend kann sie von der Bandbreite nicht profitieren und leidet unter der Latenz.
[wege]mini schrieb:
Was man daraus macht, ist wichtig und die Jungs auf der Softwareseite, arbeiten hart daran, die Latenz eher weniger wichtig zu machen und den Durchsatz zu präferieren.
Das sind nicht nur die Jungs auf der Softwareseite, die daran arbeiten, sondern es ist das gesamte Konzept auf Hardware-Ebene, dass darauf ausgelegt ist, dass "viele" Daten gefüttert werden, dafür die Latenz nicht entscheidend.

Es hat einen Grund, warum GPUs bis heute immer noch weitgehend In-Order arbeiten und wenn es OoO gibt, diese auf einer anderen Ebene stattfindet.
 
  • Gefällt mir
Reaktionen: cele, NMA und [wege]mini
War das nicht die Karte, die man mit einen BIOS Update auf höhere Versionen (4870 > 4890) Upgrade konnte?
 
Zurück
Oben