Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test HD 4870 im Test: MSI verpasst der ATi-Grafikkarte fünf Prozent mehr Leistung
C
Cat Toaster
Gast
Für mich ist für die letzte Kaufentscheidung nur ein Thema wichtig: Ob und wann es die 4870 schaffen wird im Idle ordentlich runter zu takten und dabei die Lüfterdrehzahl erheblich zu senken. Irgendwie klingt das im Test gar nicht an, ob das jetzt "richtig" geht oder nicht, da steht nur sie taktet runter, ist kühler und der Lüfter ist dennoch Lauter als die Referenz. Welchen Sinn hat das? Im Idle will ich von dem Ding einfach nix hören, geht bei meiner G80 GTS doch auch. Sinnvoll klingt das nicht für mich. Mir ist total Latte wie heiss die Karte wird, es ist Sache des Herstellers den Kompromiss zwischen Lebensdauer, Lautstärke und Lüfterdrehzahl zu finden und wenn die Karte bei 80 Grad fünf Jahre hält mit leiser Kühlung und acht bei lauter nehme ich lieber die leise Variante. Solang die sogenannten "Experten" hier von aussen da keine konkrete Zusammenhänge zwischen Hitze und IRGENDWAS herstellen können, weiß ich nicht warum die Hitze am Chip ständig thematisiert wird. Wer im laufenden Betrieb unter Last dran rumfummelt ist selber blöd.
"Der Chip wird aber heiss, der andere ist Kühler" Was soll mir das bringen, zu welchem Schluß soll ich kommen? Ohne konkreten Bezug zu Lebensdauer und Lautstärke jenseits von Kristallkugel und Kaffeesatz?
"Der Chip wird aber heiss, der andere ist Kühler" Was soll mir das bringen, zu welchem Schluß soll ich kommen? Ohne konkreten Bezug zu Lebensdauer und Lautstärke jenseits von Kristallkugel und Kaffeesatz?
Zuletzt bearbeitet:
TheGreatMM
Captain
- Registriert
- Mai 2008
- Beiträge
- 3.097
hätte ATI auch gleich so rausbringen können^^
lieber sollten
1) die mal Referenzdesign freigeben, damit die Hersteller eigene und leisere Kühler verbauen dürfen
2) sowie an ein Karten Flash arbeiten, was die Leistung der Karte im Idle weiter runtertaktet...
lieber sollten
1) die mal Referenzdesign freigeben, damit die Hersteller eigene und leisere Kühler verbauen dürfen
2) sowie an ein Karten Flash arbeiten, was die Leistung der Karte im Idle weiter runtertaktet...
Cameron
Lieutenant
- Registriert
- März 2004
- Beiträge
- 958
Die GTX280 wurde mit 499 USD angekündigt. Das macht umgerechnet plus Märchensteuer etwas den selben Wert in Euro. Von dem her greif ich nicht zu hoch, wenn ich sage, dass es m.E. nicht lohnt eine 500-EURO-Karte zu kaufen (GTX280), wenn man für die Hälfte Geld eine Karte bekommt (HD4870), die wenige FPS drunter läuft...
Hab meine Sapphire HD4870 für 208 EUR bei Alternate gekauft. Da ist der aktuelle Preis von 399 EUR für die GTX280 auch nicht grad konkurrenzfähig.
Hab meine Sapphire HD4870 für 208 EUR bei Alternate gekauft. Da ist der aktuelle Preis von 399 EUR für die GTX280 auch nicht grad konkurrenzfähig.
Zuletzt bearbeitet:
Magellan
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 22.729
Cat Toaster schrieb:Irgendwie klingt das im Test gar nicht an, ob das jetzt "richtig" geht oder nicht, da steht nur sie taktet runter
Sieht man doch am Stromverbrauch dass es hier keinerlei Unterschied gibt - die niedrigeren temperaturen sind nur eine Folge des höher drehenden Lüfters.
Würde die Karte mehr runtertakten usw dann wäre auch der idle verbrauch niedriger.
@ Cameron
Die Preise haben sich aber geändert. Oder kaufst du immer nur Hardware für den angekündigten Preis?
@ Test
Kein Wort zum Stromverbrauch im Fazit? Sogar die GTX260 braucht unter Windows 45W und unter Last 15W weniger und damit würde ich die GTX mit nem Preisunterschied von 30€ vorziehen.
Die Preise haben sich aber geändert. Oder kaufst du immer nur Hardware für den angekündigten Preis?
@ Test
Kein Wort zum Stromverbrauch im Fazit? Sogar die GTX260 braucht unter Windows 45W und unter Last 15W weniger und damit würde ich die GTX mit nem Preisunterschied von 30€ vorziehen.
CrossEyedLion
Cadet 3rd Year
- Registriert
- Apr. 2008
- Beiträge
- 40
Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI)
Auf dem Slotblech der PowerColor Radeon HD 4870 findet man zwei HDCP-geschützte Dual-Link-DVI-Ausgänge vor, die selbst bei einer Dual-Link-Auflösung wie beispielsweise 2560x1600 den Kopierschutz anwenden können. Darüber hinaus ist der obligatorische HDTV-Ausgang verbaut. Jeder Radeon HD 4870 liegt ein DVI-zu-HDMI-Adapter bei, mit dem es möglich ist, Video- und Audio-Signale über den DVI-Ausgang wiederzugeben. Dabei ist der Adapter mit dem HDMI-1.3-Standard kompatibel, womit eine Dolby-Digital-, Dolby-Digital-Plus, Dolby-TrueHD-, DTS- sowie DTS-HD-Tonspur von einer DVD, Blu-ray oder HD-DVD ausgegeben werden kann.
https://www.computerbase.de/artikel...4/seite-3#abschnitt_powercolor_radeon_hd_4870
MSI Radeon HD 4870 OC (Overclocked)
Auf dem Slotblech findet man zwei HDCP-geschützte Dual-Link-DVI-Ausgänge vor, die selbst bei einer Dual-Link-Auflösung wie beispielsweise 2560x1600 den Kopierschutz anwenden können. Darüber hinaus ist der obligatorische HDTV-Ausgang verbaut. Mittels eines DVI-zu-HDMI-Adapters ist es möglich, Video- und Audio-Signale über den DVI-Ausgang wiederzugeben. Dabei ist der Adapter mit dem HDMI-1.3-Standard kompatibel, womit eine Dolby-Digital-, Dolby-Digital-Plus, Dolby-TrueHD-, DTS- sowie DTS-HD-Tonspur von einer DVD, Blu-ray oder HD-DVD ausgegeben werden kann.
Dejavu!
Es wäre ja auch viel zu langweilig zu sagen: Die MSI entspricht bis auf den erhöhten Takt und die veränderte Lüftersteuerung der Standard HD4870...
Da muss man halt mit 'altem Material' nachhelfen.
Aber jetzt mal zum Thema:
Dieser Test gefällt mir besser als diese ausführlichen Tests.
Hier hat man schön alle wichtigen Informationen auf einen Blick und die Benchmarks sind nicht durchzogen von diesem synthetik Zeug.
Weiter so!
Bis denn.
Dirk
Zuletzt bearbeitet:
W0lfenstein
Commander
- Registriert
- Apr. 2007
- Beiträge
- 3.066
Hab mir auch diese OC Version der 4870 besorgt.
Bei dem kleinen Preisunterschied kann man auch beruhigt zur OC Version greifen finde ich.
Klar, der Leistungszuwachs ist jetzt nicht sooo groß, aber man nimmt doch jedes bissle Leistung mit das man kriegen kann .
Vorrausgesetzt das P/L stimmt noch ^^.
@CB
Schöner Test.
Nur warum bencht ihr zum Teil mit 1x AA/1x AF ?
Abgesehen von Crysis spielt wohl jeder seine Games mit höheren Settings oder etwa nicht ?
Diese Low-Settings sind meiner Meinung nach nicht wirklich aussagekräftig finde ich.
Gruß.
Bei dem kleinen Preisunterschied kann man auch beruhigt zur OC Version greifen finde ich.
Klar, der Leistungszuwachs ist jetzt nicht sooo groß, aber man nimmt doch jedes bissle Leistung mit das man kriegen kann .
Vorrausgesetzt das P/L stimmt noch ^^.
@CB
Schöner Test.
Nur warum bencht ihr zum Teil mit 1x AA/1x AF ?
Abgesehen von Crysis spielt wohl jeder seine Games mit höheren Settings oder etwa nicht ?
Diese Low-Settings sind meiner Meinung nach nicht wirklich aussagekräftig finde ich.
Gruß.
XHotSniperX
Lt. Junior Grade
- Registriert
- Jan. 2008
- Beiträge
- 472
mit der 4870 müsste man aber jeden Tag den PC seeehr lange laufen lassen um nach vielleicht über 2 Jahren den Unterschied zwischen der GTX260 und der 4870 wieder gleich zu machen... (preislich) aber dafür hat man mehr Spass und bessere Performance!
Und ich denke nicht, dass das nicht NICHT besser wird! Das kann man sicher noch verbessern!
Und ich denke nicht, dass das nicht NICHT besser wird! Das kann man sicher noch verbessern!
Nein.Jerawin schrieb:[...] Im Artikel stehen 2200 MHz sollten es nicht 4400 MHz sein?
Siehe hier:
http://www.qimonda-news.com/download/Qimonda_GDDR5_whitepaper.pdf
cosmicparty
Banned
- Registriert
- Aug. 2007
- Beiträge
- 843
5% zusätzlich für den gleichen preis, für leute die nicht übertakten wollen eine nette zugabe.
für +5% gibts bei nvidia direkt ne neue bezeichnung, würden das ding dann 4850+ nennen *ggg*
für +5% gibts bei nvidia direkt ne neue bezeichnung, würden das ding dann 4850+ nennen *ggg*
Realsmasher
Captain
- Registriert
- Juli 2005
- Beiträge
- 4.046
den takt selbstständig um die 30mhz zu erhöhen verdient wohl nichtmal die Bezeichnung übertakten....
Da braucht man sich nun wirklich nicht zu ärgern.
Da braucht man sich nun wirklich nicht zu ärgern.
M
MixMasterMike
Gast
Jerawin schrieb:Handelt es sich nicht um GDDR5 Speicher?
Im Artikel stehen 2200 MHz sollten es nicht 4400 MHz sein?
1. Wenn du sowas so fett schreibst rasten die überstrengen Mods in diesem Forum schnell mal aus.
2. Denk doch mal eine Sekunde nach bevor du sowas fragst... Was heißt denn DDR? Falsch nicht Deutsche Demokratische Republik, sondern Double Data Rate... Also haben alle DDR RAM immer nur die hälfte der meist angegebenen grossen Zahl. Es ist also beides quasi korrekt.
Ähnliche Themen
- Antworten
- 373
- Aufrufe
- 112.546
- Antworten
- 60
- Aufrufe
- 21.457
- Antworten
- 139
- Aufrufe
- 32.538