Test Test: ATi Radeon HD 5870

Die Karte ist heute raus und zudem noch völlig konkurrenzlos - was erwartest Du? Zumal das die UVP ist...

Ich bin sicher, wenn nVidia den G300 rausbringt, wird der Preis deutlich sinken.
 
Schade, eigentlich wollte ich ja meine 8800 GTX mit so einem Gerät ersetzen, aber die 5870 passt einfach nicht in mein Gehäuse und außerdem ist für mich ein S-Video Anschluss Pflicht.

2 Minuspunkte die unglücklicherweise diese sonst rundum sehr gelungene Karte zu keiner Option für mich machen.
 
DvP schrieb:
Ich kann diesen Wert nirgends herauslesen. Das muss doch ein Fehler sein, oder!?

Nein, ist kein Fehler nur ein bisschen kompliziert ausgedrückt. Im Performancerating bringt die GTX285 nur 74% der Leistung einer HD5870 bei 2560x1600 ;)
 
Schöner Test, und schöne Karte :)

Es wird sicherlich noch was per Treiber Optimiert, so das die Karte noch zu legen "wird".

Im nächsten Monat wird die gekauft :-)
 
Mekert nicht über den Preis, der pendelt sich sowieso noch ein ;)
für mich ein S-Video Anschluss Pflicht.
Etwas alt, der S-Vid ausgang nicht? Wenn man sich so eine Karte in einem dafür angemessenen Sys. leisten kann, kann man sich auch einen LCD/Plasma TV mit HDMI kaufen :rolleyes:

Spannend wird der Test der 5850, vielleicht löst diese dann meine 4870 ab :)
 
versteht mich nicht falsch, natürlich sollte der Trend zu weniger Stromverbrauch gehen. Aber man darf auch nicht vergessen wenn ich 50% mehr Leistung habe und nur 10% mehr Stromaufnahme ist das schon ne deutliche Verbesserung.

Ist doch wie beim Auto, 500 PS haben wollen aber nur 3 Liter brauchen?! Kraft kommt von Kraftstoff und in dem Bereich kommt die Power eben auch vom Strom. Klar wenn man kleiner fertigt usw. wirds verbessert, trotzdem gibts halt gewisse phyikalische Sachen die man nicht so eben aushebeln kann.

ich denke die 2GB Variante wird nicht so lange auf sich warten lassen... spätestens Ende November Anfang Dezember werden die meisten Varianten auf dem Markt sein um das Weihnachtsgeschäft mitzunehmen.

zum S-Video, es gibt doch für alles Adapter und das dieser Anschluss eigentlich am aussterben ist kann ich auch nachvollziehen. Solange es Möglichkeiten gibt find ichs gut (Displayport => VGA usw.) wenns aber dann gar keine Möglichkeit mehr gibt und das von heut auf morgen ist das mies.
 
wenn der preis in der nächsten zeit fällt, wird die karte für mich sehr attraktiv.

ansonsten überzeugt die karte wie ich finde, nur leider habe ich mir noch mehr leistung versprochen
 
Super Test :D
 
Jaja das ist schon klar. Der tolle Idle Stromverbrauch wird auch der ausschlaggebende Grund sein, obwohl ich nur ne Karte mit einem 6Pin Stecker kaufen wollte, ich dennoch zur HD5850 greifen werde.

Trotzdem wären es mir persönlich Lieber, vllt nur 40% Mehrleistung, dafür hatl eben 0% mehr Stromverbrauch.
 
In etwa 30% schneller. Entsprach genau meinen Erwartungen.
Der Testparcour ist nicht gerade der beste, so sollte die durchschnittliche Merhleistung bei anderen Spielen, doch noch etwas höher ausfallen.
Mit der Lautstärke bin ich zufrieden. 55DB unter Last für den Standardlüfter sind akzeptabel.
Die Physx und Directx 10.1 Titel verfälschen leider wieder das Ergebnis.... naja.
 
Ohje--was hast du immer mit deinem Speicher?1GB reichen für die meisten vollkommen aus!Die wenigsten werden in so hohen auflösungen zocken das 1GB limitieren würde.
Der VRam Verbrauch hat mit der Auflösung direkt nur sehr gering etwas zu tun. Von daher hau bitte nicht andere in die Pfanne, wenn du nicht mal das selbst weißt ;)

Aber du schreibst wie ich finde sehr viel nonsens, auf der einen seite findest du das die grakka nicht genug power hat,hast hier und da was zu meckern und jetzt findest du das ati alles oder fast alles richtig gemacht hat.schon sehr merkwürdig.
Was du nicht verstehst ist die Differenzierung zwischen Hardwarequalität und Quantität. Die Ram-Bestückung hat nichts zu tun mit der Qualität der Ausführung des PCBs, der Spannungsversorgung usw.

Fairy Ultra schrieb:
Die Performance pro Watt steigt massiv.
d.h. bei gleicher Leistung (der alten Karte verbrauchst du deutlich weniger)
Ja, das ist korrekt. Aber die absolut gebrauchte Leistung steigt genauso mit. Das sollte man nicht unter den Teppich kehren. Aber eines ist natürlich klar: Würde man den Maximalverbrauch bei "nur" 150 Watt für die Karte anlegen (bspw.), dann könnte man keinen Fortschritt mehr simulieren und die Leute würden einem die aufgebohrten Facelifts von G80 und HD3000 (überspitzt formuliert!) nicht mehr abkaufen.

Ewiges shrinken, vermehren der Kerne (bei CPUs) und immer höherer Stromverbrauch sind physischen Grenzen unterworfen. Immer kleiner und immer mehr geht rein rechnerisch schon gar nicht. Ähnlich wie unser Wirtschaftssystem, dass auf ewigem Wachstum seine Renditen bezieht und dann halt alle paar Jahre mal an Überfütterung platzt, wie erst unlängst geschehen.

Bevor mich jetzt wieder alle versuchen in die Pfanne zu hauen: Die HD5870 ist eine tolle Karte und ein guter Griff von/für AMD.

2 Minuspunkte die unglücklicherweise diese sonst rundum sehr gelungene Karte zu keiner Option für mich machen.
Ohne dir zu nahe treten zu wollen: Das Gehäuse sieht nicht sonderlich hochwertig aus. Da würde ich eher nen Kompromiss machen und es austauschen. Eventuell wird der G300 kürzer, was ich aber kaum glaube. Bei mir passt die HD5870 mit Sicherheit auch nicht rein.
 
Zuletzt bearbeitet:
@Fairy Ultra: ichrede aber nicht von dem Perf/Watt Verhältniss, sondern von dem reinen Verbrauch. Wenn es so weiter geht verbruzeln die High End Systeme dann bald so viel Strom wie Staubsauger/Mikrowellen im dauerbetrieb wenn man übertreibt. Aber dann kommen ja gern die Argumente das im High end nunmal auf den Stromverbrauch geschissen wird. So ist es auch, leider! Es ist eben kein gutes Argument.

Mein aktuelle Graka die x1950 verbaucht 66W und braucht schon einen extra Stromtecker. Ist an sich auch ein großes Teil, als ich sie mir holte und in den Händen hielt war ich von der Größe und Länge überweltigt. Das war schon zu damaligen Zeiten für mich etwas krass. Ich dachte mir dann hm die HD1XXX Gen wird evnlt. die letzte sein mit einem hohen Stromverbauch, Hitze und Lautstärke. Da in zukunft immer kleinere Bauweise, mehr Fortschritt und etwas Umdenken der Grafikhersteller, denkste. NV hat damals alles in den Schatten gestellt (Negativ, aber auch positiv in der Perf.). Es wurde immer wieder schlimmer. Die Performance ist das einzige was all die Nachteile rechtfertigt.

Wenn ich mir heute eine Midrange Karte holen würde so verbraucht die wesentlich mehr als meine alte Karte und darüber bin ich entäuscht.

EDIT: Dass es technisch/physisch nicht anders geht kauf ich nicht ab. Es ist möglich höchst effizient die Karten zu entwickeln um Stromsparend zu bleiben und dennoch immer mehr Performance zu holen. Doch das ist nicht wichtig. Wichtig ist günstig zu entwickeln und zu bauen und schnell auf den Markt (am einfahcsten halt einfach alles in der Architektur verdoppeln, da 40nm dies ermöglicht..). Hauptsache schnell & günstig entwickelt.

---------------

Der Rest der HD5870 ist top, eine sehr gute Entwicklung, ATI weiter so, gelungenes Comeback.
 
Zuletzt bearbeitet:
Wolfgang schrieb:
In 2560x1600 ist die Radeon HD 5870 die erste Single-GPU-Karte, mit der einige Spiele flüssig laufen. Diese rendert dann um 29 Prozent schneller als die Radeon HD 4890, die GeForce GTX 285 muss sich um satte 74 Prozent geschlagen geben.

wasi1306 schrieb:
Nein, ist kein Fehler nur ein bisschen kompliziert ausgedrückt. Im Performancerating bringt die GTX285 nur 74% der Leistung einer HD5870 bei 2560x1600 ;)

Ne, is nicht kompliziert sondern falsch formuliert ;-)
 
AMD, da habt ihr ein geniales Produkt auf den Markt gebracht, welches die Konkurrenz komplett in den Boden gestampft hat(derzeit mal im High End Segment)!
Als i-Tüpfelchen ist mit Tools(welche diese GraKa unterstützen) evtl. ein 1GHz Core Takt drinnen!
Es gibt wirklich keinen Grund die GTX 285 zu kaufen!
Der Preis wird bei Verfügbarkeit ziemlich sicher <300€ gehen und die 2GB Fetischisten bekommen natürlich auch noch ihr 2GB Modell(von diversen Herstellern)!

Greetz.Michi777
 
r4yn3 schrieb:
Zudem, vergleicht man hier bei CB eine HD5870 mit einer HD4890, warum?

ja warum denn bitte nicht so vergleichen? topmodell der letzten generation gegen das erste modell der neuen generation respektive, was war mit der hd4000generation möglich und was ist jetzt der neue standard. :)

und die 285 wird preislich wohl kaum luft nach unten haben, sonst wäre die die letzten tage schon signifikant günstiger geworden um der 5870 den wind aus den segeln zu nehmen!
 
Die Leistung ist OK. Und der Preis? Naja es ist ein neues Produkt. Die 5870 1GB wird nächsten Monat, bestimmt unter 300 kosten, und das ist dann ein fairer Preis. Ich warte aber lieber auf die 5850, wenn die mit 1Gb dann unter 200€ angekommen ist, schlage ich dann zu, da ich nur einen 22" habe, sollte das reichen.
 
Dafür, dass die Karte heute raus gekommen ist und noch kein Treiber wirklich dafür optimiert ist, hat sie eine gute Leistung.
Der Preis ist auch völlig in Ordnung, ich habe damals für meine 8800 GTS G80 auch knappe 380€ wenn nicht sogar mehr bezahlt, als sie raus gekommen ist.
Also sind 350€ ganz normal.
Außerdem ist jede Karte am Anfang teuer und wird nach ein, zwei Monaten billiger.
Nennt sich Verkaufsstrategie, es gibt sicher genug die sie gleich um den Preis kaufen, nur um sie als Erster zu haben.
So macht Ati gleich mal Geld, was sie sicher brauchen.
Schätze/Hoffe, dass die Karte so um Weihnachten herum auf 200- 250€ fallen wird.
Je nachdem wo Nvidia den Preis ansetzt.

Wann wird die 5870X2/5890 kommen, gibt es da schon Informationen?
 
Zurück
Oben