Test ATi Radeon HD 5870 im Test: Die erste Grafikkarte mit DirectX 11

Schaffe89
Naja.. vielmehr Takt ist bei einer HD5870 nicht mehr möglich, da der Verbrauch ziemlich an der Grenze ist.
Da muss dann schon n neues Stepping oder evtl. ne effizientere Kühlung her, sonst haben wir wieder über 60dB unter Last.
Ich denke mal, Verbrauch vs Leistung sind gut austaxiert.
Was heist da jetzt aber dem gegenüber->
max. 225W, iss das net nen bissel arg viel???

Schaffe89
Kaum. DAs hieße noch nen größern Chip. Eher Takraten/Treiber/diretx11.
DAs sind auch die Punkte die AMD anspricht.

Irgend wo auf der vorherigen Seite hatte "Motkachler" nen Link zu gepostet:
AMD: Mit HD 5000 noch Asse im Ärmel:
...Darüber hinaus gewährte man uns bereits einen Einblick in erste DirectX 11-Titel. Hier, so AMD, wird die neue Grafikkartengeneration ihr volles Potential entfalten können und die Chips der HD 4000-Reihe alt aussehen lassen. Man darf gespannt sein.
Nicht zuletzt bringt man auch noch höhere Taktraten ins Spiel. Der zurzeit auf HD 5870 und HD 5850 angelegte Spannung sei sehr niedrig. Mit mehr Spannung seien Taktraten von über 1 GHz kein Problem. An dieser Stelle scheint der Verweis auf die angekündigten Asus-Karten angebracht; eine HD 5850 mit 1050/2600 MHz und eine HD 5870 mit 1035/2600 MHz wird es demnächst zu erwerben geben.
Asus OC ..., wohl als Overclocker Graka, mit geänderten Bioswerten.
_________________________________________________________________________________________
9=Enthusiast
7=High-end
5=Gamer
3=Value

Das wird dann wohl die Enthusiastenversion (HD 5890? [ich mein aber jetzt net die obige OC v. Asus]), bei Erscheinen der Nvida 300, für deren Enthusiasten (die andern da, sollen da ja nen 1/4 - nen 1/2- Jahr später erscheinen)
http://users.otenet.gr/~ailuros/evergr.pdf (von Einhörnchen, aus nem hiesigen Foren Link zur X2 5870)
Aber nen and. Lüftersystem wir da schon nötig sein, ala Sapphire, mit Vapor-X od. besser Toxic als Kühlsystem.
 
Zuletzt bearbeitet:
Auch mit D3D11 gibt es noch Anisotrope Filterung.
Die verlinkten Standbildern sind dazu da Tesselation zu bewerben (sieht hübsch aus, kann ruhig so bald wie möglich genutzt werden), wenn dich AF interessiert schaust du mal bei ht4u vorbei.

GT300 stand nicht zur Diskussion, einzig GTX 2xx vs HD58xx.

Richtig AF und CO gibts auch für D11, welches eine HD5xxx sehr gut darstellen kann, eine GTX2xx aber eben nicht. Somit bringt der minimale optische Gewinn durch das ganze AA /HQAF und CO Beiwerk leider genau was ? Gar nix ;). (Wie war das mit den schickeren Cockpit des Porsche nochmal ?)

Nur zur Erinnerung - die GTX 2xx unterstützen ALLE kein DX11.

Ergo kann die GTX2xx ihr tolles AF gar nicht nutzen weils nämlich gar kein DX11 darstellen und damit auch kein tesselation kann.

Da ja nach deiner eigenen Aussage GT300 gar nicht zur diskussion steht dürfet damit wohl die BQ einer HD 5xxx in praktisch allen DX11 titeln der einer GTX2xx HAUSHOCH überlegen sein. In allen anderen ist sie selbstverständlich minimal schlechter. Dies ist ausfürhlichst in den letzten Jarhen hin und her diskutiert worden und haben dir ja sogar hier nahezu ALLE bestätigt.


Also wenn du schon so ein BQ fetischist bist dann steh auch dazu.
Btw. ich persönlich finde das AF der ATI trotzdem besser als das der nVs. Ebenso empfinde ich das Flimmern als weniger störend als die Bugwellen.
Es gehört also offenbar auch eine ganze Menge Subjektivität zu der ganzen Diskussion - was schon allein darauf hindeutet dass die Unterschiede der BQ insgesamt nicht so gravierend sind bzw. sein können.

Auch hier sei mir ein Vergleich gestattet. Die Qualität eines Rembrandt und eines van Gogh lassen sich wohl auch schwer objektiv vergleichen.


Und falls du es überlesen hast, es ging nicht um die Allgemeinheit, sondern um meine Rechtfertigung der Kaufzurückhaltung (Gründe wurden xmal angeführt), was mich im übrigen so langsam richtig ankotzt.

P.S.: Es hat auch DIR keiner geraten - soweit ich das erinnere - eine AMD Karte zu kaufen. Darum gings afaik in der ganzen Diskussion nicht. Es haben dir nur eine ganze Reihe von Leuten auf deine gebetsmühlenartigen Kommentare geantwortet bzgl deiner kommentare zur BQ der AMD Karten und das ja dies allein schon ein Kaufhinderungsgrund sei.

Und genau diese gebetsmühlenhafte Wiederholung des "das AF ist aber....(mimimi)" ist es halt eben was manch anderen hier ankotzt.

So - nun habe ich aber fertig mit diesem Fred.
 
Iscaran schrieb:
Richtig AF und CO gibts auch für D11, welches eine HD5xxx sehr gut darstellen kann, eine GTX2xx aber eben nicht. Somit bringt der minimale optische Gewinn durch das ganze AA /HQAF und CO Beiwerk leider genau was ? Gar nix ;).
Falsch, ich lasse mich nicht durch weitere Shadereffekte blenden, Shadereffekte, die mangels Downsampling wiederrum noch mehr flimmern.
Gefiltert wird weiterhin und wenn das nach all den Jahren immer noch ein Grund ist, trotz enormer Texelfüllrate massiv Samples zu sparen, dann kann man nicht darüber hinwegsehen.

Außerdem übersiehst du die Kleinigkeit das D3D11 Titel noch nicht den Markt beherschen. Was soll ich also jetzt mit einer D3D11 Karte, die mich in anderen Titeln teils weniger glücklich macht?

Da ja nach deiner eigenen Aussage GT300 gar nicht zur diskussion steht dürfet damit wohl die BQ einer HD 5xxx in praktisch allen DX11 titeln der einer GTX2xx HAUSHOCH überlegen sein.
Du versuchts immer noch Shadereffekte oder Tesselation mit anderen Dingen zu verrechnen. Das kann doch nicht dein ernst sein.

Es gehört also offenbar auch eine ganze Menge Subjektivität zu der ganzen Diskussion - was schon allein darauf hindeutet dass die Unterschiede der BQ insgesamt nicht so gravierend sind bzw. sein können.
Einsparen von Samples ist keine subjektive Feststellung. Ebenso die Tatsache des resultierenden Flimmerns.
Als minimal kann man das auch nicht bezeichnen, aber genau wegen Leuten wie dir wird es keine HQ Option für mich geben. Das finde ich schlimm, weil es heruntergespielt wird wo nur möglich und behauptet wird es stört nicht. Im Endeffekt leide ich darunter, die die es herunterspielen haben keinerlei Vorteil durchs herunterspielen, der HQ Schalter betrifft sie nicht.

Subjektiv ist ob es dir egal ist oder du einen eingebauten Flimmerwegbügelfilter im Kopf hast. Btw, wie war das mit subjektiv und D3D11? Nicht falsch verstehen ich behaupte nicht das D3D11 scheisse ist (was nicht sein kann weil D3D11 alleine nicht schicker ist, das hängt erst am Entwickler), ich lege dir nur nahe das auch D3D11 subjektiv ist.

P.S.: Es hat auch DIR keiner geraten - soweit ich das erinnere - eine AMD Karte zu kaufen. Darum gings afaik in der ganzen Diskussion nicht. Es haben dir nur eine ganze Reihe von Leuten auf deine gebetsmühlenartigen Kommentare geantwortet bzgl deiner kommentare zur BQ der AMD Karten und das ja dies allein schon ein Kaufhinderungsgrund sei.
Das ist falsch.
Ich habe einen Post abgelassen, einen einzigen, über die ht4u Videos und die HD5 BQ.
In allen Posts danach musste ich mich rechtfertigen. Ist klar das ich schuld bin, wenn ich auf Beleidigungen eingehe. Ist klar das ich schuld bin, wenn Wolgang antworte. Ist klar das ich schuld bin, wenn ich mich rechtfertige erstmal keine HD5 zu holen.

Edit: Um nicht weiter schuld zu sein lege ich hier eine Pause ein.
 
Zuletzt bearbeitet:
Du hast es nicht verstanden.
Durchs aktive verhindern einer HQ Option wird es keine HQ Option geben. Um die HQ Option zu bekommen muss man kämpfen oder still sein, nicht es als unwichtig abstempeln und blockieren.
Zusätzlich besteht weiterhin die Gefahr, das sich Nvidia ihres alten Ruhmes erinnert und so wie AMD verfährt. Auch wenn stets die Hoffnung besteht, das ein HQ Schalter der in Reviews eh nicht genutzt wird nicht weiter stört, demnach auch nicht gekürzt wird.

So jetzt ist aber schluss.
 
Unyu, jetzt heul mal bitte net rum.

es zwingt dich weder jemand die karte zu kaufen,noch will es jemand. nur dein ständiges schlecht gerede einer durch jeden test bestätigten guten Karte nervt einfach. Wir haben zur Kenntnis genommen,dass du sie scheiße findest,und damit nicht leben kannst. Ist dir aufgefallen,dass du der einzige bist,der so ein Problem damit hat?

versuche nicht dein hassbild anderen aufzuschwetzen.


gruß
 
die Ati 4000er Serie mit Gddr 5 rennt schon der Gtx 200er Serie mit Gddr3 Leistungsmässig leicht hinterher...passt mal auf was passiert wenn Nividia den flotten Ram verbaut hat....
 
buuuhhhaaa RAM ist alles was zählt. mehr speicherbandbreite bringt immer was auch wenn sie gar nicht benötigt wird!!!!! :lol:
 
dann hat nvidia, soweit sie beim 512bit SI bleiben, mehr bandbreite, und?

was hat der Vram sonst mit der Leistung zu tun?

er ist verantwortlcih für die bandbreite, davon hatten in der letzten generation aber alle Karte genug.

oder wofür brauchst du eine sechsspurige autobahn, wenn nur 3 autos drauf fahren?

gruß
 
Bleibt noch zu hoffen, dass sich die Leistung mit neuen Treibern noch steigern lässt. nVidias neue GPU wird mindestens 50% schneller sein, als die GTX 285 und dürfte die momentan schnellste Single-GPU-Karte sogleich enttrohnen :rolleyes:
 
naja, wenn sie 50% schneller wird, wäre sich auch nur 10% schneller als die 5870... was sind 10%, vor allem die preisdifferenz dürfte dann interessant sein.

wird aber höchstwahrscheinlcih wie bei der letzten generation.

gruß
 
Zuletzt bearbeitet:
Also ich hatte in meinen 13 Jahren PC-Geschichte allerhand Grafikkarten (NVidia, ATI) in meinen PCs und alle haben ihren Zweck erfüllt.
Bei anfänglichen KLEINEN Problemen, gabs ein Treiberupdate und los gings.
Kein Spiel, das ich nicht spielen konnte!

Warum sind heutzutage alle so unzufrieden mit der Welt? ;)
 
Ich lasse mir hier meine Aussagen nicht durch deine simplen "Falschzitierungen" verdrehen.

Du versuchts immer noch Shadereffekte oder Tesselation mit anderen Dingen zu verrechnen. Das kann doch nicht dein ernst sein.


Siehst du Unyu, du liegst hier falsch. Ich versuche nicht irgendetwas mit irgendetwas anderem aufzurechnen. Ich versuche nur in den Mittelpunkt zu stellen das die GESAMTBildqualität eine Summe vieler Faktoren ist und auch mit einem gewissen Anteil an subjektiven Eindruck einhergeht. UND das die BQ der GT2xxx eben nicht in allen Bereichen besser ist als die einer HD5xxx. Es sei denn man denkt wie du und reduziert die BQ auf die HQ-AF und AA Schalter in den Treibern - wenn das für dich so ist bitte. Ich sehe über diesen Tellerrand hinweg.

Der einzige der hier permanent darauf rumreitet das das AF und AA einer nV Karte unschlagbar ist und daher alle anderen Vorteile einer neuen/anderen grafikarte = 0 sind, bist du !


Subjektiv ist ob es dir egal ist oder du einen eingebauten Flimmerwegbügelfilter im Kopf hast. Btw, wie war das mit subjektiv und D3D11? Nicht falsch verstehen ich behaupte nicht das D3D11 scheisse ist (was nicht sein kann weil D3D11 alleine nicht schicker ist, das hängt erst am Entwickler), ich lege dir nur nahe das auch D3D11 subjektiv ist.

Ja richtig D3D11 ist ebenfalls subjektiv. So wie alles das Bilder auf den Monitor zaubert (siehe Van Gogh vs. Rembrandt). Nicht falsch verstehen - ist schon klar das das auch von den Entwickler abhängt - aber gleichzeitig wirst du mit einer GT2xxx NIEMALS in den Genuss von D3D11 effekten kommen da diese diese gar nicht unterstützt.

Um bei dem verlinkten Bild zu bleiben: Die Dächer in einem Spiel mit Tesselation und auf einer HD5xxxx werden schön dreidimensional erscheinen, die Dächer auf einer GT2xxx im selben Spiel werden dagegen flach und platt wirken. Das ist dann schon nahezu nicht subjektiv - das ist dann eher so etwas wie einen Rembrandt mit einem Bild von Amateurmaler XY zu vergleichen.

Einsparen von Samples ist keine subjektive Feststellung. Ebenso die Tatsache des resultierenden Flimmerns.

Das ist sie sehr wohl - wenn man diese Fehler nicht bemerkt stören sie auch nicht. Soll nicht heissen dass diese Fehler nicht existieren.

Um das zu verdeutlichen ein Beispiel aus der Mathematik:

2+2+2+2 = 8
2^3 = 8 (hier spart man sich also faktisch 3 rechenschritte)
2x4 = 8 (auch hier spart man faktisch 3 rechenschritte)

Keinen interessierts ob du 2+2+2+2 rechnest oder 2^3 oder 2x4. Solange das resultat gleich ist.

Nun ist das bei Grafikkarten und der Bildqualität nicht so einfach wie in dem ZahlenBeispiel und das Resultat ist nicht 8 sonder einmal 8,xxxx und einmal 7,xxxx. Das einzige was nun relevant ist ist die Rundungsgenauigkeit (des menschlichen Auges). Diese Wahrnehmung ist darüberhinaus auch von Mensch zu Mensch verschieden - das ist übrigens Fakt und überall nachprüfbar.

Diese ganze BQ-Diskussion läuft auf genau so etwas raus.

Das ist falsch.
Ich habe einen Post abgelassen, einen einzigen, über die ht4u Videos und die HD5 BQ.
In allen Posts danach musste ich mich rechtfertigen.

Na dann lies dir mal deinen absolut "ernsthaft und nicht polemisch" kritisierenden Post nochmal durch - vielleicht, ja vielleicht verstehst du dann warum dich hier so viele deswegen anfeinden.

Mit eigenen Augen wirkt es gleich anders.

Erstaunlich, CB und co schreibt noch wie toll die neue Marketing AF-Blume ist, aber anhand dieser Videos gibts scheinbar keinerlei Verbesserung.


Immerhin gibts endlich bei AMD SSAA, ganz ohne Marketingsbremse. Ohne Zweifel langersehnt
Wie siehts bei AAA aus? Ist SSAAA inzwischen wählbar?

Was soll der Unsinn per SSAA das Texturflimmern zu verschleiern? Bei 80 TMUs wäre eine verbesserte oder gar gleichwerte Filterung kein Thema gewesen.
Hat AMD wirklich so gehandelt wie befürchtet. "Hey ihr wolltet eine bessere Filterung, hier habt ihr eine bessere Blume" Kostet uns praktisch nichts, die Presse kanns super einbringen, es ensteht ein Eindruck das AMD sogar besser sei, aber dem Nutzer bringts null.


Theoretisch bleibt eine Entscheidung, 300€ + SGSAA vs 0€ + HQAF. Ehrlich gesagt fehlt ein bisschen der Anreiz 300€ (oder wie viel es auch immer sein mögen) auszugeben, nur um einen Kompromiss durch einen anderen zu tauschen.

CB und viele andere hier finden nicht dass es 0 bringt - nur du. Es ist wohl noch nicht so gut wie andere Dinge der Konkurrenz aber es auch nur als Marketing Gag abzutun ist wohl auch nicht richtig oder ?

Die HD5x ist eine Verbesserung in allen Bereichen im Bezug zur HD4x - sie ist auch in Teilen sogar besser als eine GT2xx (z.B. in DX11).

Man kann darüberhinaus auch mit einer HD5x in dem einen oder anderen DX10 Spiel in manchen auflösungen eben das eine oder andere Feature noch hinzuschalten auf das man aufgrund der niedrigeren Rohleistung einer HD4xxxx oder GT2xx sonst ganz verzichten müsste.

Aber ich stimme dir zu, ja sehr vieles am Wahrnehmen von BQ ist subjektiv - danke fürs Gespräch. Siehst du wir kommen ja gar nicht so schlecht miteinander aus.

P.S.: Es tut mir aufrichtig Leid (das meine ich ernst !), dass du so unter der schlechten Grafik von heute leidest. Ich bin da vermutlich einfach zu abgehärtet von Breakout (erschienen 1987) und meine unterbewusste Wahrnehmung vergleicht halt das Bild das sich mir heute bietet mit dem von damals - da fallen einem manche Dinge wohl einfach nicht so auf.

Bleibt für uns alle zu hoffen dass es im Grafik-BQ-Bereich stetig voran geht und niemals zurück so wie in den letzten 20 Jahren.
 
Zurück
Oben