Test ATi Radeon HD 5870 im Test: Die erste Grafikkarte mit DirectX 11

:D :D :D

Mal eine Sache vorweg: theinquirer = Gerüchteküche!

http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture


"...That said, lets get on with what we know, and delve into the architectures a bit. The GT300 is going to lose, badly, in the GPU game, and we will go over why and how..."

- Eignetlich schade... Siehts denn wirklich so schlecht für den GT300 aus?



"...GT300 is the first chip of a new architecture, or so Nvidia claims. It is also going to be the first GDDR5 part, and moreover, it will be Nvidia's first 'big' chip on the 40nm process..."

- Sag ich doch die ganz Zeit. Neue Architektur!


Würd mich aber freuen wenn es ein echtes Kopf an Kopf Rennen geben würde!
 
@Screemer
Die kommen sicher für Games die DX10 können ist es wohl ein klax die patches für DX11 zu programmieren.
Und mit Win 7 bekommen die ganzen OEM Rechner Kids DX 11 mitgeliefert das puscht DX11 gewaltig.

@ john carmack
Das weis keiner genau deutet aber vieles drauf hin wenn man so verfolgt was NV vom stapel lässt wenns um die neuen Radeons geht.
AMD respond to NVIDIA's tough Radeon HD 5800 questions
http://www.tweaktown.com/news/13199/amd_respond_to_nvidia_s_tough_radeon_hd_5800_questions/index.htm
 
Zuletzt bearbeitet:
Screemer schrieb:
es bleibt trotz dem zu hoffen, das amd/ati das flimmern in zukunft in den griff bekommt und sein af auf das nvidia niveau anhebt.
Es bleibt zu hoffen. Allerding reicht hoffen alleine nicht. Deshalb werde ich hier nicht still sitzen, sondern genau hier und jetzt darüber "nörgeln". Sonst passiert exakt null.

In den Augen vieler hat AMD durch den Marketingzug gewonnen, es heißt sie seien jetzt besser, weil die Blume runder ist und die Qualität minimal erhöht haben.
Zusehen und warten bringt nichts

ich brülle nichts, sondern ich hab nur auf dich und göschle gewartet. eure aussagen sind die gleichen wie in allen anderen 58xx threads. soll ja keine kritik sein. wie gesagt ich hab halt drauf gewartet.
Aussagen?
Falls es dir aufgefallen ist, ich habe mich auf die BQ beschränkt. Die ist nunmal bei allen HD5 gleich.

Der Fall ist leider nicht eingetreten, ein Lob kommt nicht vom Himmel gefallen:
"Ich werde mich dran halten, ich werde AMD in dem Punkt loben wenn es stimmen sollte und nicht nur die Blume im AF-Tester verbessert wurde, auch wenn ich nicht Nvidias überragende Filterung der letzten 3 Jahre in den Dreck ziehen werde. Werden sich die AI Fans auch dran halten und schweigen?"
-> Es kam anders, im Wesentlichen wurde die Blume verbessert, die AI-Fans denen die Filterung egal war sind auf einmal anderer ansicht, sie loben die Blume und die minimale Verbesserung.
--> Was soll ich davon halten, von AMD oder den AI-Fans?

im eigentlichen spielgeschehen merk ich da nicht viel bis gar nichts von
Dann kannst du froh sein.

john carmack schrieb:
Mal eine Sache vorweg: theinquirer = Gerüchteküche!!
Nein, inquirer = Charlie = NV-Hasser #1

Auf fudzilla liest es sich wieder ganz anders, tja wem kann man glauben.
http://www.fudzilla.com/content/view/15689/34/
http://www.fudzilla.com/content/view/15688/34/
http://www.fudzilla.com/content/view/15535/34/

milamber! schrieb:
Was lasst ihr euch auf Diskussionen ein
Jedenfalls hast du mal Diskussionsfähigkeit bewiesen, auch wenns scheinbar nicht lange angehalten hat.
Über üble Nachrede kann man nicht diskutieren. Ich sehe nur, wie du und andere mich gerne in eine Ecke drängen wollen. Wenn ihr Spass dran habt nur zu, es muss immer einen zum rumtretten geben.
 
Zuletzt bearbeitet:
Tut mir leid, deine Ansichten kannst du bei dir behalten, mir bietet die HD5 auf den ersten Blick zu wenig, als das sie einen Umstieg erzwingt.

Was heißt "Umstieg erzwingen". Jeder spendiert seinem System doch updates in andren Zyklen. Ich nutz noch immer ne X1800XT @ S1 - ok, ich sitz eh kaum noch am privaten Desktop, aber es wäre in dem Fall nicht erzwungen wenn ich nach drei ausgelassenen Generationen mal wieder ein größeres Update mache.

Ich versteh die Leute eh nicht die in einer gleichen Generation von GTX 2x5 zu ner 4870 oder 4890 wechseln oder anders herum. Genauso wenig versteh ich dann wie man jetzt von dieser gleich auf eine 5870 wechseln möchte.

Es mag ja einige geben die an der Leistung der GT300 zweifeln .. das tu ich gar nicht.
Der GT300 wird bestimmt besser, aber er wird auch ganz sicher einiges teurer werden. Bereits an dem Punkt wird er für mich uninteressant. Vor allem Grafikkarten sind vom Preisverfall sehr stark betroffen - warum sollte ich soviel mehr bezahlen wenn ich durch die Ersparnis mir schon wieder zu ~20-25% die nächste Generation leisten könnte, die von der Leistung ohnehin die alte "teurere" Generation überbietet.

Aber das sieht halt jeder anders .. mein Weg ist mit leichten Kompromissen ganz klar der Billigere. Wer auf Geld nicht achtet, .. wayne.

edit:..
Du setzt deine Priorität aufs Flimmern & Filterung, ich setze meine Priorität auf den Idle Stromverbrauch und den Preis.
Natürlich wäre ich hocherfreut wenn das Flimmern ebenfalls weg wäre, dennoch freue ich mich mehr über den äußerst geringen Stromverbrauch. Der Punkt hat mich schon bei der 48xx genervt, auch wenn dort der Preis gut war. Weiterhin hat mich dort genervt das es erst sehr spät Alternativkühler gab - dort haben die Nvidia Boardpartner bei der GTX275 super Arbeit geleistet. Jetzt gibt es einen Tag nach Release Bilder einer 5870 Vapor-X. Über diese Punkte darf ich mich freuen, weil ich andere Prioritäten wie du habe - und genau aus dem Punkt ist die Karte für mich nicht durchgefallen, selbst wenn die Performance noch ein paar Prozentchen besser sein könnte.
 
Zuletzt bearbeitet:
Ich versteh auch nicht was Unyu da so als nicht hinnembar beim AF hinnstellen will.
Das AF ist besser geworden und sollte für 90% der Nutzer ausreichen.
Für Spiele wie Oblivion HL2 The Witcher gibt es ja RGSSAA.
Power haben die neuen Radeons mehr als genug dafür.
Also was soll das gejammere.
 
Zuletzt bearbeitet:
DX11 ist vor allem die erste Chance für Tesselation auch mal umgesetzt zu werden. Properitär über entsprechende Extensions konnte das schon eine Version von Q3 auf damaliger ATi-Hardware. Immerhin ist die Karte in Sachen Performance und Features ein ordentlicher Motivationsverstärker für die grüne Konkurrenz, den Pfad des "Umlabelns" zu verlassen und sich auch um Innovation in Hardware zu bemühen.

@Wolfgang: wie immer super Test, Danke!
 
Ich will euch ja eigentlich nicht beim nörgeln, meckern und zanken stören, aber was ich gerade garnicht hinbekomme: mir die Preis/Leistungs-Werte zu errechnen!
Im Folgenden wird nun das Preis-Leistung-Verhältnis der im Test vertretenen Karten bestimmt. Dabei wird das Performance-Rating durch den Preis dividiert und mit 1000 Multipliziert. Das Ergebnis repräsentiert die Leistung, die man kaufmännisch gerundet für einen Euro erhält. Das Preis-Leistung-Verhältnis wurde für verschiedene Auflösungen und Qualitätseinstellungen ermittelt.


Also nehmen wir zur Beispielrechnung den Wert von 1680x1050 89,0% dividieren ihn durch den Preis (noch UVP ATI) 350€ kommt 0,254285... raus. Mit 1000 multipliziert gibt das doch nichts anderes als 254,285...
Sollte jedoch laut CB P/L-Verhältniss 47,6 sein.

Sellbst wenn ich (wortwörtlich, so wie es sein sollte: Preis -geteilt durch- Leistung rechne haut das überhaupt nicht hin!

Schläft mein Gehirn noch oder was mach ich verkehrt?
 
wie geil !! die Karte muss ich haben.

Auf Win 7 umstellen und 2 zusätzliche Monitore kaufen und dann mit 4 Panels zocken *wie geil ist das denn*
 
icebreaker23 schrieb:
Ich will euch ja eigentlich nicht beim nörgeln, meckern und zanken stören, aber was ich gerade garnicht hinbekomme: mir die Preis/Leistungs-Werte zu errechnen!
Schläft mein Gehirn noch oder was mach ich verkehrt?

Ich bin nach deinem Posting auch das erste mal über die Rechnung gestolpert.
Ich glaube das Problem liegt daran, das du nicht die Prozentzahl aus dem Performancerating übernehmen kannst, sondern den der Prozentzahl zugrundeliegenden Wert und damit kommst du dann auf den P/L Wert von Computerbase.
 
Unyu schrieb:
Jedenfalls hast du mal Diskussionsfähigkeit bewiesen, auch wenns scheinbar nicht lange angehalten hat.

Daran ändert sich nichts, ich habe nur keine Lust um ne Mücke herum zu tanzen und aus ihr nen Elefanten zu machen, und mich mit Leuten um Themen zu streiten, die - je nach Bedarf - immer andere sind, nur um per se etwas schlecht reden zu können.

Unyu schrieb:
Über üble Nachrede kann man nicht diskutieren. Ich sehe nur, wie du und andere mich gerne in eine Ecke drängen wollen. Wenn ihr Spass dran habt nur zu, es muss immer einen zum rumtretten geben.

In diese Ecke manövriert, das hast du selbst getan, und zwar mit Vollgas.

Im übrigen; wenn du 'Kritik' an den Hersteller äussern möchtest, weil du etwas ändern willst - sofern es wirklich darum geht - gibt es definitiv bessere Plattformen wie das Computerbase Forum, wo es sich lediglich darauf beschränkt, anderen Leuten gegenüber, Produkte eines Herstellers madig zu machen.
 
Bezüglich der Bildqualität allgemein:

Ich habe noch kein HD5k-Bild selber gesehen, kann also dazu kein Statement abgeben.

Das bislang beste Bild hatte ich mit meiner X1800XT. Sehr scharf, schärfer als die nachfolgenden Ati-Karten und Nvidias ab G80, zwar mit Flimmerneigung, aber mit hochgedrehten Qualitätseinstellungen konnte man es relativ gut eindämmen. Die Texturen waren ebenfalls recht scharf, besser (sprich nicht so verwaschen)als bei Nvidia, in etwa gleich gut zu den nachfolgenden Atis. Und das Bild unter 2D war bei der x1k-Serie auch besser als bei den G80- und R600-Derivaten.

Das is meine persönliche Meinung bzw Erfahrung, und deshalb ist die x1k-Serie immer noch meine persönliche Referenz, wenns um Bildqualität geht. Wie es in theoretischen Tests bezüglich BQ aussieht, ist mir persönlich völlig wurscht, das Bild muss mir an meinem Monitor gefallen. Und da hat die X1800XT immer noch die Nase vorn.

Bin gespannt, was die HD5k-Reihe für ein Bild auf meinen Bildschirm zaubern wird...

@unyu: lass dich nicht unterkriegen, evtl sieht die sache in nem halben Jahr, wenn der GT300 endlich da ist, ganz anders aus.

edit: hat unyu etwa schon Angst um seinen Arbeitsplatz?!? :D
 
Zuletzt bearbeitet:
Pusche schrieb:
wie geil !! die Karte muss ich haben.

Auf Win 7 umstellen und 2 zusätzliche Monitore kaufen und dann mit 4 Panels zocken *wie geil ist das denn*

Mit 4 Monitoren ist nicht empfehlenswert, da sowohl nebeneinander, als auch zwei oben und zwei unten, die Mitte des Bildes, und damit zu 90% das Zentrum des geschehens immer dort ist, wo die Monitorgehäuse sich befinden.
3 Monitore hingegen sind hier eine echte Option, und so wie man es liest, auch problemlos mit unterschiedlichenM onitoren unterschiedlicher Größe nutzbar.
Also zum aktuellen 22" und dem alten 19" im Keller nen 2. 19" für 50€ bei ebay gekauft, bringt ne Menge Spielspaß bei sehr vielen Spielen, aller Genres.
 
Sp1d3r schrieb:
Sapphire HD 5870 Vapor-X


Vapor-X von Sapphire ist doch eine bessere und leisere Kühlung, oder?
Ergänzung ()

blub1991 schrieb:
tolles ergebniss, so kurtz nach release, wir wissen ja alle, dass bei ati mit den treibern noch ne mänge geht, wenn die erstmal richtig optiemiert sind wird das ergebniss noch ne ganze ecke besser.
freuen tu ich mich auch dasPP entlich (richtig) läuft, sodass eine geringe lautstärke ereicht werdden kann.
was noch fehlt ist ne 2gb version mit richtig leiser kühlung:D


Irgendwelche Hinweise auf eine 2GB version?

eine 5870 2Gb wäre so das was ich will!
 
Unyu schrieb:
Wenn ihr Spass dran habt nur zu, es muss immer einen zum rumtretten geben.
kein mensch will auf dir "rumtretten", nur ist das gebetsmühlenartige herunterbeten der lehrsätze von "top-af-qualität" einfach langsam genug. wir haben haben so gut wie alle verstanden, dass die bq von nv besser ist als die von ati/amd.

für die die das flimmern als störend empfinden bleibt ja immer noch die möglichkeit sich eine nv-karte zu kaufen und damit glücklich zu sein. allen anderen sollte man auch mal ne pause gönnen.

ich wünsche mir besseres af für die nächste generation der ati-karten auch wenn ich nichts davon bemerke.
 
Unyu schrieb:
Den Vorzug eines negativen LOD bei Nvidias SSAA kann man beispielsweise dank AMDs Texturfilter nicht im selben Maße genießen.
Du kannst das LOD mit den ATTs ins Negative schieben, dann sieht 4x SGSSAA (noch) besser aus als 2x2 OGSSAA. Die Geometrieglättung ist eh besser.
Booby schrieb:
Das würde ich aber noch nicht in Stein meißeln, Treiber, stärkere CPUs und passende Spiele werden den Abstand wohl auf durchschnittliche 50% anheben lassen, dies war beim R300 sowie dem G80 genauso, der einzige der dies zu verstehen scheint, ist y33H@
Ay.
 
Zurück
Oben