AMD HD6000 / Barts FAQ - vor dem Test ist nach dem Test

Status
Für weitere Antworten geschlossen.
y33H@ schrieb:
Man muss bei beiden mit den 10er Catalysts "AI HQ" wählen für beste BQ und das kommt dann annähernd an NVs Treiberstandard heran, an HQ freilich nicht. Mit Barts hat AMD allerdings endlich das Banding gefixt.

Du behauptest, dass die maximal möglichen Einstellungen lediglich an Nvidias Treiberstandard annähernd herankommen?
Nvidia filtert unter Standard flimmriger als unter HighQ und auch Banding ist da.
AMD schaltet das Banding unter High Quality aus und vermindert das Flimmern, was sogar weniger als bei den HDK5 sein soll, außerdem stark Contentabhängig.

Imho sehe ich hier AMD bei max. Qualität vor Nvidias default und trotzdem Bencht ihr Nvidia standard VS AMD High Quality.
Nvidia hat lediglich noch den HQ Schalter, der das AF flimmerfreier darstellt.

Airbag schrieb:
dass AMD letztendlich sogar mehr samplet

Müsste doch anhand der Schärfe der Screenshots für Geübte leicht ausmachbar sein oder?
Weniger Schärfe= mehr Textursamples
 
Zuletzt bearbeitet:
Ich habe auch nur von der reinen Theorie beim D3DAFtester von Demirug mit seiner Texelanalyse(zeigt die Verteilung des Textursample) gesprochecn.
Was AMD letztendlich in Spielen macht und was für Optimierungen an sind, ist eine andere Sache. Aber rein theoretisch kann eine AMDkarte mehr samplen als eine NV, was aber scheinbar aus gewissen Gründen nicht getan wird. Vermutlich Perfomance.

Bezug lag dabei auf der HD5k . Wie es mit der HD6k aussieht werden wir heute sicherlich noch sehen, wenn die ersten HD6k Texelanalyseshots kommen.

edit:
Da haben wir es ja schon.,
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8350581&postcount=213

Die letztendliche Sampleanzahl liegt trozt 8% weniger gegenüber der HD5k immer noch über der von NV.
 
Zuletzt bearbeitet:
y33H@ schrieb:
"AI Q" bei Barts flimmert mehr als "AI def" bei Cypress.
AI default bei Barts hat dafür kein Banding, AI default bei Cypress schon. Man muss bei Barts also AI Q einstellen für einen fairen Vergleich zu alten Cypress Ergebnissen. Die nVidia Qualität ist dann auch nicht besser. Im Gegenteil, entsprechend Dave Baumann scheint AMD hier insgesamt sogar höherwertiger zu filtern. Pro nVidia, Flimmern, pro AMD, Banding und Winkelunabhängigkeit.


Airbag schrieb:
Wenn nicht falsch liege, hat der besagte Dave Baumann genau die Aussage getroffen, wie von mir geschrieben, worauf sich PCGH auch stützt .
Diesbezüglich ist mir nichts bekannt. Ich kenne nur das, was ich zitiert habe.
 
Die Winkelunabhängigkeit kannste in der Praxis vergessen, das sieht idR niemand, selbst ich nicht.

Barts fehlt das Hardware-Bug-Banding, AF-Banding ist etwas anderes.
 
Das Banding ist nicht komplett verschwunden. Unter anderem mindert AMD das Banding durch Unterfilterung, dafür ist Barts noch flimmeranfälliger als es die HD5000 ohnehin schon gewesen ist. Einzig bekannter Unterschied der Winkelabhängigkeit zwischen AMD und Nvidia ist mir nur im AF-Tester bekannt. Selbst in der berühmten HL2-Kanalrouten-Schienenszene ist kein Unterschied der Winkelabhängigkeit sichtbar. Deswegen ist das ja auch nie ein Thema gewesen. Es ist praktisch belanglos im Gegensatz zum praktisch sichtbaren Banding und zum stärkeren Flimmern bei AMDs AF.
 
y33H@ schrieb:
Die Winkelunabhängigkeit kannste in der Praxis vergessen, das sieht idR niemand, selbst ich nicht.
Ist belanglos. Trotzdem sind da die Radeons hardwareseitig eben besser. Den Unterschied beim Flimmern sieht meist auch kein normaler User.
 
Das Flimmern ist weitaus besser zu sehen als die Winkelunabhängigkeit.
 
Flimmern ist schrecklich. War froh als ich von HD 4000 auf HD5000 gegangen bin. (Noch) mehr flimmern wäre für mich ein nogo. :mad:
 
y33H@ schrieb:
Das Flimmern ist weitaus besser zu sehen als die Winkelunabhängigkeit.
Subjektiv. Wenn selbst die meisten Tester schreiben, dass es praktisch keinen sichtbaren Unterschied mehr zwischen default Radeon vs default GeForce gibt, ist dieses Argument keines mehr.
 
Wenn ich ganz stark an rote Bäume denke, sehe ich hier auch überall welche...

Die Unterschiede im flimmern sieht ein normal sterblicher, unvoreingenommener User nur im Direktvergleich..ständig auf dieser Thematik rumzukaun ist schlichtes Fanboy bashing..
 
Ati/AMD flimmert mehr, hat dafür aber ein schärferes Bild als Nvidia.
 
gruffi schrieb:
Wenn selbst die meisten Tester schreiben, dass es praktisch keinen sichtbaren Unterschied mehr zwischen default Radeon vs default GeForce gibt, ist dieses Argument keines mehr.
Default auf HD5k/HD6k ist seit dem 10.10er schlechter als bisher. Erst HQ ist annähernd auf Höhe von NVs Default. Und nein, Flimmern ist nicht subjektiv. Wenn etwas mehr flimmert als etwas anders, dann flimmert es objektiv mehr.
 
Und warum soll HQ nur annähernd auf Nvidias Default Einstellungen sein?
Ich hoffe ihr bringt mal nen gescheiten Test dazu raus.
Wenn du meinst es flimmert mehr, heißt das nicht, dass auch andere Leute sagen, es flimmert mehr, denn es gibt auch noch andere Meinungen Testseiten die eure Behauptungen nicht stützen, bzw es nicht sehen.

Das Herumreiten auf dem Thema ist übrigens von euch (PCGH) scheinbar zum Sport geworden, wird ja selbst in der PCGH Zeitung davor "Gewarnt" und man solle doch wenn das Flimmern störe (die meisten Leser verstehen nur Bahnhof und denken an Kein AA->> Flimmern) lieber zu einer Nvidiakarte greifen.

Und wenn etwas mehr Bandet als etwas anderes bandet es mehr und deswegen ist der Treiber default von AMD besser als der von Nvidia, weil Banding schlimmer ist als AF.
So und das ist meine subjektive Meinung und nun?
Auf die Aussagen weiter oben gehst du ja nicht ein. Bei dir gibt es immer nur die eine Warheit.:freak:
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Ich hoffe ihr bringt mal nen gescheiten Test dazu raus.

Bitte nicht, die Umfrage nach der legendärsten Grafikkarte war ja schon peinlich genug.
Bitte nicht noch einen krass exklusiven weltersten Enthüllungsthread betreffend der Überlegenheit von Nvidias Grafikkarten.
 
Wasn, war ne umfrage... Kein Test!

Und die 8800 gtx ultra ist schon sowas wie ne legende, da sie quasi 3-4 Generationen lang mithalten kann. Schon der hammer. Und gabs meines Wissens nach so noch nie. Hätte zwar auch gedacht dass vodoo 1 oder 2 weiter vorne liegen, denn das waren wirkliche Legenden, aber gut...

Naja und dass die HQ Einstellungen nun etwa den alten Q Einstellungen entsprechen ist doch unbestritten, oder? Ist doch sogar offiziell wenn ichs richtig mitbekommen habe.
 
Schaffe89 schrieb:
Das Herumreiten auf dem Thema ist übrigens von euch (PCGH) scheinbar zum Sport geworden, wird ja selbst in der PCGH Zeitung davor "Gewarnt" und man solle doch wenn das Flimmern störe (die meisten Leser verstehen nur Bahnhof und denken an Kein AA->> Flimmern) lieber zu einer Nvidiakarte greifen.

PCGH ist noch viel zu lasch bei dem Thema. Das AF gehört gnadenlos abgestraft, ansonsten wird sich AMD nie dazu bequemen. Dank solch "gehorsamen" usern wie du wird AMD keinen Grund sehen etwas zu ändern. Es gibt genügend Video und screenshot Material, wo die Unterschiede gut dokumentiert sind. Wenn du dem nicht ins Auge sehen willst oder die Unterschiede nicht sehen kannst (warum auch immer), dann ist es zwar schön für dich, aber lass usern mit mehr Blick für die Grafik trotzdem ihr Anliegen auf vernünftige Filterung. Was du hier veranstaltest ist "darf nicht sein was nicht sein darf" Fanboy Gerede. Damit kommt niemand ans Ziel außer AMD. Befass dich erstmal mit der Materie, vielleicht kommst du dann zu einem ganz anderen Schluss.
 
Schaffe89 schrieb:
Und warum soll HQ nur annähernd auf Nvidias Default Einstellungen sein?
Weil das, was sich nun "HQ" nennt, der alte Treiber-Standard war - nur eben jetzt ohne HW-Bug-Banding. Die höhere Flimmeranfälligkeit, das AF-Band, das bleibt. NVs Treiber-Standard ist im Zweifel nach wie vor besser.
Schaffe89 schrieb:
Ich hoffe ihr bringt mal nen gescheiten Test dazu raus.
Kommt, klar.
Schaffe89 schrieb:
Das Herumreiten auf dem Thema ist übrigens von euch (PCGH) scheinbar zum Sport geworden, wird ja selbst in der PCGH Zeitung davor "Gewarnt" und man solle doch wenn das Flimmern störe (die meisten Leser verstehen nur Bahnhof und denken an Kein AA->> Flimmern) lieber zu einer Nvidiakarte greifen.
Sport? Das ist Aufklärung, Fakten für die Leser, Einsatz für bessere Grafikqualität. Alles im Interesse der Kunden, der Spieler, unserem aller Interesse. Wir alle wollen schließlich nicht nur viele Fps, sondern auch eine gute Grafik! Wer das nicht kapiert und PCGH für die Offenheit und die Präsentation dieser Fakten basht, will offenbar lieber Pong spielen :(
 
Also ich persönlich schätze allen voran Objektivität, und das ich da bei dem einen bestimmten Online Magazin nicht gerade an der besten Adresse bin, haben mir die letzten fast 4 1/2 Jahre intensiverer Beschäftigung mit dem Thema in meinen Augen unmissverständlich so vermittelt. Ohne das mir das irgend jemand vorkauen oder einreden müsste. Und weder habe ich diesen Eindruck von einem anderen deutschen Online Magazin (und nur wenigen internationalen), noch sind mir solche Gerüchte bei anderen zu Ohren gekommen.
Und sowas kommt nicht von ungefähr.

Aber das sollte auch nicht Thema dieses Threads sein.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Default auf HD5k/HD6k ist seit dem 10.10er schlechter als bisher.
Und trotzdem nicht schlechter als nVidia. Da kannst du mal sehen. ;)

y33H@ schrieb:
Und nein, Flimmern ist nicht subjektiv. Wenn etwas mehr flimmert als etwas anders, dann flimmert es objektiv mehr.
Wenn jemand Flimmern wahrnimmt, ein anderer aber nicht, dann ist das subjektiv.

y33H@ schrieb:
Weil das, was sich nun "HQ" nennt, der alte Treiber-Standard war - nur eben jetzt ohne HW-Bug-Banding.
Du wirfst Hardware und Treiber schon wieder wild durcheinander. Am Banding von Cypress ändert der Treiber gar nichts, genauso wie bei Barts. Wie soll man dich da eigentlich ernst nehmen?

y33H@ schrieb:
Sport? Das ist Aufklärung, Fakten für die Leser, Einsatz für bessere Grafikqualität. Alles im Interesse der Kunden, der Spieler, unserem aller Interesse. Wir alle wollen schließlich nicht nur viele Fps, sondern auch eine gute Grafik! Wer das nicht kapiert und PCGH für die Offenheit und die Präsentation dieser Fakten basht, will offenbar lieber Pong spielen :(
Na ja, was ihr daraus macht, ist ein Heiliger Krieg. Ein Heiliger Krieg um Differenzen in einem Wahrnehmungsbereich, der in der Praxis keinem normalen User wirklich auffällt. Und das nützt dem Kunden gar nichts.
 
Zuletzt bearbeitet:
Dann sind mehr Fps auch subjektiv? Oder Kantenglättung? Beides lässt sich wie Flimmern messen.

@ milamber!

Objektivität ist bei "einem bestimmten Online Magazin", das vor allem Print macht, gegeben. Und es gibt nichts, aber auch gar nichts, was daran etwas ändert. Nur die Sichtweise eines Users, dem vll manche Fakten nicht in den Kram passen. Umfrage(n) nach der legendärsten Grafikkarte haben einen ****** mit nicht vorhandener Objektivität zu tun. Höchstens mit subjektiv empfundener Seriosität, vor allem aber mit PIs/Visits.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben