Bericht Bericht: Die Qualität des anisotropen Filters

@ Seppuku

Nicht belegen, untermauern. Werte habe ich intern genügend.
 
Dann zeig doch diese und lass doch die in diesem Zusammenhang absolut nicht aussagekräftigen und unsinnigen Graphen weg. So schürt es nur weiter irgendwelche unsinnigen Diskussionen, die man sowieso schon mehr als genug hat ;).
 
Ich kann nicht alles publizieren, was ich an Daten habe ;)
 
Dann sollte man aber auch keine unsinnigen Dinge (in diesem Fall nichtssagende Graphen) als Argument anführen. Oder was versprichst du dir davon?
 
1. Sind die Diagramme nichtssagend

2. Verzicht auf AA ist daemlich. Aber dann wuerde ja das Ergebnis zu Gunsten der AMD Grakas verschieben...


3. Wenn man bedenkt, wie PCGH in letzter Zeit (ka ob das schon immer so war, ich schaue erst seit kurzem bei dieser Page vorbei) zu ihren Werten kommt, MUSS man saemtlich Diagramme die darauf bassieren als Schrott bezeichnen.
Da wird eine Seite in groessenordnungen uebertaktet und deutlich ausserhalb der Spezifikationen des Herstellers gebencht. Teilweise wird das nicht mal erwaehnt. Und wenn doch, wird es total heruntergespielt. (Uebertaktungen in der Groessenordnung von 25% werden als leichte Uebertaktung bezeichnet.)
 
2. Verzicht auf AA ist daemlich. Aber dann wuerde ja das Ergebnis zu Gunsten der AMD Grakas verschieben...

Aber wenn man doch sehen will, wie sehr eine Grafikkarte mit verschiedenen CPUs skaliert, dann wäre ein (extremes) GPU-Limit ja nicht gerade sinnvoll (alle Werte währen in etwa gleich)....


Ich werde das Gefühl nicht los, dass ich irgendwo einen Denkfehler habe
 
Zuletzt bearbeitet:
Mit ner Ati 4870/90 oder einer Nvidia 275/285 zockt man mit AA. Je nach Karte und Hersteller 4xAA oder 8xAA. (Auch anderes moeglich, aber aus Gruenden der Vergleichbarkeit hab ich die 2 genannt).

Was bringt jetzt ein Diagramm, was mir zeigt, wie gut etwas skaliert, wenn dies die Einstellungen ignoriert, die normalerweise von Nutzern der entsprechenden Karten genutzt werden.
Das sich dann gewisse Karten doch nicht deutlich absetzten koennen, entspricht einfach der Raelitaet.
 
Du willst vermutlich auch, dass bei einem CPU Test Auflösungen von weit über 1280*1024 gefahren werden, oder?

Man will doch wissen, wie eine jeweilige CPU eine bestimmte Grafikkarte limitiert, aber man will nicht wissen, welche Grafikkarte die schnellere ist.

Es geht doch nur darum, dass man sieht, dass eine ATI bereits mit weniger CPU Leistung fast maximale Geschwindigkeit erreicht, währenddessen eine Nvidia mehr CPU Power benötigt - das ist die Kernaussage der Diagramme, nicht "eine GTX295 ist schneller als eine HD 4870x2"
 
Ich bin fuer ausgewogene Tests.

Sprich ich haette nichts gegen einen 1280x1024 ohne AA/AF UND einen 1680x1050 mit 4xAA/16AF.
Theoretische Tests sind toll. Aber fuer mich als Endverbraucher ist nun mal am interessantesten, was "hinten" rauskommt.
 
Dann schau dir die Grafikkarten-Benchmarks in 1.680 mit 4x MSAA an und meckere nicht über eine VGA-CPU-Skalierung, welche auf ein ausbalanciertes Setting setzt :rolleyes: Zudem - wer nutzt auf einer HD3870 in 1.680 4x MSAA? Die ist zu lahm.
 
Kommt drauf an welches Game man zockt.=)
Schöner Test @ CB war leider im Urlaub und bin doch etwas überrascht, dass der Test gemacht wurde.
Dass Nvidia Karten mit mehr CPU Leistung besser skalieren mag sein, pauschal gesagt allerdings falsch.
Zudem sind 2 lausige Graphen keine Bestätigung dafür. Ist mir zu weit hergeholt.
 
Hier geht es nicht um die Leistung, sondern um die Bildqualität und dort unterliegen ATI-Grafikkarten derzeit den Grafikkarten von Nvidia ;)
 
Dann wundere ich mich nur, weshalb dann hier wieder über total sinnbefreite Balkenlängen diskutiert wird?

Vielleicht sollte dieser Artikel vielmehr dazu genutzt werden, die beschränkte Sichtweise einiger auf den längsten Balken endlich einmal zu brechen. Denn viele Frames bringen niemanden etwas, wenn die Bildqualität darunter extrem leidet (AI+AF-Optimierungen), oder der Spielfluss dank Multi-GPU (Crossfire und SLi) subjektiv nicht flüssig ist ;)
 
Gerade dieser Test beweist doch, dass die Bildqualität nicht extrem darunter leidet.
Soviel sollte man doch gelernt haben, aber du basht nur ständig obwohl niemand mit dir über das jetzt unglaublich ausgelutschte Thema duskutiert.
Der SPielfluss ist mit Crossfire und SLI flüssig, dein Gehirn kann die kleinen unterschiedlichen Bildausgaben bei über 50 Fps eigentlich gar nicht mehr wahrnehmen, aber du glaubst es anscheinend zu können.
Zudem wurden die µruckler bei Sli etwas entschärft.
Nach deiner Sichtweise dürfte man glauben, dass man lieber Crysis Warhead mit 20FPS mit einer Single Karte Spielt, als mit einer X2 Karte mit etwa 40 FPS.
Die zeitlich leicht unterschiedlichen Bildausgaben sind natürlich viel schlimmer als die 20 FPS mit einer Singlekarte nicht war?
Naja hier kann sich ja jeder selbst was dazu denken.
 
Zuletzt bearbeitet:
Gerade dieser Test beweist wie schwachsinnig Optimierungen sind.

10% scheinen Einigen so stark ans Herz gewachsen zu sein, das sie alles tun würden, um diese 10% nicht zu verlieren.
Da auf der anderen Seite Fake FPS mit normalen FPS gleichgesetzt werden zählt das Argument Spielbarkeit wegen 10% nicht, wobei es auch sonst nicht gelten würde weil kein Grund besteht unbedingt optimiertes 8x (16x) statt echtes 8x zu verwenden.
Diese 10% sind sogar so wichtig, das offensichtliche Mängel wie die Koppelung der Texturfilterqualität an "Spielespezifische Optimierungen" als "Bash" bezeichnet werden.

Was heißt eigentlich "BQ leidet nicht extrem"?
 
Schaffe89 schrieb:
Gerade dieser Test beweist doch, dass die Bildqualität nicht extrem darunter leidet.

Dieser Test beweist nur wieder einmal, dass es immer noch genug verblendete FanATIker gibt, die trotz sämtlicher Beweise bezüglich der eindeutig schlechtere AF-Qualität ATIs, immer noch versuchen fernab jeglicher Realität sich und anderen FanATIker alles schön zu reden ;)

Schaffe89 schrieb:
Soviel sollte man doch gelernt haben, aber du basht nur ständig obwohl niemand mit dir über das jetzt unglaublich ausgelutschte Thema duskutiert.

Wieso?

Wenn auch nicht wirklich sachlich und objektiv, aber du diskutierst doch mit mir ;)

Schaffe89 schrieb:
Der SPielfluss ist mit Crossfire und SLI flüssig, dein Gehirn kann die kleinen unterschiedlichen Bildausgaben bei über 50 Fps eigentlich gar nicht mehr wahrnehmen, aber du glaubst es anscheinend zu können.

Wieso versuchst du ständig für mich zu sprechen?
Ich kann die Mikroruckler bei 50 und mehr Frames sehr wohl wahrnehmen. Wenn dein Gehirn dafür nicht "schnell" genug ist, dann ist das dein Problem, meines ist jedenfalls "schnell" genug um die Mikroruckler zu erkennen ;)

Schaffe89 schrieb:
Zudem wurden die µruckler bei Sli etwas entschärft.

Und? Trotzdem ein unzumutbarer Kompromiss für richtige Gamer...

Schaffe89 schrieb:
Nach deiner Sichtweise dürfte man glauben, dass man lieber Crysis Warhead mit 20FPS mit einer Single Karte Spielt, als mit einer X2 Karte mit etwa 40 FPS.

Ja, so ist es auch. Dies werden dir auch Raffael Vötter, Marc Sauter und Carsten Spille bestätigen können ;)

Schaffe89 schrieb:
Die zeitlich leicht unterschiedlichen Bildausgaben sind natürlich viel schlimmer als die 20 FPS mit einer Singlekarte nicht war?

Richtig, du hast es endlich verstanden ;)

Schaffe89 schrieb:
Naja hier kann sich ja jeder selbst was dazu denken.

Wäre ja auch schlimm, wenn dem nicht so wäre, nicht wahr ;)
 
Ein richtiger Gamer hat also ne Single Grafikkarte, so wie du.
Ein richtiger Gamer verbreitet aber keine Lügen, und spricht nicht für andere, ich hoffe mal ehrliche Redakteure die nicht sonen einseitigen quatsch verfassen wie du.
Ich sehe nirgendswo irgendwelche Fanatiker auf der AMD Seite die das AF schönreden, das tut nämlich keiner, zumindest hab ich auf den letzten Seiten keinen gesehen.
Schlimmer ist, dass es auf der anderen Seite anscheinend Leute gibt, die mit "ihrer" Firma zurecht erfolg haben, dann aber noch übertrieben nachtreten und Unwahrheiten zu verbreiten, gehört nicht zu einem fairen Gewinner.

Dr. Perry Cox schrieb:
Richtig, du hast es endlich verstanden
Ironie trifft auf Ironie wie lustig.

Du hast glaub ich einiges falsch verstanden, so wie ich deine Ausführungen oben verstehe.
Deine Aussagen sind ohnehin zu pauschal, wenn nicht gleich lächerlich und unglaubwürdig.
Ein richtiger Gamer darf also nur mit einer Single GPU spielen, da in allen Spielen SLi/Crossfire nichts bringt und total ruckelt. /Ironie off

Unyu schrieb:
Gerade dieser Test beweist wie schwachsinnig Optimierungen sind.

Genau das meine ich auch. Wäre nicht nötig gewesen. Aber die Bildqualität leidet bei objektiver Sicht der Dinge nicht extrem darunter, sondern etwas.
Was ich auch bemängle, aber gegen Stimmungsmache und Übertreibungen reagiere ich allergisch.

Zudem sind 20 FPS@ Crysis niemals angenehmer als 40FPS in Crysis, beispielsweise mit einer GTX295.
Danke fürs Gespräch.
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben