News ATi entfernt MipMap-Erkennung im Cat. 9.5

Dass ATI seit dem R600 eine schlechtere Filterqualität bietet als Nvidia dies tut, bzw. als es mit der Radeon X1900-Reihe noch möglich war, ist doch hinlänglichst bekannt. Wer dies trotz bewiesener Tatsachen, allen Ernstes zum Trotz in Frage stellt, hat entweder keine Ahnung, oder der muss sich die Objektivität und Sachlichkeit komplett absprechen lassen, was dieses Thema betrifft!

Ich habe auch meine HD4870/1024MB wegen dem echt nervigem Geflimmer gegen eine GTX280 eingetauscht und ich muss euch sagen, das ist ein Unterscheid wie Tag und Nacht! Solange ATI die Filteroptimierungen nicht deaktiviert, oder im Treiber zum Deaktivieren freigibt, bleibe ich bei Nvidia!

Ich hoffe jedoch inständig, dass ATI sich eines Besseren belehren lässt und in Zukunft auf die Filteroptimierungen verzichtet. Falls ATI dies tatsächlich tun sollte, kann man damit aber erst rechnen, wenn ATI eine neue Architektur anbietet, also erst mit der übernächsten Generation. Denn ATI hat ein Problem, sie haben sich mit der R600-Architektur massiv verkalkuliert. Alle Chips die auf der R600-Architektur basieren haben das Problem, dass die TMUs im Vergleich zu den Shadern viel zu unterdimensioniert sind. Die TMUs einer HD4870 hätten ohne die Optimierungen nicht genug Texelleistung um mit einer GTX260 mitzuhalten, da bringt dann auch die hohe Shaderleistung nichts mehr, wenn die TMUs den Chip ausbremsen. Würde man jetzt die Filteroptimierungen bei der HD4870 komplett deaktivieren, dann könnte es sogar sein, dass die HD4870 nicht einmal mehr die Leistung einer 9800GTX erreicht. In diesem Fall wäre aber das gute Preisleistungsverhältnis der HD4870 nicht mehr gegeben und ATI wäre nicht mehr wettbewerbsfähig. Aus diesem Grund wird es die Filteroptimierungen bei ATI auch weiterhin geben, zumindest bis zur übernächsten Generation. Denn dann steht wieder eine neue Architektur an, mit der ATI alles besser machen kann, so dass es ein besseres Verhältnis zwischen TMUs und Shadern gibt.

Im Prinzip waren die Filteroptimierungen ab der HD2900XT nur eine Notlösung ATIs, da man sich was die Architektur angeht, schlicht und ergreifend verkalkuliert hat, nicht mehr und nicht weniger. Denn auch hochauflösende Texturen sind nach wie vor gefragt und werden ganz sicher nicht durch Shadereffekt abgelöst.

Quelle: http://extreme.pcgameshardware.de/b...anstatt-quantitaet-page3.html?page=3#comments
 
Zuletzt bearbeitet:
Ich glaub ich hab ein Spiel gefunden wo ich das Flimmern seh... Gothic 3 !?
(Nervt mich aber nicht wirklich muss ich zugeben.)
In anderen Spielen seh ich das nicht, auch die Vergleichsvideos die auf 3dcenter gepostet wurden (Halflife2) sind in meinen Augen identisch. Und Sehkraft hab ich 120% daran kann es nicht liegen.
(Wie einige hier geschrieben hatten.)
Würde deswegen nie meine Graka tauschen.:freak:
Aber muss jeder selbst wissen...
 
Zuletzt bearbeitet:
Der Punkt, den alle, die ATI rechtfertigen, mal verstehen könnten, ist, dass sie, wenn sie die Bugwellen nicht sehen, den Unterschied zwischen 16x oder 8x und 4xAF vermutlich auch nicht sehen bzw. er sie im Spiel nicht stören dürfte und dann auch keine High-End-Karte kaufen müssen, weil ihnen Midrange-Performance locker reichen sollte. Das hat ich glaube Leonidas im 3Dcenter-Forum schon vor ettlichen Jahren auf den Punkt gebracht, aber verstanden hats die Mehrheit bis heute leider noch nicht.
 
Zuletzt bearbeitet:
AF ist ja auch das einzige, was eine High-End-Graka ins Schwitzen bringen kann. :rolleyes:
 
Sehen denn Leute, die die Bugwellen nicht sehen, wirklich den Unterschied zwischen HDR und Bloom ohne einen Direktaugenvergleich, so dass sie ein Verzicht auf HDR, womit du High-End-karten dann nicht mehr so leicht ins Schwitzen bringst, im Siel stören könnte?
 
Sorry, aber nur weil ich in dieser Diskussion fuer Ati agumentiere bin ich nicht blind.
Das haengt mit der Art der "Diskussion" und massenhaft Falschaussagen zusammen.
Des weiteren ist gerate bei Crysis das AF Flimmern im Gegensatz zum Shaderflimmern das deutlich kleinere Uebel.
Die Diskussion ist wie das Gemecker ueber einen Kratzer im Lack, aber die selbe Person versucht mit nem platten Reifen weiter zu fahren.
 
MountWalker schrieb:
Der Punkt, den alle, die ATI rechtfertigen, mal verstehen könnten, ist, dass sie, wenn sie die Bugwellen nicht sehen, den Unterschied zwischen 16x oder 8x und 4xAF vermutlich auch nicht sehen bzw. er sie im Spiel nicht stören dürfte und dann auch keine High-End-Karte kaufen müssen, weil ihnen Midrange-Performance locker reichen sollte. Das hat ich glaube Leonidas im 3Dcenter-Forum schon vor ettlichen Jahren auf den Punkt gebracht, aber verstanden hats die Mehrheit bis heute leider noch nicht.
Ähm ich sehe den unterschied zwischen 4x und 16x AF.:rolleyes:
 
GreatEvil schrieb:
Das haengt mit der Art der "Diskussion" und massenhaft Falschaussagen zusammen.

Was für Falschaussagen meinst du?

GreatEvil schrieb:
Des weiteren ist gerate bei Crysis das AF Flimmern im Gegensatz zum Shaderflimmern das deutlich kleinere Uebel. Die Diskussion ist wie das Gemecker ueber einen Kratzer im Lack, aber die selbe Person versucht mit nem platten Reifen weiter zu fahren.

Das schlimmste Übel in Crysis ist das Flimmern der Vegetation, aber das ist nun einmal nicht Bestandteil der aktuellen Diskussion!
Hier geht es um Texturfilter und deren Optimierungen, also um das was ATI und Nvidia - in dem Fall ATI - mit ihren Treibern "verzapfen" und nicht darum wie Spielprogrammierer ihre Spiele programmieren und welche grafischen Effekte von ihnen genutzt werden. Also bitte nicht vom eigentlichen Thema ablenken/abweichen ;)
 
Nein ich sehe da keine "Bugwellen" und alleine der Begriff Bugwelle ist nicht wirklich treffend gewählt, den schliesslich ist es kein Fehler.
Und Flimmern gibt es sowohl bei AMD wie Nvidia weshalb es schwachsinn ist jetzt nur AMD schlecht zumachen...
Und nein ich bin kein Fanboy oder versuche AMD zu verteidigen.
 
Wie würdest du denn das Beschreiben, was da zu sehen ist, wenn nicht als Bugwelle?
 
Dr. Perry Cox schrieb:
Also bitte nicht vom eigentlichen Thema ablenken/abweichen ;)

Wie war denn gleich das Thema?

GreatEvil schrieb:
Hier gehts darum, das es hiess: "Qualität des anisotropen Filters bei ATi verschlechtert"

Was einfach nicht stimmte. Mit 9.5 hat sich nix geaendert. Dann einfach die Ueberschrift geaendert und ordentlich als Bashingplattform genutzt. Und jegliche Aussagen, das sich nix geaendert hat, werden mit "Nvidia ist besser" uebergebuegelt. Sehr sinnvoll das ganze ...
 
Gut, dass dir das Thema doch bekannt ist, das erleichtert einiges, jetzt musst du nur noch versuchen nicht am eigentlichen Thema vorbeizureden!
 
Ok, dann erklaer mir doch mal bitte, was sich von 9.4 zu 9.5 in der Praxis (betreffend des AF Filterings) geaendert hat.
 
Das einzige Thema wäre dass Af bei Ati schlechter ist als bei Nvidia.
Was auch richtig ist. Punkt. Desweiteren würde ich mir mehr Qualitätsoptionen bei ATI wünschen. Was auch vertretbar ist. Was ich mich aber immernoch frage ist, warum dann jeder auf der Qualität rumreiten will , wos doch im Topic darum ging, dass sich nichts verändert hat.
Der Punkt, den alle, die ATI rechtfertigen, mal verstehen könnten, ist, dass sie, wenn sie die Bugwellen nicht sehen, den Unterschied zwischen 16x oder 8x und 4xAF vermutlich auch nicht sehen bzw. er sie im Spiel nicht stören dürfte und dann auch keine High-End-Karte kaufen müssen, weil ihnen Midrange-Performance locker reichen sollte. Das hat ich glaube Leonidas im 3Dcenter-Forum schon vor ettlichen Jahren auf den Punkt gebracht, aber verstanden hats die Mehrheit bis heute leider noch nicht.

Bugwellen können auch auftreten, wenn eine Graka schlicht zu langsam ist, was bei den Videos seitens ATI der Fall ist.
Aha, man braucht also, wenn man 4xAf von 16XAf nicht unterscheiden kann keine High End Graka.
Der Vergleich hinkt ziemlich.
 
@GreatEvil: Du hast versucht vom eigentlichem Thema (ATi entfernt MipMap-Erkennung im Cat. 9.5 (Update)) abzulenken indem du mit dem Shaderflimmern in Crysis argumentiert hast. Und dies hat absolut nichts, rein gar nichts mit dem Thema her zu tun!
 
Bloss bloed, das der Thread bis heute 10:58 Uhr anders hiess und zwar "Entwarnung: AF bei ATi nicht schlechter geworden". Und er ist die Antwort auf "Qualität des anisotropen Filters bei ATi geändert" welcher vorher "Qualität des anistropen Filters bei ATi gesunken" hiess.
Und wer dort Crysis und die absolut reine Wahrheit ueber Crysis Ati und Nvidia inkl. "Bewissvideos" eingebracht hat, kannst du dir bestimmt selbst ansehen.
 
GreatEvil schrieb:
Bloss bloed, das der Thread bis heute 10:58 Uhr anders hiess und zwar "Entwarnung: AF bei ATi nicht schlechter geworden". Und er ist die Antwort auf "Qualität des anisotropen Filters bei ATi geändert" welcher vorher "Qualität des anistropen Filters bei ATi gesunken" hiess.

Dir ist doch hoffentlich bewusst, dass das AF von ATI seit dem R600 grundsätzlich schlecht ist, da kann man ja kaum noch etwas verschlechtern (zumindest hoffe ich das)!
Bei ATI wird generell brilinear gefiltert, eine Möglichkeit trilineare Filterung zu erzwingen, wie man es bei Nvidia kann gibt es bei ATI nicht! Und dann kommen noch die AF-Optimierungen hinzu, welche für das Texturflimmern verantwortlich ist!

GreatEvil schrieb:
Und wer dort Crysis und die absolut reine Wahrheit ueber Crysis Ati und Nvidia inkl. "Bewissvideos" eingebracht hat, kannst du dir bestimmt selbst ansehen.

Was hat das Vegetationsflimmern/Shaderflimmern in Crysis denn mit dem AF zu tun? Klär mich mal bitte auf...
 
Wo bitte hab ich Sachen wie:
- AF von ATI seit dem R600 grundsätzlich schlechter als Nvidia
- generell brilinear gefiltert
- keine Moeglichkeit trilineare Filterung zu erzwingen
- unschoene Effekte durch AF-Opt. bei A.I. on

abgestritten?

Auf 2 und 4 hab ich ausdruecklich hingewiessen.
 
Zurück
Oben