News Offizielles ATi-Statement zur Texturfilterung

@b1ackbird:

Meine Aussage sollte kein Lob sein, sondern nur eine Feststellung. ATI hätte ja auch anders reagieren können, denn was in den Köpfen mancher Leute die was zu sagen haben vorgeht, weiß man ja nicht.


Bye,
 
Um es mal auf den Punkt zu bringen: Der Filter an sich ist ja nicht schlecht (die Bildqualität scheint sich ja wirklich nur gering zu verändern). Ich denke, da sind wir uns alle einig.
Nur die Frage die sich stellt ist, warum preist ATI das nicht gleich als "technologische Innovation" an. Und warum haben sie alles daran gesetzt, den Filter so zu "optimieren", das man ihn mit den herkömmlichen Methoden nicht erkennen kann? Fragen über Fragen. Ist eigentlich schade, das es auch bei den Graikkartenherstellern nur noch um Punktzahl beim 3D-Mark geht (und die sich dann noch alle bei Futuremark "einkaufen" lol). Mit einer geschickten Marketingkampagne könnte man auch eine vermeintlich langsamere Karte an den man bringen (Bildqualität, etc.). Ob ich mein Spiel nun mit 100 Fps oder 300 Fps spielen kann macht keinen wirklichen Unterschied.
 
Catman schrieb:
Ob ich mein Spiel nun mit 100 Fps oder 300 Fps spielen kann macht keinen wirklichen Unterschied.

Es soll auch Leute geben, die sich nicht alle 6 Monate 'ne neue Graka kaufen. Und
wenn ich mir heute so 'ne Karte hole, will ich auf der auch noch in 18-24 Monaten
spielen, bevor dann das nächste große Upgrade ansteht. Ob ich mein Spiel heute
mit 100fps oder 300fps spielen kann spielt sicher absolut keine Rolle. Aber ob ich
auf der selben Karte in 2 Jahren mit 25fps oder 75fps spiele! :D

-Ronny
 
@23
da ist was dran. In 2 Jahren schafft die "100FPS-Karte" aber bestimmt noch "50fps" und das reicht auch noch.
btw.: Wenn ATI einen Schalter einbaut, kann ich die ersten 1,0 -1,5 Jahre ja ohne Optimierung spielen und das letzte halbe Jahr mit ;). Sollte schon meine Entscheidung sein dürfen.
 
Ich finde es äußerst interessant, wie viele Leute hier zu "WISSEN" scheinen, dass die Bildqualität mit der x800 im Spiel viel schlechter ist als mit der älteren Generation. Wo doch bisher nur eine handvoll deutscher Hardwaremagazine auch wirklich ein x800-Sample bekommen haben, und weltweit nicht überproportional mehr. Auch interessant ist, wie viele Leute hier scheinbar das englische ATi-Statement nicht verstanden haben: Die Veränderungen sind deshalb bei eingefärbten mipmaps nicht sichtbar, weil die Optimierung sich selbst zurück- oder ausschaltet, wenn die Bildqualität es verlangt: Dort, wo die Optimierung ohne Bildqualitätsverlust eingesetzt werden kann, wird sie eingesetzt; Dort, wo die Optimierung Bildqualitätsverluste produzieren würde (bei eingefärbten Mipmaps z.B.!!), wird sie nicht eingesetzt.

Ich werde bald eine X800 in meinen Händen halten, und ich werde sehr genau prüfen, ob sie im Spiel eine schlechtere Qualität bietet als meine R9800 Pro: Wie im Comment-Thread zum eigentlichen cB-Artikel erwähnt, mithilfe zweier zusammengeschnittener in-game-Videos. Und bis ich nicht mit eigenen Augen gesehen habe, dass ein sichtbarer Qualitätsunterschied besteht, glaube ich auch nicht, dass er existiert, denn die Anhaltspunkte sprechen klar FÜR ATi, und gegen iq-Unterschied.

Edit: Ich finde es übrigens extrem "unsportlich" und ungerecht von Computerbase nicht schleunigst eine Gegendarstellung zum ursprünglichen Artikel zu schreiben und den Artikel in der Form offline zu nehmen.
 
Zuletzt bearbeitet:
Madden. schrieb:
Edit: Ich finde es übrigens extrem "unsportlich" und ungerecht von Computerbase nicht schleunigst eine Gegendarstellung zum ursprünglichen Artikel zu schreiben und den Artikel in der Form offline zu nehmen.

Warum? Hast du dir die News, die du hier kommentierst überhaupt mal angeschaut?
 
@25
Das Statement von ATI kam aber erst, nachdem es "aufgedeckt" wurde. Warum haben sie es nicht gleich als "Feature" angepriesen?

wg. "unsportlich"
"Da es nun eine offizielle Erklärung gibt, werden wir unseren Schluß, ein Erkennungsmechanismus zur Entdeckung colorierter Mip-Levels sei hier am Werk, erst einmal zurücknehmen - soviel sind wir der Fairness schuldig."

Erst lesen, dann..... ;)
 
@ 22

Zitat: Nur die Frage die sich stellt ist, warum preist ATI das nicht gleich als "technologische Innovation" an

Die Leute von ATI sind ja auch net dumm und haben sich wohl gedacht das es als ein cheat hingestellt wird .. "was man nicht weiß, macht einen nicht heiß"
 
Die "maximale Bildqualität" ist meiner Meinung nach ein Begriff mit dem man ziemlich vorsichtig sein muss. Man könnte ihn z.B. als maximale Bildqualität, die für das Auge sichtbar ist, interpretieren. Es gibt aber auch Meinungen wonach die maximale Bildqualität, die maximale Qualität, die von einer Grafikkarte darstellbar ist, ist.

Darunter leidet natürlich auch die Vergleichbarkeit von zwei Karten mit unterschiedlichen Treibern (Forceware & Catalyst).

Ich kann ATI schon verstehen, wenn sie solche Optimierungen einbauen.

Sie könnten es sich ja auch ganz einfach machen und alle Optimierungen abstellen. Zwar hätte man dann eine perfekte Bildqualität (die vom Auge wahrscheinlich garnicht mehr von einer mit Optimierungen zu unterscheiden wäre). Dann hätte man aber eine miese Perfomance,
und man würde im Vergleich schlecht dastehen.

Dies als Schummelversuch darzustellen, finde ich dann doch etwas vermessen, zumal es sich um Optimierungen handelt, die ohne Hilfsmittel kaum zu erkennen sind (vgl. PC Games Hardware 06/04).


Als Abschluss noch mal die Frage, was euch lieber ist.

- Eine Grafikkarte ohne Optimierungen mit geringer Leistung (die zum größten Teil durch Berechnungen von nicht sichtbaren Elementen verbraucht wird) und perfekter Bildqualität.
- Eine Grafikkarte mit Optimierungen mit hoher Leistung (die unsichtbare Teile des Bildes nicht / mit minderer Qualität rendert)
 
man man, wollt ihr's einfach nicht verstehn?
es geht hier NICHT darum ob es generell wünschenswert ist solche features zu haben, sondern schlicht und ergreifend um die tatsache, dass ATI dem user ein feature vorgaukelt, mit dem die karte im alltag garnicht arbeitet.
wäre das ganze als option in den treibern markiert würde es keinen jucken aber so war es schlicht und ergreifend betrug.
selbst wenn es keinen auffällt, es ist und bleibt betrug, da hilft alles gut und wünschenswert finden nichts.
um mal wieder bildlich zu werden:
nur weil dir schwarzer trüffel gut schmeckt und du nichts davon merkst, dass du nicht wie bestellt den weißen (teureren) bekommen hast, ist das ganze noch lange nicht legal.

@Madden:
die deutsche version steht auch auf seite 1 ;)
 
Also ich glaub ich muss hier mal zu einem Rundumschlag ausholen.

ATI baut ein Feature ein, das es der GraKa erlaubt, vorauszusehen, ob die Umgehung einer Berechnung Einbußen in der Qualität bringt, aber die Leistung spürbar steigen lässt. Zur Erinnerung: die riesigen Benchmarkunterschiede lassen sich nur in ganz gezielten Code-Tests reproduzieren und fließen in jedem Game-Benchmark unterschiedlich ein. Ansonsten muss man sich wirklich anstrengen, um Qualitätsunterschiede zu sehen.
Für mich heißt das: Qualität minus einige Promille, Leistung plus einige (wenige) Prozent, variiert von Spiel zu Spiel. Was soll daran nicht okay sein? Die allermeisten Menschen, die sich über die wenigen Promille Quali-Einbuße aufregen, sollten sich mal Gedanken darüber machen, über was sie da sprechen und schauen, ob sie den Treiber dann nicht besser selbst anpassen, so sie das können. Da es sich hierbei wohl um die allerwenigsten unter uns handelt - forget about it. Wenn wir für jedes Feature im Treiber einen Schalter im Control Panel hätten, müsste man "ATI-Driver-Settings" bald als Studienfach anbeiten, Dauer: ca 4 Jahre.

Deshalb meine Meinung dazu: Das hier ist kein Cheaten (so wie es uns nVidia vorgemacht hat, 3DMark-Erkennung), sondern eine legitime Anpassung (die man auch marketingtechnische hätte nutzen können).
Ich fände es auch fairer, wenn sich CB zu etwas mehr als diesen wenigen Zeilen durchgerungen hätte, aber erstens ist die Sache wohl noch nicht zu Ende diskutiert und zum anderen ist das meine persönliche Meinung.

PS: Respekt trotzdem denen, die das rausgefunden haben. Das ist eine Leistung, und diese Personen dürften sich auch über Quali-Einbußen beschweren, sonst aber keiner!
 
@Stormbilly Diese Möglichkeit gibt es in jedem ATI-Catalyst-Treiber, nur warum sollte man Optimierungen, die Dinge betreffen, die man sowieso mit den bloßen Augen nicht sehen kann, wegschalten? Ist alles eine Frage der Logik ;)

@Blackbird Wenn man die Trüffel an der Farbe nicht unterscheiden kann, hat man schon ein Problem. Bei den Grafikkarten liegt aber eigentlich genau das Gegenteil vor, da man die Bildqualität mit/ohne den Optimierungen ohnehin nur sehr schwer unterscheiden kann.

Aber wenn's dir nicht passt, hol dir ne Nvidia und ich kann dir vorhersagen, dass es innerhalb dieses Quartals auch noch mal irgendwo so einen Bericht über "illegale" Treiberoptimierungen bei Nvidia geben wird.

Man dreht sich ja ohnehin nur im Kreis herum ;)


@Martin H. ganz meine Meinung, du sprichts mir aus der Seele :cool_alt:

Man sollte das ganze ja auch nicht ganz so wichtig nehmen.
 
Zuletzt bearbeitet:
ihr seid echt hoffnunglos, oder? was ihr erkennt oder nicht ist für das vorliegende thema BELANGLOS.
rafft es doch endlich mal, dass ati einem annähernd gleiche ergebnisse (es ist VÖLLIG EGAL ob es jeder merkt) unter dem label der vollen bildqualität verkauft.
1. wird nirgends darauf hingewiesen
2. lässt es sich nirgends frei einstellen
3. hat ati mir das zu liefern wofür ich bezahle und keine irgendwie gearteten optimierungen die nirgends erwähnt werden
wenn ihr es beim spielen nicht bemerkt freut euch, der eine oder andere mag es aber bemerken und beisst sich dann in den a**** 500 € für eine karte bezahlt zu haben, mit der er seine games nicht in der gewünschten bildqualität spielen kann (davon abgesehen, dass die produkt-beschreibung unabhängig vom eindruck des käufers nicht stimmt).
 
ich frage mich, wenn das kein cheat ist, was ist dann ein cheat? dann war auch nvidias 3dmark"cheat" kein cheat. denn ein unterschied zu der anderen rendertechnik ist mit dem auge nicht zu erkennen, sie braucht nur weniger leistung bzw ist schneller... diese neue funktion der geforce 6800 in manchen spielen die schatten auszustellen weil sie nirgends hinfallen, oder sowas, und deshalb nicht berechnet werden müssen ist dann auch ein cheat ? also ich weiss nicht.

kann man das überhaupt vergleichen? oder sind das nicht alles dinge die sich ähneln? man kann auch einen cheat(?) als feature verkaufen (siehe hier ati)(sie versuchens zumindest). alles dinge über die wir diskutieren muessen!

falsch ist auf jedenfall das ganze verdeckt zu tun. mir sind alle diese features recht, solange sie deaktivierbar sind und öffentlich als optimierung deklariert werden. auch muss über den unterschied aufgeklärt werden.
 
Zuletzt bearbeitet: (mir ist noch was eingefalln :))
Wenn es keine sichtbare Verschlechterung der Bildqualität gibt, tut mir eine solche 'Verbesserung' nicht weh. ATi-typisch werden jene für alle Games bereitgestellt, anstatt speziell für eine Auswahl oder gar ein einziges. Auch ein trilinear nicht trilinear sein soll, so stört mich beispielsweise die Verschlechterung der Qualität auf einer FX in Far Cry (Patch 1.1).

Solange Benchmarks die erste Wahl für einen Grafikkarten-Test (auch hier auf ComputerBase) darstellen, werden Hersteller in ihren Treibern jede Art von 'Verbesserung' einbauen, um auch nur einen einzigen Frame schneller als die Konkurrenz zu sein. Freilich nicht ohne die Qualität merkbar herabzusetzen, weil das negative Auswirkungen auf die Beurteilung hätte; einen 'nicht-ganz-trilinear' Filter merke ich optisch nicht, daher können ATi und nVidia daran beruhigt herumschrauben. Andererseits kann der Konkurrent natürlich beliebig auf einer 'Verbesserung' herumreiten, wenn es dem Verkauf irgendwie nutzt.

Man sollte den Herstellern also einen gewissen Spielraum einräumen.

___
Anmerkung @35:
Ich kann Hersteller wie ATi verstehen, wenn ein solches 'Feature' nicht öffentlich breitgetreten wird. Und wieso man es nicht im Treiber deaktivieren kann, verstehe ich bis zu einem gewissen Grad ebenfalls.

Entsprechend ATi's Beschreibung kann ich dieses Feature akzeptieren. Wieso auch nicht, es bringt ja mehr Performance ohne auf Qualität verzichten zu müssen. Und wenn das ein fixer Bestandteil des X800-Treibers ist, kann ich auch damit leben, es nicht abschalten zu können.

Allerdings stört mich in diesem Fall die Bezeichnung 'trilinearer Filter', weil es keiner ist. Ein wenig mehr Offenheit würde ATi und nVidia in diesem Punkt nicht schaden.
 
Zuletzt bearbeitet: (Anmerkung beigefügt.)
@Blackbird

dann kauf dir ne Nvidia...

lies meinen letzten Beitrag einfach nochmal genau durch...
 
@stormbilly

a) Solltest du mal Englisch lernen
b) Erwarte dir keine großartige Antwort von ATI, wenn du ihnen dermaßen pöbelhaft mailst
c) Akzeptiere Features, die die Geschwindigkeit erhöhen, ohne die Bildqualität _merklich_ zu verschlechtern.

Es interessiert niemanden, ob man bei 20 facher vergrößerung nen Unterschied erkennt, ingame tut man es nämlich nicht.
 
Ist das hier ne englische Seite, oder was? :D Kann man das nichtmal übersetzen?

Englisch wird in Deutschland ab der 5ten Klasse gelehrt. naja, fast 4 Millionen menschen in Deutschland können nicht richtig Lesen und/oder Schreiben..da fällst du garnicht so doll auf...

Sorry, aber musste mal sein.

Eine Weltsprache wie Englisch muss man einfach können... setz dich halt mit nem PONS vor den Text... obwohl ich Ihn eigentlich gut verständlich finde... aber bildet euch bloss nicht weiter...

PISA lässt grüßen.

Armes Deutschland.
 
sagt mal, bin ich der einzige, der den unterschied zwischen den beiden ut2k3-pngs ums verrecken nicht sieht?
worüber regt ihr euch bitte auf?
im realen spielgeschehen (und auf screens) sieht man keinen unterschied, die performance ist aber höher, also was soll das geplänkel?
solange man mit bloßem auge keine verschlechterungen feststellt, isses doch bums, mit welcher technik da gearbeitet wird, oder?

also bitte mal sachlich bleiben, beschissen werden wir eh täglich, und da regt sich auch keiner auf.
 
Zurück
Oben