Test Test: ATi Catalyst 8.12 in fünf Spielen

Im Vergleich verschwommen, das ja. Zumindest was einige Texturen anbelangt. Aber das flimmert halt :-/

cYa
 
ich glaub das ist geschmackssache. Viele finden das Bild von Dead space bei der ATI auch besser, mir inklusive. Evt ist es wie bei den Microrucklern,dass einige auf flimmern unempfindlicher reagieren,dafür auf schärfe stehen. wofür gibts denn sonst diese ganzen Perfect Motion Bluer Algorithmen bei teuren TV´s, durch den normales TV überplastisch wirkt.

hab lange mit einer 8800gt und einer 3870X2 verglichen und habe meine Meinung gut überlegt.


gruß
 
Das (Standbild-)Bild, ja. Die Frage ist aber wie es in Bewegung aussieht und da wird Flimmern (Unterfilterung) von praktisch jeder Page/jedem Mag verurteilt, genauso wie ausfransende (schlechter gefilterte) Schatten - schlicht, weil das Bild nicht so aussieht, wie es "soll".

cYa
 
dann mal die dumme frage, wer bestimmt wies bild aussieht und woher nimmst du das wissen,dass es so aussehen muss wie auf Nvidias? bzw dass sies richtig darstellen?


gruß
 
Schlicht weil eine Unterfilterung eben unterfiltert und nicht einfach nur filtert. Und schlecht gefilterte Schattenränder sind auch nicht "normal", außer bei Battlefield 2 :D

cYa
 
da könnte man meinen,bei dir besteht die BQ nur aus schattenrendern und filtern.. ich sehs nicht so, sorry.

ich seh auch diese im vergleich schrecklich, augenschmerzen verursachenden flimmerränder nicht so dramatisch, bei denen man nach 1std spielen kopfschmerzen kriegt. Naja, irgendwo evt absicht,wenn die Leistung beim referenzmodell eh nach einer std einbrechen soll. *fg*


gruß
 
y33H@ schrieb:
Das LOD-BIAS zu verschieben ist keine Kunst ...
Und somit entfällt dieses Scheinargument völlig.
Zumal es noch SSAA gibt, wo es trotz leicht negativem LOD flimmerfrei bleiben kann.

Schinzie schrieb:
Was meinste mit G206 und BQ vergleich?
Du hast deine Abneigung gegen GT206/GT200b bereits gezeigt.
Auch hast du eindeutig dem 180.48 fehlende Details vorgeworfen. Das war vor 3 Wochen. Heute ist wieder alles ok.

Schinzie schrieb:
dann mal die dumme frage, wer bestimmt wies bild aussieht
Der Entwickler, nicht der IHV.
Der Entwickler kann selbständig entscheiden, obs überscharf sein soll.

ich meine den dauerbrenner 5d shader. was meinste worin die jungs von ATI die ganze zeit optimieren? die spiele werden nun mal immer shaderlastiger.
Nicht nur. Gibt genug ständig gebenchte Beispiele, wo nVidias ROPs heftig limitieren.
 
@Schinzie
Vielleicht profitiert das Spiel von 4 Kernen oder dein 1GB Grafikspeicher auf der 4870 sind ausschlaggebend.


E6600 @ 2,4 Ghz

fc2-2-4-jpg.120890


E6600 @ 3,2 Ghz

fc2-3-2-jpg.120891
 

Anhänge

  • FC2 2.4.jpg
    FC2 2.4.jpg
    63,2 KB · Aufrufe: 677
  • FC2 3,2.jpg
    FC2 3,2.jpg
    64,5 KB · Aufrufe: 680
@ Schinzie
die spiele werden nun mal immer shaderlastiger.
Sieht man ja am RV670 ganz toll ... wenn nur FLOPS zählen würden, warum geht der dann so in die Knie und der Abstand zur 88GT oder gar 96GT wird immer größer? ROPs und TMUs gibts halt auch noch ...

@ <Dopex>

Mach mal nur Thumbs ... und ja, FC2 geht auf Quads und 1.024 MiByte ...

cYa
 
Zuletzt bearbeitet:
Unyu schrieb:
Du hast deine Abneigung gegen GT206/GT200b bereits gezeigt.
Auch hast du eindeutig dem 180.48 fehlende Details vorgeworfen. Das war vor 3 Wochen. Heute ist wieder alles ok.

zeig mir mal einen post,in dem eine abneigung zum GT206 von mir geäußert wird. das einzige was ich schrieb ist,dass der RV775 mit den angegebenen daten (wenns stimmt,was ich nicht glaub) den GT206b übertrumpfen wird, da diese daten eine steigerung von bis zu 30% versprechen, wohingegen der G200b nur 10% schneller sein soll. das war ein konjunktiv mein freund.

Der Entwickler, nicht der IHV.
Der Entwickler kann selbständig entscheiden, obs überscharf sein soll.

bzw obs zu wenig flimmmert oder zu unschwaf ist? wieso überscharf? kannst du nicht sagen.

Nicht nur. Gibt genug ständig gebenchte Beispiele, wo nVidias ROPs heftig limitieren.

zeig mir mal eine einstellung in der die 4870 limitiert und der G200 nicht?

@Y33H

weil beim RV670 noch keine TMU´s bzw ROP´s erhöht wurden, das hat ATI seit jahren vernachlässigt. beim RV770 haben sies nachgeholt. der leistungszuwach lässt sich sehen. leider kann man per software keine Shader deaktivieren, dann könnte man nachweisen wie viel einfluss sie nehmen. bzw halbiere mal bei einer nvidia den Shadertakt, dann siehste wohin die leistung geht.

@dopex

ja,die 512 mb limitieren bei Far cry 2 bei jeder bildverbesserung.

https://www.computerbase.de/forum/t...t-gainward-4870gs-1024mb.499497/#post-5091913
gruß
 
Zuletzt bearbeitet:
1. https://www.computerbase.de/forum/threads/513910/
2. Der Entwickler kann ein negatives LOD-Bias erzwingen. Wenn AMDs Treiber es stattdessen selbständig tut, ist das im Sinne des Entwicklers?
3. nVidia hat nochmal was mit der 4870 zu tun?
4. Warum hat sich die Qualität trotz mehr TMUs nicht erhöht? (oder warum hat man nicht zumindest eine Wahlmöglichkeit eingebaut?) Weil das TMU/SP Verhältnis identisch ist.
 
@ Schinzie

Der GT200b lebt in erster Linie durch höhere Frequenzen, von denen man aber noch nichts weiß. Der GT200 packt so schon bei guten Exemplaren 756/1.512 mit stock-cooler, das sind bereits +25% bzw. +17%. Und gerade die Shader lassen sich durch den Shrink höher takten. Wäre nV also gewillt, wäre eine GTX 285 mit 800/1.600/1.300 MHz sicherlich möglich - da könnte dann auch die 4870 X2 einpacken. Das war ein Konjunktiv, mein Freund.

Den nV-Shadertakt zu senken, ist ein blöder Weg, da seit dem G80 die Architektur auf mehrere Taktdomänen auslegt ist. Was aber geht, ist Shader abschalten bei den G80 und GT200.

cYa
 
Unyu schrieb:

ja, und? konkunktiv. und wenns stimmt,dann stimmts doch leistungsmäßig auch, wo ist da eine abneigung. bei einer news von Nvidia, wo drin steht, dass der G200b alles verdoppelt hätte ich das genauso anders rum hinschreiben können. hab ich doch schon oben beschrieben,also was unterstellst du mir
2. Der Entwickler kann ein negatives LOD-Bias erzwingen. Wenn AMDs Treiber es stattdessen selbständig tut, ist das im Sinne des Entwicklers?

tun sie das? wenns dich so stört,stells einfach positiv ein..meine fresse
3. nVidia hat nochmal was mit der 4870 zu tun?

äh, ja, und? was willste damit sagen? bzw hab ichs je behauptet?
4. Warum hat sich die Qualität trotz mehr TMUs nicht erhöht? (oder warum hat man nicht zumindest eine Wahlmöglichkeit eingebaut?) Weil das TMU/SP Verhältnis identisch ist.

ist sie vom g80 zum G200 verbessert worden? außer ein paar filterspezialisten beschwert sich ja keiner. und gerade diese sollten es manuel einfach umstellen..


gruß
 
Brauchte man ja auch nicht. Winkelunabhängiges HQ-AF mit deaktivierbaren Optimierungen ... was es bei AMD heute nicht mehr gibt.
CB schrieb:
Denn der anisotrope Filter arbeitet bereits auf dem G92 beinahe perfekt und lässt die Konkurrenz in der maximalen Qualität schlecht dastehen.
CB schrieb:
Während Nvidia beim Anti-Aliasing also knapp das Nachsehen hat, kann man sich beim anisotropen Filtervor die Konkurrenz aus dem Hause ATi setzen.
CB schrieb:
Während der RV670 von Catalyst A.I. Off nur minimal profitiert und als einzigen Vorteil nun den trilinearen Filter aufweisen kann (womit die eh kaum sichtbaren Bugwellen nun endgültig wegfallen), flimmern die Texturen munter weiter vor sich hin. Der GT200 filtert dagegen in der High-Quality-Einstellung nahezu perfekt.

cYa
 
Zuletzt bearbeitet:
ich hab ja nie behauptet,dass das AF von ATI besser ist, ganz im gegenteil. nur propagiert ihr in letzter zeit eine unspielbarkeit von ATI karten für Leute, die Wert auf BQ legen.


gruß
 
1. Da die News offensichtlich falsch war, ist mir schon klar, das du das nicht ausversehen geschrieben hast, zumal dir völlig entgangen ist, was GT206 so bringt.
2. Und dann? Alles super unscharf, bei hohem Performanceverbrauch, da kann ich gleich mit 1xAF zocken, so wie früher, dann ist wenigstens nicht alles unscharf.
3. Ich schrieb, das GT200 bei nicht 100% an der Shaderperformance hängt, somt das 5D Shaderargument massiv an Kraft verliert.
4. Leider nicht, so wie es aussieht wirds bald wieder deutlich schlechter. Mal sehen wie groß der Aufschrei dann wird. (Wenn wir Glück haben bleibt HQ noch unangetastet und wie immer voll nutzbar)
5. Unspielbarkeit wird hier nirgends propagiert.
 
Zuletzt bearbeitet:
@ Schinzie

Eine propagierte "Unspielbarkeit" siehst du wo? Wer ist "ihr"? Ich persönlich bin (wie auch CB) der Meinung, dass die Quali schlechter ist. Flimmer-AF ist schlechter, also ist AMDs AF schlechter - dadurch gewinnt man Fps und treibt die Tester dazu, mit Q statt HQ aufseiten Nvidias zu benchen :freak:
Im Vergleich G80 gegen R600 erkennt man bei der ATi-Grafikkarte, dass die Texturen, trotz desselben AF-Grades, nach hinten hin mehr gefiltert werden als auf der GeForce 8800. Dies kann man mit dem etwas anderen LOD-System begründen. Bekannterweise neigen Grafikkarten bei einem negativeren LOD eher zum Flimmern. Dies sieht auf Standbildern besser aus, in Bewegung ist aber das Gegenteil der Fall.
cYa
 
1. Da die News offensichtlich falsch war, ist mir schon klar, das du das nicht ausversehen geschrieben hast, zumal dir völlig entgangen ist, was GT206 so bringt.
2. Und dann? Alles super unscharf, bei hohem Performanceverbrauch, da kann ich gleich mit 1xAF zocken, so wie früher, dann ist wenigstens nicht alles unscharf.
3. Ich schrieb, das GT200 bei nicht 100% an der Shaderperformance hängt, somt das 5D Shaderargument massiv an Kraft verliert.
4. Leider nicht, so wie es aussieht wirds bald wieder deutlich schlechter. Mal sehen wie groß der Aufschrei dann wird.

@unyu
1. ich weiß nur,dass er in 55nm sein wird, keine zusätzlichen einheiten kriegen soll und ca 10% schneller wird,aufgrund höherer taktraten. ach, und dass er nur noch 2 6pin anschlüsse hat und die TDP insgesamt noch sinkt.

2. hoher perfomanceverlust? woher nimmste denn diese annahme?
3. ich verstehe immer noch nicht was du damit aussagen willst? der G200 läuft in der regel mit 100% shadernutzung (nicht auslastung), der RV770 nicht, und da greift der treiber ein.
4. auch wenn du´s mir nicht glaubst, aber trotz meines Faibles für ATI lege ich Wert auf BQ und würde es bedauern, wenn die BQ in Zukunft noch schlechter wird. auch finde ich das AI managment nicht optimal,da die Möglichkeit der manuellen Auwahl im CCC verwehrt wird. hab ich je erwähnt,dass ichs gut finde? nur ist es nicht so katastophal wie ihr es darstellt.


@y33h

ich zitiere bzw suche jetzt keine aussagen von dir die sehr negativ auf Radeons bezogen sind.

gruß
 
Zuletzt bearbeitet:
ich zitiere bzw suche jetzt keine aussagen von dir die sehr negativ auf Radeons bezogen sind.
Doch auf, mach. Und such gleich nach den Posts, wo ich über den idle-Lärm der 260er, den Heatbug, den VRAM-Bug oder das Bandbreiten-Problem der G92er herziehe ...
Der G200 läuft in der Regel mit 100% Shadernutzung (nicht Auslastung), der RV770 nicht, und da greift der Treiber ein.
Belege das mal :D

cYa
 
Zuletzt bearbeitet:
ne, mach ich nicht.
du hast dich schon mit genug leuten auseinander setzen müssen, die dir mangelnde objektivität vorwerfen. das tue ich persönlich auch gar nicht, auch stelle dich nicht als Fanboy dar, nur übertreibst du es mal gern wenn es um dezente unterschiede geht, die 99% der leute nicht einmal mitbekommen.

in letzter zeit fällt mir nur auf,dass du kein einziges gutes wort mehr über ATI/AMD rausbekommst, bzw sehr negativ über diese herziehst.

edit:

der G200 hat 1D shader, die können nur einfach gefahren, bzw genutzt werden. wie sie im spielbetrieb ausgelastet werden weiß ich nicht. 5d shader können auf 5 arten genutzt werden, wie sie ausgelastet werden weiß ich wieder nicht, aber 100% nicht so gut, wie die von nvidia. nicht mehr und nicht weniger hab ich da oben gesagt.

gruß
 
Zuletzt bearbeitet:
Zurück
Oben