Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Test: ATi Catalyst 8.12 in fünf Spielen
- Ersteller Wolfgang
- Erstellt am
- Zum Artikel: Test: ATi Catalyst 8.12 in fünf Spielen
Schinzie
Rear Admiral
- Registriert
- Feb. 2008
- Beiträge
- 5.955
ich glaub das ist geschmackssache. Viele finden das Bild von Dead space bei der ATI auch besser, mir inklusive. Evt ist es wie bei den Microrucklern,dass einige auf flimmern unempfindlicher reagieren,dafür auf schärfe stehen. wofür gibts denn sonst diese ganzen Perfect Motion Bluer Algorithmen bei teuren TV´s, durch den normales TV überplastisch wirkt.
hab lange mit einer 8800gt und einer 3870X2 verglichen und habe meine Meinung gut überlegt.
gruß
hab lange mit einer 8800gt und einer 3870X2 verglichen und habe meine Meinung gut überlegt.
gruß
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.669
Das (Standbild-)Bild, ja. Die Frage ist aber wie es in Bewegung aussieht und da wird Flimmern (Unterfilterung) von praktisch jeder Page/jedem Mag verurteilt, genauso wie ausfransende (schlechter gefilterte) Schatten - schlicht, weil das Bild nicht so aussieht, wie es "soll".
cYa
cYa
Schinzie
Rear Admiral
- Registriert
- Feb. 2008
- Beiträge
- 5.955
da könnte man meinen,bei dir besteht die BQ nur aus schattenrendern und filtern.. ich sehs nicht so, sorry.
ich seh auch diese im vergleich schrecklich, augenschmerzen verursachenden flimmerränder nicht so dramatisch, bei denen man nach 1std spielen kopfschmerzen kriegt. Naja, irgendwo evt absicht,wenn die Leistung beim referenzmodell eh nach einer std einbrechen soll. *fg*
gruß
ich seh auch diese im vergleich schrecklich, augenschmerzen verursachenden flimmerränder nicht so dramatisch, bei denen man nach 1std spielen kopfschmerzen kriegt. Naja, irgendwo evt absicht,wenn die Leistung beim referenzmodell eh nach einer std einbrechen soll. *fg*
gruß
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Und somit entfällt dieses Scheinargument völlig.y33H@ schrieb:Das LOD-BIAS zu verschieben ist keine Kunst ...
Zumal es noch SSAA gibt, wo es trotz leicht negativem LOD flimmerfrei bleiben kann.
Du hast deine Abneigung gegen GT206/GT200b bereits gezeigt.Schinzie schrieb:Was meinste mit G206 und BQ vergleich?
Auch hast du eindeutig dem 180.48 fehlende Details vorgeworfen. Das war vor 3 Wochen. Heute ist wieder alles ok.
Der Entwickler, nicht der IHV.Schinzie schrieb:dann mal die dumme frage, wer bestimmt wies bild aussieht
Der Entwickler kann selbständig entscheiden, obs überscharf sein soll.
Nicht nur. Gibt genug ständig gebenchte Beispiele, wo nVidias ROPs heftig limitieren.ich meine den dauerbrenner 5d shader. was meinste worin die jungs von ATI die ganze zeit optimieren? die spiele werden nun mal immer shaderlastiger.
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.669
@ Schinzie
@ <Dopex>
Mach mal nur Thumbs ... und ja, FC2 geht auf Quads und 1.024 MiByte ...
cYa
Sieht man ja am RV670 ganz toll ... wenn nur FLOPS zählen würden, warum geht der dann so in die Knie und der Abstand zur 88GT oder gar 96GT wird immer größer? ROPs und TMUs gibts halt auch noch ...die spiele werden nun mal immer shaderlastiger.
@ <Dopex>
Mach mal nur Thumbs ... und ja, FC2 geht auf Quads und 1.024 MiByte ...
cYa
Zuletzt bearbeitet:
Schinzie
Rear Admiral
- Registriert
- Feb. 2008
- Beiträge
- 5.955
Unyu schrieb:Du hast deine Abneigung gegen GT206/GT200b bereits gezeigt.
Auch hast du eindeutig dem 180.48 fehlende Details vorgeworfen. Das war vor 3 Wochen. Heute ist wieder alles ok.
zeig mir mal einen post,in dem eine abneigung zum GT206 von mir geäußert wird. das einzige was ich schrieb ist,dass der RV775 mit den angegebenen daten (wenns stimmt,was ich nicht glaub) den GT206b übertrumpfen wird, da diese daten eine steigerung von bis zu 30% versprechen, wohingegen der G200b nur 10% schneller sein soll. das war ein konjunktiv mein freund.
Der Entwickler, nicht der IHV.
Der Entwickler kann selbständig entscheiden, obs überscharf sein soll.
bzw obs zu wenig flimmmert oder zu unschwaf ist? wieso überscharf? kannst du nicht sagen.
Nicht nur. Gibt genug ständig gebenchte Beispiele, wo nVidias ROPs heftig limitieren.
zeig mir mal eine einstellung in der die 4870 limitiert und der G200 nicht?
@Y33H
weil beim RV670 noch keine TMU´s bzw ROP´s erhöht wurden, das hat ATI seit jahren vernachlässigt. beim RV770 haben sies nachgeholt. der leistungszuwach lässt sich sehen. leider kann man per software keine Shader deaktivieren, dann könnte man nachweisen wie viel einfluss sie nehmen. bzw halbiere mal bei einer nvidia den Shadertakt, dann siehste wohin die leistung geht.
@dopex
ja,die 512 mb limitieren bei Far cry 2 bei jeder bildverbesserung.
https://www.computerbase.de/forum/t...t-gainward-4870gs-1024mb.499497/#post-5091913
gruß
Zuletzt bearbeitet:
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
1. https://www.computerbase.de/forum/threads/513910/
2. Der Entwickler kann ein negatives LOD-Bias erzwingen. Wenn AMDs Treiber es stattdessen selbständig tut, ist das im Sinne des Entwicklers?
3. nVidia hat nochmal was mit der 4870 zu tun?
4. Warum hat sich die Qualität trotz mehr TMUs nicht erhöht? (oder warum hat man nicht zumindest eine Wahlmöglichkeit eingebaut?) Weil das TMU/SP Verhältnis identisch ist.
2. Der Entwickler kann ein negatives LOD-Bias erzwingen. Wenn AMDs Treiber es stattdessen selbständig tut, ist das im Sinne des Entwicklers?
3. nVidia hat nochmal was mit der 4870 zu tun?
4. Warum hat sich die Qualität trotz mehr TMUs nicht erhöht? (oder warum hat man nicht zumindest eine Wahlmöglichkeit eingebaut?) Weil das TMU/SP Verhältnis identisch ist.
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.669
@ Schinzie
Der GT200b lebt in erster Linie durch höhere Frequenzen, von denen man aber noch nichts weiß. Der GT200 packt so schon bei guten Exemplaren 756/1.512 mit stock-cooler, das sind bereits +25% bzw. +17%. Und gerade die Shader lassen sich durch den Shrink höher takten. Wäre nV also gewillt, wäre eine GTX 285 mit 800/1.600/1.300 MHz sicherlich möglich - da könnte dann auch die 4870 X2 einpacken. Das war ein Konjunktiv, mein Freund.
Den nV-Shadertakt zu senken, ist ein blöder Weg, da seit dem G80 die Architektur auf mehrere Taktdomänen auslegt ist. Was aber geht, ist Shader abschalten bei den G80 und GT200.
cYa
Der GT200b lebt in erster Linie durch höhere Frequenzen, von denen man aber noch nichts weiß. Der GT200 packt so schon bei guten Exemplaren 756/1.512 mit stock-cooler, das sind bereits +25% bzw. +17%. Und gerade die Shader lassen sich durch den Shrink höher takten. Wäre nV also gewillt, wäre eine GTX 285 mit 800/1.600/1.300 MHz sicherlich möglich - da könnte dann auch die 4870 X2 einpacken. Das war ein Konjunktiv, mein Freund.
Den nV-Shadertakt zu senken, ist ein blöder Weg, da seit dem G80 die Architektur auf mehrere Taktdomänen auslegt ist. Was aber geht, ist Shader abschalten bei den G80 und GT200.
cYa
Schinzie
Rear Admiral
- Registriert
- Feb. 2008
- Beiträge
- 5.955
Unyu schrieb:
ja, und? konkunktiv. und wenns stimmt,dann stimmts doch leistungsmäßig auch, wo ist da eine abneigung. bei einer news von Nvidia, wo drin steht, dass der G200b alles verdoppelt hätte ich das genauso anders rum hinschreiben können. hab ich doch schon oben beschrieben,also was unterstellst du mir
2. Der Entwickler kann ein negatives LOD-Bias erzwingen. Wenn AMDs Treiber es stattdessen selbständig tut, ist das im Sinne des Entwicklers?
tun sie das? wenns dich so stört,stells einfach positiv ein..meine fresse
3. nVidia hat nochmal was mit der 4870 zu tun?
äh, ja, und? was willste damit sagen? bzw hab ichs je behauptet?
4. Warum hat sich die Qualität trotz mehr TMUs nicht erhöht? (oder warum hat man nicht zumindest eine Wahlmöglichkeit eingebaut?) Weil das TMU/SP Verhältnis identisch ist.
ist sie vom g80 zum G200 verbessert worden? außer ein paar filterspezialisten beschwert sich ja keiner. und gerade diese sollten es manuel einfach umstellen..
gruß
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.669
Brauchte man ja auch nicht. Winkelunabhängiges HQ-AF mit deaktivierbaren Optimierungen ... was es bei AMD heute nicht mehr gibt.
cYa
CB schrieb:Denn der anisotrope Filter arbeitet bereits auf dem G92 beinahe perfekt und lässt die Konkurrenz in der maximalen Qualität schlecht dastehen.
CB schrieb:Während Nvidia beim Anti-Aliasing also knapp das Nachsehen hat, kann man sich beim anisotropen Filtervor die Konkurrenz aus dem Hause ATi setzen.
CB schrieb:Während der RV670 von Catalyst A.I. Off nur minimal profitiert und als einzigen Vorteil nun den trilinearen Filter aufweisen kann (womit die eh kaum sichtbaren Bugwellen nun endgültig wegfallen), flimmern die Texturen munter weiter vor sich hin. Der GT200 filtert dagegen in der High-Quality-Einstellung nahezu perfekt.
cYa
Zuletzt bearbeitet:
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
1. Da die News offensichtlich falsch war, ist mir schon klar, das du das nicht ausversehen geschrieben hast, zumal dir völlig entgangen ist, was GT206 so bringt.
2. Und dann? Alles super unscharf, bei hohem Performanceverbrauch, da kann ich gleich mit 1xAF zocken, so wie früher, dann ist wenigstens nicht alles unscharf.
3. Ich schrieb, das GT200 bei nicht 100% an der Shaderperformance hängt, somt das 5D Shaderargument massiv an Kraft verliert.
4. Leider nicht, so wie es aussieht wirds bald wieder deutlich schlechter. Mal sehen wie groß der Aufschrei dann wird. (Wenn wir Glück haben bleibt HQ noch unangetastet und wie immer voll nutzbar)
5. Unspielbarkeit wird hier nirgends propagiert.
2. Und dann? Alles super unscharf, bei hohem Performanceverbrauch, da kann ich gleich mit 1xAF zocken, so wie früher, dann ist wenigstens nicht alles unscharf.
3. Ich schrieb, das GT200 bei nicht 100% an der Shaderperformance hängt, somt das 5D Shaderargument massiv an Kraft verliert.
4. Leider nicht, so wie es aussieht wirds bald wieder deutlich schlechter. Mal sehen wie groß der Aufschrei dann wird. (Wenn wir Glück haben bleibt HQ noch unangetastet und wie immer voll nutzbar)
5. Unspielbarkeit wird hier nirgends propagiert.
Zuletzt bearbeitet:
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.669
@ Schinzie
Eine propagierte "Unspielbarkeit" siehst du wo? Wer ist "ihr"? Ich persönlich bin (wie auch CB) der Meinung, dass die Quali schlechter ist. Flimmer-AF ist schlechter, also ist AMDs AF schlechter - dadurch gewinnt man Fps und treibt die Tester dazu, mit Q statt HQ aufseiten Nvidias zu benchen
Eine propagierte "Unspielbarkeit" siehst du wo? Wer ist "ihr"? Ich persönlich bin (wie auch CB) der Meinung, dass die Quali schlechter ist. Flimmer-AF ist schlechter, also ist AMDs AF schlechter - dadurch gewinnt man Fps und treibt die Tester dazu, mit Q statt HQ aufseiten Nvidias zu benchen
cYaIm Vergleich G80 gegen R600 erkennt man bei der ATi-Grafikkarte, dass die Texturen, trotz desselben AF-Grades, nach hinten hin mehr gefiltert werden als auf der GeForce 8800. Dies kann man mit dem etwas anderen LOD-System begründen. Bekannterweise neigen Grafikkarten bei einem negativeren LOD eher zum Flimmern. Dies sieht auf Standbildern besser aus, in Bewegung ist aber das Gegenteil der Fall.
Schinzie
Rear Admiral
- Registriert
- Feb. 2008
- Beiträge
- 5.955
1. Da die News offensichtlich falsch war, ist mir schon klar, das du das nicht ausversehen geschrieben hast, zumal dir völlig entgangen ist, was GT206 so bringt.
2. Und dann? Alles super unscharf, bei hohem Performanceverbrauch, da kann ich gleich mit 1xAF zocken, so wie früher, dann ist wenigstens nicht alles unscharf.
3. Ich schrieb, das GT200 bei nicht 100% an der Shaderperformance hängt, somt das 5D Shaderargument massiv an Kraft verliert.
4. Leider nicht, so wie es aussieht wirds bald wieder deutlich schlechter. Mal sehen wie groß der Aufschrei dann wird.
@unyu
1. ich weiß nur,dass er in 55nm sein wird, keine zusätzlichen einheiten kriegen soll und ca 10% schneller wird,aufgrund höherer taktraten. ach, und dass er nur noch 2 6pin anschlüsse hat und die TDP insgesamt noch sinkt.
2. hoher perfomanceverlust? woher nimmste denn diese annahme?
3. ich verstehe immer noch nicht was du damit aussagen willst? der G200 läuft in der regel mit 100% shadernutzung (nicht auslastung), der RV770 nicht, und da greift der treiber ein.
4. auch wenn du´s mir nicht glaubst, aber trotz meines Faibles für ATI lege ich Wert auf BQ und würde es bedauern, wenn die BQ in Zukunft noch schlechter wird. auch finde ich das AI managment nicht optimal,da die Möglichkeit der manuellen Auwahl im CCC verwehrt wird. hab ich je erwähnt,dass ichs gut finde? nur ist es nicht so katastophal wie ihr es darstellt.
@y33h
ich zitiere bzw suche jetzt keine aussagen von dir die sehr negativ auf Radeons bezogen sind.
gruß
2. Und dann? Alles super unscharf, bei hohem Performanceverbrauch, da kann ich gleich mit 1xAF zocken, so wie früher, dann ist wenigstens nicht alles unscharf.
3. Ich schrieb, das GT200 bei nicht 100% an der Shaderperformance hängt, somt das 5D Shaderargument massiv an Kraft verliert.
4. Leider nicht, so wie es aussieht wirds bald wieder deutlich schlechter. Mal sehen wie groß der Aufschrei dann wird.
@unyu
1. ich weiß nur,dass er in 55nm sein wird, keine zusätzlichen einheiten kriegen soll und ca 10% schneller wird,aufgrund höherer taktraten. ach, und dass er nur noch 2 6pin anschlüsse hat und die TDP insgesamt noch sinkt.
2. hoher perfomanceverlust? woher nimmste denn diese annahme?
3. ich verstehe immer noch nicht was du damit aussagen willst? der G200 läuft in der regel mit 100% shadernutzung (nicht auslastung), der RV770 nicht, und da greift der treiber ein.
4. auch wenn du´s mir nicht glaubst, aber trotz meines Faibles für ATI lege ich Wert auf BQ und würde es bedauern, wenn die BQ in Zukunft noch schlechter wird. auch finde ich das AI managment nicht optimal,da die Möglichkeit der manuellen Auwahl im CCC verwehrt wird. hab ich je erwähnt,dass ichs gut finde? nur ist es nicht so katastophal wie ihr es darstellt.
@y33h
ich zitiere bzw suche jetzt keine aussagen von dir die sehr negativ auf Radeons bezogen sind.
gruß
Zuletzt bearbeitet:
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.669
Doch auf, mach. Und such gleich nach den Posts, wo ich über den idle-Lärm der 260er, den Heatbug, den VRAM-Bug oder das Bandbreiten-Problem der G92er herziehe ...ich zitiere bzw suche jetzt keine aussagen von dir die sehr negativ auf Radeons bezogen sind.
Belege das malDer G200 läuft in der Regel mit 100% Shadernutzung (nicht Auslastung), der RV770 nicht, und da greift der Treiber ein.
cYa
Zuletzt bearbeitet:
Schinzie
Rear Admiral
- Registriert
- Feb. 2008
- Beiträge
- 5.955
ne, mach ich nicht.
du hast dich schon mit genug leuten auseinander setzen müssen, die dir mangelnde objektivität vorwerfen. das tue ich persönlich auch gar nicht, auch stelle dich nicht als Fanboy dar, nur übertreibst du es mal gern wenn es um dezente unterschiede geht, die 99% der leute nicht einmal mitbekommen.
in letzter zeit fällt mir nur auf,dass du kein einziges gutes wort mehr über ATI/AMD rausbekommst, bzw sehr negativ über diese herziehst.
edit:
der G200 hat 1D shader, die können nur einfach gefahren, bzw genutzt werden. wie sie im spielbetrieb ausgelastet werden weiß ich nicht. 5d shader können auf 5 arten genutzt werden, wie sie ausgelastet werden weiß ich wieder nicht, aber 100% nicht so gut, wie die von nvidia. nicht mehr und nicht weniger hab ich da oben gesagt.
gruß
du hast dich schon mit genug leuten auseinander setzen müssen, die dir mangelnde objektivität vorwerfen. das tue ich persönlich auch gar nicht, auch stelle dich nicht als Fanboy dar, nur übertreibst du es mal gern wenn es um dezente unterschiede geht, die 99% der leute nicht einmal mitbekommen.
in letzter zeit fällt mir nur auf,dass du kein einziges gutes wort mehr über ATI/AMD rausbekommst, bzw sehr negativ über diese herziehst.
edit:
der G200 hat 1D shader, die können nur einfach gefahren, bzw genutzt werden. wie sie im spielbetrieb ausgelastet werden weiß ich nicht. 5d shader können auf 5 arten genutzt werden, wie sie ausgelastet werden weiß ich wieder nicht, aber 100% nicht so gut, wie die von nvidia. nicht mehr und nicht weniger hab ich da oben gesagt.
gruß
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 107
- Aufrufe
- 27.840
- Antworten
- 2
- Aufrufe
- 1.041
- Antworten
- 216
- Aufrufe
- 34.299
- Antworten
- 594
- Aufrufe
- 80.304