Test Test: ATi Catalyst 8.12 in fünf Spielen

Klingt doch recht sympatisch :D

Sobald sich nV was "zu Schulden" kommen lässt, wird gemeckert. zB die OpenGL-Filterung ... die bis heute erst manuell per Rivatuner zurecht basteln muss.

cYa
 
bis auf die filteroptimierung und den Idle-Verbrauch lässt sich die neue Radeon aber auch nichts zu schulden kommen ^^

btw, nehm mal den ATT, deaktivere erweiterte Filteroptimierung und guck dir des bild mal an. dazu stellst du dann noch AF höchster qualität ein und deaktivierst den trilianaren filter.


gruß
 
Ich bastel bereits ... es wäre halt schön, wenn beide IHVs die beste AF-Quali als default setzen würden und AMD AI aufsplitten.

cYa
 
ich weiß nur,dass er in 55nm sein wird, keine zusätzlichen einheiten kriegen soll und ca 10% schneller wird,aufgrund höherer taktraten. ach, und dass er nur noch 2 6pin anschlüsse hat und die TDP insgesamt noch sinkt.
Deutlich gesenkte TDP bei genenkten Kosten und etwas höherer Performance ist doch toll.

hoher perfomanceverlust? woher nimmste denn diese annahme?
16xAF kostet auch bei einem RV770 FPS, das weißt du doch?

der G200 hat 1D shader, die können nur einfach gefahren, bzw genutzt werden
Jede GT200 ALU kann 2 MUL und 1 MADD.
Ob jedes Spiel genau dieses 2:1 Verhältnis braucht und zu 100% auslastet?
 
Zuletzt bearbeitet:
unyu, ich glaub wir reden aneinander vorbei. ich sprach die ganze zeit von 16xAF.


@Y33h

im ATT unter "feineinstellung-fortgeschrittene feineinstellung-new AA AF methods" kannste dich auch mal austoben. allerdings solltest da a weng vorsichtig vorgehen. dort musst du auch erst "disable support for high quality AF" deaktivieren, bevor du High quality AF aktivierst.

gruß
 
Zuletzt bearbeitet:
@Schinzie
Danke für den 512/1024 Test. Feine Sache.

Diese Art Microruckler unter DX10 sind ja bei Farcry 2 und Cat8,12 immernoch vorhanden.
Ohne gfx_maxfps 30 gehts noch nicht.
 
Schinzie, Ich doch auch. :confused_alt:

Bevor ich der HD künstlich ein positives LOD aufdrücke damits das 16xAF überscharf ist/so scharf wie echtes 16xAF wirkt, kann ich gleich auf AF und dem damit verbundenen FPS Einschnitt verzichten, ergo nehme ich bilineare Filterung....
 
Tja Nvidia hat einfach verloren in diesem Duell. Schätze mal das deren 55 nm Produkt auch nichts mehr reißen kann, wenn sich die Gerüchte um den RV775 XT bewahrheiten sollten :D:D:D:D
 
@herby53: vllt solltest du erstmal den test lesen, die gtx260² liegt im schnitt 8% vorne, das ist für verlierer eher unüblich :D
im moment ist gleichstand (die gtx260² kostet ja auch etwas mehr)
und die gerüchte um den rv775xt sagen nicht, dass dieser die gtx280 um deutlich mehr als 10% (=gtx285) überbietet ;)
vllt solltest du erstmal testergebnisse abwarten, bevor du nv totsagst^^

aber ich vermute auch, dass ati endlich wieder mit einer gpu das spitzenmodell von nv atakieren kann. das war ja zuletzt bei der 1950xtx so... gute alte zeit :D
 
Ich verstehe die dummen beiträge der meisten hier nicht.
Vielleicht hab ich auch einen anderen artikel gesehen.
Die nvidia karte war immer noch leicht besser. In der performance sowie in der qualität.
Dazu kommt noch, dass ati sich mit den treibern nicht wirklich gut anstellt.
Wenn man sich mal das gesamtpaket anguckt was nvidia liefert, hat die ati karte immer noch nichts zu melden.
 
echt,wieso nicht? nimm mal dead space raus, dann ist die nvidia nicht mehr vorne. und wieso ist das gesamtpaket besser? klär mich mal auf?


gruß
 
Lässt sich wie so oft durch den HD 4800 Hype erklären. Einige Leute sind immer noch der Meinung das eine 4870 die Karte der Stunde ist...

Schon lustig, die HD 4870 ist die ineffizienteste single GPU Karte ever und keinen scheint es wirklich zu stören. Sogar eine 8800GTX aus dem Jahre 2006 ist im Idle sparsamer, und bei weitem kühler.

MfG Kasmo
 
Zuletzt bearbeitet:
nochmal zu diesem unsinnigen hype-gequassel.
das ist immernoch die nachwirkung als die 48xx-karten rauskamen.
da waren sie definitiv die schnellsten karten, die man mit so wenig geld bekommen konnte.
das ist jetzt, wo nv die neue 216er gebracht hat und entsprechend die preise stark gesenkt hat immer weniger der fall. und nun ist wirklich ati an der reihe, das sie die bestehenden probleme des idle-verbrauchs und af-flimmern beheben.

und mit einer alten karte vergleichen, die auch noch eine andere performance hergibt ist unsinnig.
mit der 9800gtx+ kann man das gerade noch machen, aber da siehts dann schon schlecht aus ;) dennoch gebe ich dir recht, daß das mist ist.

mfg
 
Kasmopaya schrieb:
Schon lustig, die HD 4870 ist die ineffizienteste single GPU Karte ever und keinen scheint es wirklich zu stören. Sogar eine 8800GTX aus dem Jahre 2006 ist im Idle sparsamer, und bei weitem kühler.

MfG Kasmo

Meine Karte ist im idle 40Grad kühl, unter last 60Grad, das ganze relativ leise. Im idle verbrauch ich 130Watt, unter Last 250Watt (übertaktet). Wo ist das eine GTX260 besser? Selbst ist der Mann.

die.foenfrisur schrieb:
und nun ist wirklich ati an der reihe, das sie die bestehenden probleme des idle-verbrauchs und af-flimmern beheben.

die meisten sehen das sogenannten AF-Flimmern nicht. diejenigen die ein Problem damit haben können es via ATT mindern, also wo gibts das problem?

beim Verbrauch das selbe, es gibt mehrere FAQ´s hier, wie mans mit und ohne Zusatzprogramme sparsam kriegt. sparsamer als eine GTX260 sein kann. Wenn man Wert drauf legt, kriegt man mit der 4870 die effizienteste und schnellste Karte fürs Geld. Allerdings muss man was dafür tun. Und wenns einen so sehr stört,dann macht man eben was dagegen. Verstehe nicht,wieso 40Euro mehrzahlen,wenn man mit paar klicks nahezu das identische hinkriegt.


gruß
 
Benke auch, das man einer GTX 260 ein neuese Bios flashen kann, wo damit sie zb statt 1,16V nur noch 1,06V bekommt.
Wirkt sonst so einseitig wenn du nur die die mögliche Sparsamkeit der HD erwähnst. ;)

Und bitte, das Problem ist, das man das Flimmern höchstens mindern kann, nicht abstellen, so wie früher oder bei der Konkurrenz. ;)
 
Unyu schrieb:
Und bitte, das Problem ist, das man das Flimmern höchstens mindern kann, nicht abstellen, so wie früher oder bei der Konkurrenz. ;)

das muss man erst noch nachweisen, ich arbeite grad dran^^.


auch ja, die sparmöglichkeiten bei der HD sind alle ohne Voltmod und Biosflash^^



gruß
 
ne, bei 30loops crysis, bzw 5std F@H.

und sorry,i hab a weng gerundet, es sind max 62,5 Grad laut GpuZ.

gruß
 
Zurück
Oben