Test Test: ATi Catalyst 8.12 in fünf Spielen

sorry aber wenn man hier nicht gta iv mit testet dann weiß ich auch nicht:rolleyes:
 
waaaaaaaaaaas? wieso das denn?
gta4 limitiert anhand der cpu...die gpu schläft mehr bei gta4 als das sie arbeitet, weil es so grottenschlecht programmiert ist.
da bringen die besten treiber nix.

mfg
 
Nun ich denke mal es ist endlich eindeutig das ATI die beste Hardware besitzt.

Nach so einer kleinen Treiberanpassung liegt die HD 4870 nun vor der GTX260.
Zwar gibt es noch 1 oder 2 Spiele im Test wo sie noch hinterherhinkt wie Dead Space welche aber höchstwahrscheinlich noch nicht richtig angepasst worden sind aber beim nächsten Treiberupdate ebenfalls davonziehen wird.

Ich sag nur.

ATI ... Mach uns wieder ganz ! :cool_alt:
 
es wird sicher nicht lange dauern, dann wird dein post zerfetzt.
ich wäre aber auch generell eher vorsichtig mit solchen aussagen ;)

mfg
 
Wieso? Es ist doch eindeutig, dass er den Test eh so interpretiert, wie er das will. Also ein Fanboy und dagegen kann man eh nix tun..

Und solange er glaubt, dass nur noch eine kleine Treiberanpassung nötig ist für Dead Space, damit auch hier die 4870 "davonzieht", glaube ich noch an den Wundertreiber für die beste Hardware ever, nämlich die 2900XT.. ^^
 
H3rby schrieb:
Wieso? Es ist doch eindeutig, dass er den Test eh so interpretiert, wie er das will. Also ein Fanboy und dagegen kann man eh nix tun..

Wieso ?
Man wird doch noch etwas positives über ATI sagen dürfen ohne das man gleich Schellte kriegt !

Und das ATI die modernere bessere und schnellere Hardware besitzt ist doch jetzt bewiesen durch diesen Thread:

https://www.computerbase.de/2008-12/test-ati-video-converter-benchmarks/3/#abschnitt_benchmarks

Da rechnet selbst eine HD4850 fast doppelt so schnell wie eine GTX280 ohne das ATI seine Muskeln spielen lassen muß !

Und solange er glaubt, dass nur noch eine kleine Treiberanpassung nötig ist für Dead Space, damit auch hier die 4870 "davonzieht", glaube ich noch an den Wundertreiber für die beste Hardware ever, nämlich die 2900XT.. ^^

Man wird ja wohl noch hoffen dürfen ... :D

Man sollte meinen Beitrag nicht gleich so ernst nehmen. Schließlich gibts ja noch die GTX280 welche ja aus der HD 4870 Pampelmusse macht.

Wir werden einfach sehen was nächstes Jahr kommt.

Nachdem NV nun schon die 3. Generaton des G80 als neue Innovation teuer verkaufen wollte müssen sie sich diesmal wirklich etwas Neues einfallen lassen.
 
Immer wieder schön zu wissen das nur AMD Treiber programmiert und irgendwann die 10fache Performance erreichen wird.
Pickebuh schrieb:
Und das ATI die modernere bessere und schnellere Hardware besitzt ist doch jetzt bewiesen durch diesen Thread:

https://www.computerbase.de/2008-12/test-ati-video-converter-benchmarks/3/#abschnitt_benchmarks
Achso, Modernität, besser und schneller misst sich lediglich an der Mpeg2 Codiergeschwindigkeit.
Kleinigkeiten wie "die Bildqualität muss sich (bei gleichen Programmeinstellungen) der der Konkurrenz allerdings geschlagen geben" oder das eine GPU mehr als nur MPEG2 codieren kann spielen dabei keine Rolle.
 
bei der bildqualität hat unyu recht. momentan kann man die codierungsgeschwindigkeiten nicht vergleichen.

allerdings ist durch optimierung bei Nvidia karten nicht so viel rauszuholen wie bei ATI karten, und das weißt auch du, Unyu.


gruß
 
Welche Detailstufe hat CB bei dem FarCry2 Bench ausgewählt?

Mit Ultra High komm ich nie im Leben auf diese Werte, obwohl ich nur eine Auflösung von 1680x1050 eingestellt habe.

Auf Seite 3 und 4 ging es schonmal um dieses Thema und wiedermal hat jemand behauptet das es an der CPU liegt, die bei den CB Leuten viel höher getaktet ist.

Das ist aber der totale Schwachsinn. Bei so einem Grafikaufwendigen Spiel hat die CPU nix zu melden. Das hab ich schon längst bei Crysis herausgefunden und gerade eben auch bei FarCry 2 getestet. Ob meine CPU auf 2,4GHZ läuft oder auf 3,2GHZ, absolut Null Unterschied im Small Rench Benchmark.

Wenn man Auflösung, Details und Qualitätseinstellungen total runterschraubt, dann hat die CPU nen Einfluss aber dann kann man auch HL1 spielen (nix gegen HL1, war'n hammer Spiel).
 
Ich muss sagen, die verbesserungen bei Ati haben mich durchaus etwas überrascht.
Ich hätte mit weniger gerechnet.
Das die 4870 nun bei 5 von NVIDIA ausgewählten Spielen und von Nvidia ausgewählten Settings so nah an der 260er liegt, ist schon eine ordentliche Leistung.
Wenn man Dead Space rausnimmt hat man nahezu einen Gleichstand, bei einem besseren Preis der ATI. Und das unter von NVIDIA vorgegebenen Settings.
Manchmal ist ein Unentschieden halt doch ein Sieg oder eine Niederlage.

Zu Dead Space ist es schwer was zu sagen, ohne bewegte Bilder zu sehen, der Sceenshot gefällt mir tatsächlich von ATI besser.
Das ATI sich da dran setzt um die Treiber nochmal bzgl. der Leistung zu optimieren ist doch eher unwahrscheinlich. Denn das Spiel läuft offensichtlich mehr als flüssig.

Klar kann man argumentieren, dass dies nun wieder nicht die aktuellen Treiber von NV sind etc. aber es ist einfach unwahrscheinlich, dass NVIDIA nochmal so viel Leistung rauskitzeln kann. Ich habe hier(im Forum verlinkt) letztens einen Test mit älteren Karten und halbwegs aktuellen Spielen und halbwegs aktuellen Treibern gesehen, bei dem sahen die ATIs deutlich besser aus, als die ehemaligen Konkurrenten.

Eine Studie, die bei paar ausgewählten Spielen mit unveränderten Hardware mit Treibern über einen Zeitrahmen von 2 Jahen oder sowas wäre sicher mal interessant, um zu sehen, wie lange es dauert bis NVIDIA und ATI die optimael Leistung aus einem Spiel heraus holen und ob/ab wann die Leistung des nicht mehr aktuellen Spiels auf der nicht mehr aktuellen Hardware sinkt.
 
Schinzie
Mit "Optimierungen" meinst du bestimmt etwas anderes, als das, was ich im 1., 2. und 3. Moment denke.
Obwohl das sehr gut zu deiner Aussage passen würde.

Tatsächlich ist es mir nicht bekannt, warum AMD mehr Potential an guten Optimierungen hat.
Dauerbrenner 5D Shader? Selbst wenns so wäre, besteht eine GPU nur aus SPs?
Oder Dauerbrenner Welt ist böse und nVidia hat alle 1000 Spieleschmieden gekauft und AMD 0?
Oder was ganz anderes?

Interessat finde ich übrigens, neben dem, das du GT206 in der Pfeife rauchst, das dich 3 Wochen nach dem ersten "Fünf Spiele Test" BQ nicht mehr juckt.
 
Zuletzt bearbeitet:
@ <Dopex>

FC2 ist auch in 1.920 noch recht CPU-limitiert. FC2 mit Crysis zu vergleichen ist Schwachsinn, die Engines könnten kaum unterschiedlicher sein.

cYa
 
Ja aber ich habs doch auch bei FC2 getestet!

Über und untertaktet doch mal eure Prozessoren von 2 GHZ auf 3,5 GHZ oder jedenfalls sowas in einem GHZ bereich. Ist nen haufen zeug und sollte nen Unterschied ausmachen wenn die CPU Leistung gefordert ist.

Was habt ihr denn so für Werte mit ner 4870.
Ultra Details, ~1680x1050, 4 AA, 16 AF, DX10.
 
@dopex

diese.

far-cry-2-4870-ranch-small-jpg.120884


@unyu

ich meine den dauerbrenner 5d shader. was meinste worin die jungs von ATI die ganze zeit optimieren? die spiele werden nun mal immer shaderlastiger.

Was meinste mit G206 und BQ vergleich?


gruß
 

Anhänge

  • Far Cry 2 4870 ranch small.jpg
    Far Cry 2 4870 ranch small.jpg
    63,2 KB · Aufrufe: 616
@ Schinzie

Es ist halt ne Treiber- bzw. Scheduler-Sache, die 5-Vecs gescheit auszulasten, daher dauern Optimierungen bei AMD halt idR seit der HD-Serie länger. BQ gilt wie bisher - nV ist besser. Flimmer-AF und AI geht halt mal gar nicht ... und dass der Treiber entscheidet, ob TMSAA oder TSSAA geht erst recht nicht.

cYa
 
dafür wirkt für mich das Nvidia bild unschärfer,was für mich gar nicht geht. flimmern tuts bei den richtigen einstellungen auch,von demher hab ichs lieber ein bisschen schärfer und ein wenig flimmriger.
 
Schärfer ist idR unterfiltert und flimmriger, was unrealistischer ist - im echten Leben flimmern Boden und Wand ja auch nicht. Das LOD-BIAS zu verschieben ist keine Kunst ...

cYa
 
Zurück
Oben