Test Test: ATi Catalyst 8.12 in fünf Spielen

eine hd4870 mit 512 wegen dem speicher management langt normal, 512mb bei nvidia kannst heut zu tage voll vergessen, 1g sollte es normal sein.

ps: zwischen ati und nvidia sind es 80mb.
 
Min. frames haben bei den Bench-tests erstmal nix mit dem Speicher zu tun. Erst wenn du länger spielst wirdt du gravierende Unterschiede einer 1GB Version zu einer 512MB Version merken. Im Übrigen hatte ich vorher eine 4870 512 und konnte damit ohne erkennbare Probleme Grafikknaller wie Crysis, Crysis Warhead, Red Alert 3, und FC2 spielen.

Vielleicht liegt es aber auch daran dass ich nicht mehr 2 oder 3 Stunden am Stück spiele. Bin ja schließlich keine 16 mehr und hab auch noch anderes zu tun.

Die 512MB Version der 4870 würde hier zumindest in den Benches eine gute Figur machen.

mfg

pS:
Bei den minimum frames bewegt sich die 9800 GTX+ und die 4870 512 nahezu auf dem gleichen niveau

Vielleicht in diesem einen Spiel in dieser einen Benchsequenz. Normal hat die 9800GTX+ keine Chance gegen die 4870 aber ich erzähl ja nix neues.
 
Zuletzt bearbeitet:
Dai6oro schrieb:
Min. frames haben bei den Bench-tests erstmal nix mit dem Speicher zu tun.
In diesem Fall schon, weil hier der Vram limitiert ;)

Dai6oro schrieb:
Vielleicht liegt es aber auch daran dass ich nicht mehr 2 oder 3 Stunden am Stück spiele. Bin ja schließlich keine 16 mehr und hab auch noch anderes zu tun.
Stimmt, nachts um 1 hier zu posten ist wichtiger ;)
Nichts desto trotz muss man nicht gleich mit solchen komentaren kommen, zumal du ziemlich daneben damit liegst...

Dai6oro schrieb:
Vielleicht in diesem einen Spiel in dieser einen Benchsequenz. Normal hat die 9800GTX+ keine Chance gegen die 4870 aber ich erzähl ja nix neues.
Dir ist schon aufgefallen, dass wir nur von diesem spiel reden :rolleyes:
Den was anderes habe weder ich noch y33h@ jemals behaupt, aber es ist ja heutzutage mode, dass man sich dinge dazu dichtet....


@xstYLe
hast du einen text, der die 80 mb belegen?
den ich meine das es nur 50 sind, wäre nett wenn du ihn uns auch zeigen könntest.

mfg+ gute nacht
 
Tja was du in meine Aussagen hineininterpretierst ist dir überlassen. Es ist nunmal Fakt dass ich weniger Zeit als noch mit 16 habe. Außerdem sind andere Interessen dazugekommen. Wenn du das für daneben hältst dann frag ich mich schon. Nur weil du irgendwas negatives reininterpretierst brauchst du mich net anzumachen. Soviel zum dazudichten. Es ist einfach so dass ich kaum mehr Zeit habe 2-3 Stunden am Stück zu zocken auch wenn ich das gerne tun würde. Neben dem Studium habe ich ne Arbeit, ne Freundin und diverse andere Hobbies. Und was mein posten angeht. Da ich vorm Computer arbeite, poste ich auch mal gern nebenbei. Ist ja nicht so dass ich vor der Kiste hocke und den nächsten Kommenatr gar nicht abwarten kann.

Dass es hier nur um Fallout ging ist mir entgangen. Heißt das Thema doch "ATi Catalyst 8.12 in fünf Spielen".

mfg

PS: Hab gerade gesehn dass PCGH mit dem 8.11 gebencht hat. Die 1GB version hat bei den min. FPS bei CB durch den 8.12 47% mehr Leistung. Hätte deswegen auch nix dagegen wenn man die 512MB Version hier bei CB auch noch testen würde. Bin mir sicher dass sich auch bei ihr die min FPS. erhöhen.
 
Zuletzt bearbeitet:
Dai6oro schrieb:
Na wenn 512MB für ne ATI nicht reichen dann ja wohl kaum für ne Nvidia ergo die 9800GTX+ mit 512 MB kannste in die Tonne kloppen. Genauso wie alle anderen mit 512 (ATI inkl.). Hab ich dich richtig verstanden experte?

mfg

das ist vollkommen richtig, wir verbauen auch nur noch 512er Karten in Office PC´s und selbst da kann es passieren, sollte man mal länger als 10 min eine Flashanimation im Browser haben, das dann der VRAM ausgeht. Es zeigt sich durch Flimmern und dann muss man schnell die 1GB Karte einbauen um sich vor dem VRAM Mann zu schützen oder den Rechner für 5min ausschalten, weil das Bild was dann sonst zu sehen wäre, gegen die Augenwürde des Menschen verstoßen würde. Die Regierung plant wohl auch, Menschen mit 256MB VRAM mit dem Adresszusatz Neandertal zu versorgen, damit man gleich sieht, wie zurückgeblieben die sind ..... :freak::freak:
 
Genau.. ^^

Dafür kann man Crysis in 640x480 flüssig zocken, hat aber dank 2GB VRAM und Textur-Mod geile Texturen..
 
Zuletzt bearbeitet:
Experte18 schrieb:
Tja beide Karten wieder gleichschnell.Der ehemalige konkurent (260 GTX 192 Shader)wird vernichtet.

Tolle Aussage... die so überhaupt nicht stimmt. Mach bitte einfach mal die Augen auf und lies genau, was in den Tests der einzelnen Spiele und im Fazit stehe. Ein "vernichtet" sieht für mich anders aus. Alles bitte überlegen, bevor man gefährliche Halbweisheiten postet! Ich habe eh immer das Gefühl, dass, wenn die ATI mal nicht vorne liegt, sofort die ganzen Nvidia-Kritiker aus ihren Löchern hüpfen und ihre ihre Karte in den Himmel loben - Nvidia verfluchen.

Zitate:
Der nun mit an Sicherheit grenzender Wahrscheinlichkeit auf unsere fünf Spiele ebenfalls angepasste Catalyst 8.12 hat gegenüber dem Catalyst 8.11 mal mehr und mal weniger zugelegt – um an eine GeForce GTX 260 216 heranzukommen, reicht es – über alle Spiele gesehen – aber nicht.

Nichtsdestotrotz reichen die Leistungssteigerungen des Catalyst 8.12 nicht dazu aus, um die Radeon HD 4870 1GB in den fünf Spielen insgesamt vor der GeForce GTX 260 216 zu sehen. Diese rendert im Durchschnitt noch um acht Prozent schneller als die Radeon HD 4870, die wiederum durch den neuen Treiber im Schnitt um neun Prozent zulegen konnte.

Beide Karten sind quasi gleich gut, wobei die GTX260 momentan ein Stück vorne liegt, was sich aber mit dem nächsten ATI Treiber wieder änder kann. Scheinbar möchten das einige Leute noch immer nicht wahrhaben und reden schlichtweg Unsinn daher. Die Stärken und Schwächen sollten doch mittlerweile alle bekannt sein. Preislich unterscheiden sie sich auch noch kaum voneinander und so greift man eben zu der Karte, mit der man persönlich die besten Erfahrungen gemacht hat.

Und ich sage nachwievor, dass ich lieber einen kleinen Aufpreis gegenüber der HD4870 in Kauf nehme und mir eine GTX260 hole, dafür aber weniger Probleme habe mit Treibern, die extra für spezielle Spiele geladen werden müssen, zu hohem Stromverbrauch wegen verbuggtem PowerPlay, hohen Temperaturen oder flimmernden AF Einstellungen. Aber das ist_meine_persönliche_Erfahrung/Einstellung und durch die vielen Tests und Usererfahrungen aus den diversen Foren.

Gruß
 
wie gesagt ohne Dead space gebe es diese 8% nicht, da die geforce in dead space fast 50% schneller ist. aber ob jetzt 70fps min oder 110 (oder was es waren) fps min ist sowas von latte. finde also das resultat nicht ganz nachvollziehbar, da der schnitt der anderen spiele wieder was anderes sagt.


gruß
 
@marcelramon (so heißen ich und mein bruder übrigens ;D )
dann muss dir wohl entgangen sein, das sowohl nv als auch ati ständig fixes und neue treiber für games bringen. nv noch um ein vielfaches öfter.

und wenn du mal ins forum schaust:
https://www.computerbase.de/forum/forums/grafikkarten-probleme-mit-nvidia.103/

es haben bei nv mindestens genauso viele probleme, wie bei ati.

das mit dem powerplay kann man so stehen lassen, das ist mist, ohne zweifel.

aber probleme haben alle. ich bin glücklicherweise bisher verschont geblieben.
man schaue nur mal in die rubrik von "known issues" in den treibern.
die sehen bei beiden quasi glaich aus.

mfg
 
Ich sagte ja nicht, dass man mit einer GTX260 automatisch garkeine Probleme hat, sondern meiner subjektiven Erfahrung nach - und die bezieht sich im übrigen auf den Vergleich HD4870 : GTX260 - hat man mit der GTX260 weniger Probleme und somit bezeichne ich sie als Einsteigerfreundlicher. Klar gibt es auch Leute, die es andersherum sehen und genau das Gegenteil von dem behaupten, was ich sage. Darum geht es mir auch nicht. Diese Erfahrung ist wie erwähnt subjektiv und besteht aus Eigenerfahrung sowie aus Erfahrungen mit Beiträgen in diversen Foren, was schlussendlich zu meinem Resultat führt.

Ich selber hatte einmal eine ATI verbaut vor einigen Jahren, die ganze 2 Tage in meinem Rechner schlummerte und die ich dann, aufgrund der Tatsache, dass ich das Flimmern unter Windows und den Spielen einfach nicht wegbekam, zurück zum Händler ging und gegen eine Nvidia eingetauscht wurde, die bis zum heutigen Tage reibungslos läuft.

Gruß

P.S.: Hallo Marcel, Hallo Ramon :D
 
Die Steigerung der min FPS bei Fallout 3 mit der HD4870 hab ich gestern sofort bemerkt. Dort ruckelte selbst meine X2 bisher an der ein oder anderen Stelle. Das ist nun zum Glück vorbei.
Dass sich bei Far Cry 2 auch die Crossfire-Performance um bis zu 70% verbessert haben soll, kann ich zumindest was den internen Benchmarktest angeht, nicht bestätigen. Soweit ich mich an meine vorherigen Ergebnisse erinnere, hat sich da nichts getan. Min und max FPS bleiben nach dem Treiberwechsel auf niedrigem Niveau gleich.
 
@Dai6oro
Falls es dir auch entgangen ist, die pcgh tests sind von y33h@, von daher wird er ja wissen was er getestet hat...
Aber deine sachlichkeit scheint sobald es um ATI geht sich vollkommen in luft aufzulösen, was mir jetzt auch schon mehrere male aufgefallen ist:rolleyes:
Aber das kommt halt davon, wenn man alles nur durch die rote brille betrachtet, sich nicht richtig durchliest was die anderen geschrieben haben und mit nicht wirklich geistreichen zweideutigen bemerkungen versucht dass niveau zu senken.

Und übrigens kann man den Vram auch in 45 min vollkriegen, den länger hab ich auch keine zeit für solche vergnügen.

mfg
 
m-sharingan schrieb:
ich verstehe iwie das mit COD 5 nicht
bei COd 4 hat die nvidia karte und ati karte weit über 80FPS im durchschnitt...aber jetzt bei COD 5 soviel weniger? Oo

so viel besser ist die grafik nun auch nicht dass es fast an das doppelte der FPS verliert...
ist COD 5 soviel mehr ein performance fresser als COD 4?


also kann mir des vllt einer beantworten???
so viel bessere grafik hat doch COD 5 garnicht gegenüber dem 4er...
 
alles eine frage der treiber und des spiels selber.
und die grafik hat schon zugelegt.
das kann man so einfach denke ich aber auch nicht beantworten, wenn man sich nicht genauer damit befasst und z.b. texturen, polygone, shader etc. zwischen den spielen vergleicht.

können aber auch andere hintergründe sein ;)

mfg
 
Alle schauen nur welche besser ist und welche schlechter aber schaut einer auch mal auf den stromverbrauch?glaube wohl eher nicht.Aber mal davon ab.die spiele werde zum grösstenteils für nvidia angepasst und nicht für ati.Daher hat es Ati eh einwenig schwieriger.und nochwas Nvidia arbeitet mit INTEL zusammen das muss man sich auch merken.Schaut mal ein paar jahre zurück wo die noch nicht zusammen gearbeitet haben.Ati kommt nach jahren langsam wieder ran an nvidia genauso sieht es mit Intel und AMD aus.hätte AMD früher nicht so verpennt dann würden die vielleicht soweit sein wie intel und nvidia es heut sind.
Also mir ist es egal was die sagen.man muss selbst wissen was man für ne Graka haben will.Um so realer die Games werden umso mehr leistung braucht man und umso grösser wird der Stromverbrauch.Und heutzutage ist der strompreis auch nicht sehr billig.Dahabe ich lieber ne Graka die nicht soviel strom frisst und nicht so teuer ist als ne teure graka die auch nicht vielbesser ist und mehr strom verbraucht.

Also Preis leistungs verhältnis!!!
 
Fazit CB:
Der nun mit an Sicherheit grenzender Wahrscheinlichkeit auf unsere fünf Spiele ebenfalls angepasste Catalyst 8.12 hat gegenüber dem Catalyst 8.11 mal mehr und mal weniger zugelegt – um an eine GeForce GTX 260 216 heranzukommen, reicht es – über alle Spiele gesehen – aber nicht.

Sicher, sicher. :] Vielleicht hätten sie sich auch nur mal die "releasenotes: Performance Improvements" vornehmen sollen, anstatt mit an Sicherheit grenzender Wahrscheinlichkeit wiedermal angepasste Falschaussagen zu tätigen: :king:

RN: Call of Duty: World at War DX9 performance gains of up to 21% for Single and Crossfire mode. Performance gains were noticed on all Radeon HD48xx.(getestet wurde DX10) ;)
---Performance erhöt: unwesentlich (1-2 FPS) - komisch

RN: Dead Space - nicht erwähnt (getestet wurde DX10) ;)
---Performance erhöt: nein - komisch

RN: Fallout 3 - performance gains of up to 15% for Single card mode
--- Performance erhöt: minimal im avg+max Bereich, im min Bereich von 36 auf 53 FPS, d.h. auf 147% ;)

RN: Far Cry 2 DX 10 - performance gains of up to 10% for Single card mode and up to 57% in Crossfire mode. Performance gains were noticed on all Radeon HD4xxx and HD38xx.
--- Performance erhöt: ja, minimal; im max Bereich nur 5%... von den 10% ist nix zu sehen, könnte aber an den Einstellungen liegen (Auflösung o.ä.) :P

RN: Left 4 Dead DX9– performance gains of up to 10% for Single card mode and up to 5% for Crossfire mode. Performance gains were noticed on all Radeon HD4870 series.
--- Performance erhöht: ja. max 122%, avg 130%, min 142% in Bezug auf 08.11 ... :o (raff ich nicht) :-[

Folgende Fragen tun sich für mich auf:

* Lest ihr eigentlich auch eure eigenen Diagramme?
* Steht jetzt eigene, selbständige, halbwegs genaue Recherche unter Strafe?



Mein Fazit: Für knapp 20 Tage Treiberoptimierungszeit Seitens ATI nicht schlecht... Nvidia standen die Spiele vermutlich (ja, auch ich muss mal Vermuten) eine weitaus längere Zeit zur Verfügung. ;)
Fazit CB: Siehe oben, imho grmmmlll !

...Just my two cents...
 
Zuletzt bearbeitet:
Es gibt zu dem Treiber 2 Beiträge von Computerbase.
Einen mit den 5 neuen Spielen und den normalen Benchmarkparcours.
In dem "normalen" Benchmarkparcours fällt der Performancegewinn eben nur um 1-2% aus.

Die 5 neueren Games wurden zuvor schon mit nem neuen Nvidia Treiber getestet, der zur Folge hatte, dass die Ati Riege geradezu deklassiert wurde und CB von manchen Usern hier, milde formuliert, mit Befangenheitsvorwürfen konfrontiert wurde.
Daraufhin wurden die 5 Games auch mit dem neuen Catalyst getestet.

MfG
Mr_Blonde
 
Zurück
Oben