News Alle Details zu ATis Radeon 5000er Serie

Masterchief79 schrieb:
Nein. Es handelt sich nachweislich um einen Ultra Quality Mod

Better FPS/quality balance

Der Mod hat ganz sicher ein paar Sachen runtergedreht.

Lass mal die Mods weg stell es einfach auf very High. Zudem bringen dein Screenshots nicht viel, da deine Grafikkarte gerade in dem FPS Bereich den man in den Screenshots sieht, Microruckeln provoziert. Momentan kann keine Karte Crysis in 1920x1200 plus AA und very High flüssig darstellen. Auch die GTX295 schafft es nicht.
 
Bei 8x AA und 16x AF sieht die GTX 295 kein land da hat sich gewaltig was getan anscheinend.
 
Zuletzt bearbeitet:
Wenn die Werte stimmen :lol::lol::lol:
Dann ist die Karte ihr Geld wert, denn es sind in jedem Spiel bis in der Charta in 2560*1600 + AA nur spielbare FPS und das ohne Microruckler etc. Das heost alle Auflösungen drunter gehen auch locker von dannen :D

Das als CF Variante:evillol:
 
Masterchief79 schrieb:
@Mapel: Wo hast du die her? Da kommt ATI ja schonmal nicht mehr ganz so gut weg...

wie bitte? die 5870 simgel GPU gegen die GTX295 Dual GPU!! was willst du noch mehr??
 
Ich will endlich mal Bilder einer HD5850, und wissen ob die mit einem 6 Pin Stromstecker auskommt (ja ich weiß, bei 170W geht das nicht, aber an den 170W will ich noch zweifeln)
Das könnte dann gewzungenermaßen meine erste ATi werden ^^
 
Makso schrieb:
wie bitte? die 5870 simgel GPU gegen die GTX295 Dual GPU!! was willst du noch mehr??

Was wohl xD
______
Naja ich weiß dann wohl auch nicht was mit meinem Crysis bzw. meiner Graka los ist, aber auch ohne Mods verhält sich das Ganze dauerhaft prima...
Meine Definition von flüssig ist übrigens über 25fps, bevor wir uns da noch auf Definitionsfragen einlassen müssen ;)

Die Screens waren an ganz willkürlichen Stellen ohne jetzt auf einen besonders hohen FPS Wert zu achten...

Wenn jemand ein gutes ingame-Video-Aufnahmetool kennt was kaum Leistung frisst, stell ich euch das gerne vor !
 
@Whoozy: Sollte ja nur scherzhaft gemeint sein. Aber zum einen ist mir meine GTS eingegangen und jetz fahr ich rvorübergehend mit ner 8600GT, und nachdem sich Nvidia wohl gerne bedeckt mit Informationen hält hab ich wenig möglichkeiten.
Eins steht für mich fest, die stärkste GPU mit nur einem 6 Pin Stromanschluss der neuene Generation gehört dann mir.
 
Ist eigentlich schon bekannt, ob der gt300 weiterhin gddr3 nutzen wird, oder auch auf gddr5 umsteigt? Das 512bit-Interface werden sie wohl behalten.
 
Rot1990 schrieb:
Ist eigentlich schon bekannt, ob der gt300 weiterhin gddr3 nutzen wird, oder auch auf gddr5 umsteigt? Das 512bit-Interface werden sie wohl behalten.

GDDR5 mit großer Sicherheit.
 
Ich vermute ja wenn sie beides nehemen, GDDR5 und 512Bit dann wird zumindest kein hochgezüchteter GDDR kommen, sondern ein ehere "langsameres" Modell....aber gut, dafür ist das hier der falsche Thread.

BTT: Klärt mich mal bitte über das hier auf (ja ich weiß ist schon älter)
http://magicboxlive.blogspot.com/2009/08/radeon-hd-5850-ati-juniper-card-images.html
HD5850 wäre dort ne Juniper....aktuell kommt aber Juniper für 5770/750 zum einsatz.
War die News also falsch?
 
Kasmopaya schrieb:
Es gibt aber auch eine Konstante die meine Behauptung unterstützt. Fakt ist NV hat bis jetzt immer mit einer neuen DX API gleichzeitig die Architektur stark überarbeitet + Monster Performance Schub mitgegeben. Das ist Fakt:
GF3(DX 8.0),GF5(DX 9.0),GF8(DX 10.0) ->GT300 2048(DX 11.0) etc.

JETZT bekommst du wirklich was nicht gebacken ;)

Die 4er Geforce war teilweise doppelt so stark wie die 3er Reihe (und ich Depp hab mir kurz vor Release noch ne G3 Ti500 für 500€ geholt, die sogar von der Ti4200 eingesackt wurde (soweit ich mich erinnern kann), dem Geld trauer ich heut noch nach :freak::rolleyes:)

G3-->schlecht

Geforce 5: Ohne Worte, ich sag nur Staubsauger (Die 5900 war aber dann ganz OK glaub ich, Kumpel hatte eine)

Die G6 war wesentlich besser. Die 6600GT war zurecht eine sehr beliebte Graka.

G8 war der Hammer. Das Notebook-GPU Debakel nahm allerdings hier seinen Anfang, von daher auch nicht alles Gold was glänzt die 8600 war einfach nur Sch****, 8800GTS 320 hatte VRAM Bug :freak:

GT300 wissen wir noch nix, aber so wie die Geschichte bisher war, waren die ungeraden Nummern eher ne Pleite, insofern würd ich auf den GT300 nicht allzu viel setzen ;)

Noch was: Du meckerst immer, das die 5870 *unbedingt* 2GB VRAM brauch. Demnach brauch den die GTX 285 eigentlich auch (is ja nicht viel langsamer voraussichtlich).

Dann erklär mal, warum die Auswahl hier so dürftig is:

http://geizhals.at/deutschland/?cat...h=2048&v=e&pixonoff=on&xf=891_GeForce+GTX+285

Wenn AMD wirklich auf Anhieb ne 2GB Version rausbringt, sollte NVIDIA lieber noch n paar RAM Chips bestellen ;)

:evillol:
 
ich hoffe ich hab mich net vertippt, habs net so mit dem Nummernblock

hier steht ein Denkfehler, nicht beachten.

1680x1050 bzw. 1920x1200 AA+AF
5870 vs GTX295
FPS Summe: 1210,7 vs 1166,3 / 14
Rating: 86,48 vs 83,31
= ATI + 3,8%


1920x1200 bzw. 2560x1600 AA+AF (ohne Battleforge)
5870 vs GTX295
FPS Summe: 839,8 vs 703,9 / 13
Rating: 64,6 vs 54,15
= ATI + 19,3%

Vorrausgesetzt die Zahlen sind glaubwürdig und nach besten Wissen und Gewissen erbenched worden.

edit:
1680x1050 bzw. 1920x1200 AA+AF
5870 vs GTX285
FPS Summe: 1210,7 vs 820,7 / 14
Rating: 86,48 vs 58,62
= ATI + 47,5%


1920x1200 bzw. 2560x1600 AA+AF (ohne Battleforge)
5870 vs GTX285
FPS Summe: 839,8 vs 554,3 / 13
Rating: 64,6 vs 42,64
= ATI + 51,50%
 
Zuletzt bearbeitet:
naja als die 4870 rauskam war sie auch schneller als 3870X2, deswegen wundert es micht nicht, das die 5870 schneller als ne 4870x2 ist bzw. gleich schnell wie ne GTX295.
 

Ähnliche Themen

Zurück
Oben