Test Test: ATi Catalyst 8.12 in fünf Spielen

xxxx bitte lies dich erst in die materie ein, bevor du darüber philosophierst >.<
und kein spiel steuert die shader direkt an! und ob die architektur nun auf 1d oder 5d shader basiert, ist dem spiel vollkommen egal. die ansteuerung der hardware erfolgt über den treiber.

@eXEC-XTX: ja im großen und ganzen trifft das zu. allerdings ist es das gleiche auf seiten von nv. hier sind alle aktuellen gpu g80-basiert. damit nimmt die leistung auf beiden seiten zu, das verhältnis bleibt aber quasi gleich. ;)
 
Zuletzt bearbeitet:
Nice ATi :) Hab mir den neuen Treiber mal gezogen, den Video Converter hab ich auch mal getestet, tolle Sache!

Riesen geflame hier xD verstehe ich gar nicht, der Gegner der HD4870 ist ja die 9800GTX und die ist nichtmal im Vergleich dabei^^
Die GTX-260 war ja anfangs in einer völlig anderen Preisklasse, ist doch toll das Nvidia die Preise so weit runterdrücken musste!

Die Karten sind ja je nach Spiel etwa gleich schnell, es kommt nun halt auf die Sympathie zur jeweiligen Bude drauf an welche Karte man kauft.

@ xxxx Tolle Theorie mit den Shadern:D
 
Naja das ist etwas komisch ausgedrückt fakt ist der Nvidia Shader kann nur eine Fließkomma Zahl pro Durchgang berechnen der Ati Shader fünf Fließkomma Zahlen und wenn dies von der Software nicht genutzt wird ist automatisch die Karte die über mehr Shadereinheiten verfügt schneller.
 
Mal abgesehen das ich die getesteten Settings für "unglücklich" halte hoffe ich mal das der allgemeine ATI bash weiterhin anhält und die Preise fallen. sorry kleiner ego anflug.


@Philze

Tolles Avatar.. du meinst also das du "stark" bist weil du Intel kaufst..kicher.
Nett sagt viel über dich aus^^.
 
Lübke schrieb:
@eXEC-XTX: ja im großen und ganzen trifft das zu. allerdings ist es das gleiche auf seiten von nv. hier sind alle aktuellen gpu g80-basiert. damit nimmt die leistung auf beiden seiten zu, das verhältnis bleibt aber quasi gleich. ;)

FALSCH!?
Der GT200 ist eine deutliche Überarbeitung des normalen G80. Die einzelnen Units wurden in ihrer Funktion teils deutlich verbessert, sodass laut Nvidia pro Unit bis zu 50% mehr Leistung erzielt werden können. So ist zumindest ist mein Wissenstand, den ich mir grob beim Release der GT200-Series angeignet habe.
Die ATIs sind hingegen absolut identisch, es sind ein und die selben Units, nur in höherer Anzahl.
 
@ eXEC-XTX:
Welche Units meinst du? AMD hat bei dem RV770 sowohl die ROPs, TMUs und auch Shader DEUTLICH überarbeitet. Oder meinst du was anderes?
(Sorry, ich hatte jetzt keine Lust alle Comments durchzulesen...)
 
Zuletzt bearbeitet:
@ eXEC-XTX

Jede ALU bzw. die MUL des GT200 kann pro Takt mehr als nur Multiplikation berechnen, sprich sie wird für "General Shading" missbraucht - was auch immer nV darunter genau versteht. Real sind es aber keine +50%, da diese das theoretische Maximum sind, welches in der Praxis freilich (fast) nie erreicht wird.

@ Puscha

Die TMUs und ROPs ja, aber die ALUs? Sind imo gleich wie beim R600.

@ xxxx

Bei 1.200 FLOPS blieben im Falle der HD4870 noch 240 FLOPS über, wenn tatsächliche immer nur eine von fünf ALUs arbeitet. Eine 260-216 kommt auf theoretische 805 FLOPS, die +50% durch das verbesserte MUL sind aber praktisch nie vorhanden, eher 25-30% oder weniger. Sind wir mal optimistisch, bleiben also 535 bis 696 FLOPS. Würde eine Engine einzig und alleine nur abhängig von den FLOPS sein, wäre die 260-216 zwei- bis dreimal so schnell. Dummerweise siehts in der Realität ganz anders aus und ein 1:1-Vergleich ist auch nicht möglich.

cYa
 
Zuletzt bearbeitet:
ich verstehe iwie das mit COD 5 nicht
bei COd 4 hat die nvidia karte und ati karte weit über 80FPS im durchschnitt...aber jetzt bei COD 5 soviel weniger? Oo

so viel besser ist die grafik nun auch nicht dass es fast an das doppelte der FPS verliert...
ist COD 5 soviel mehr ein performance fresser als COD 4?

Das kann ich dir sagen, weil bei extremen Gefechten mal ganz schnell 40-50 Gegner sich da tummeln, dazu kommen noch Explosionen und jede Menge Rauch und Partikeleffekte die berechnet werden wollen, und ich red jetzt vom Singleplayer, ausserdem wird ne schnelle CPU vorrausgesetzt.;)
 
y33H@ schrieb:
Öhm ... das doppelte an Speicher ist ja wohl mehr wert (Geld wie Fps!) als dieses eine lächerliche TCP mehr. btw ist ist die 192er EOL und die 216er kostet kaum mehr als die HD4870/1GB, ist aber dezent schneller.

cYa

Ich schon wieder :D:D:D:D:D

die 260er hat annähernd den doppelten Speicher zur 512er ATI, die doppelte Speicheranbindung und müht sich trotz TwimtbP mitzuhalten ....:evillol::evillol::evillol::evillol::evillol:

... jetzt kommt bestimmt wieder .... "der geht ja auch immer der VRAM aus" .... :evillol::evillol::evillol::evillol::evillol:
 
was sie sagen wollen ist:

NV hat es leichter durch den Treiber die komplette Hardware und ihre Shader auszulasten (ja der Treiber macht das). Deswegen NV von Anfang an gute Performance wenig Zuwachs, bei ATI wird optimiert und optimiert bis alle 5D Shader möglichst gut ausgelastet werden. Gelingt mal besser mal weniger gut...

Vorteil ATI - hohe Leistungsdichte bei 100% Auslastung, Nachteil - aufwändigeres Sheduling (Verteilung der Arbeit)

Vorteil NV - 1D Shader zu 100% auslastbar, einfachere Umsetzung

Aber: Mit zunehmender Anzahl der 5D Shader (320 auf 800 war ja ein mächtiger Schritt) verhält es sich mit den 5D Shadern mehr wie mit den 1D Shadern, da 5 << 800. Haben wir irgendwann 2000 Shader so fällt es leicher hier einen guten %-Satz an Shadern auszulasten.

meine Theorie: Noch hat NV die bessere Effizienz da besser ausgelastet werden kann. Mit zunehmender Shaderzahl verschiebt sich das jedoch in Richtung AMD/ATI.

Die 5D Shader sind auch dafür verantwortlich, dass ATI über enorme theoretische Leistung verfügt, NV mit weniger Shadern und Rohleistung aber dasselbe herausholt. Noch. Wie das weiter geht weiß keiner.
Würde AMD einen 5D Shaderklotz mit der Größe einer G200 GPU bringen würde da doppeltsoviele Shader draufgehen, allerdings scheint die Leistungsdichte auch die Abwärme zu erhöhen. Vielleicht wird ein solcher Klotz einfach noch zu heiß - schließlich schenken sich G200 und R770 wenig was Abwärme angeht, jedoch hat der G200 eine weitaus größere Die - nicht zuletzt durch 65 nm, auch in 55nm noch bedeutend größer.

Punkt
 
Zuletzt bearbeitet:
@ Puscha

imo = in my opinion; meiner Meinung nach. Ah, "Bit Shift" ... da steig ich aus :D

@ styletunte

Hochtaktender GDDR5 plus 256 Bit bei einer Architektur, die (vergleichsweise) eh kaum Bandbreite frisst. Und 448 Bit samt GDDR3 bei einer Architektur, die die Weiterentwicklung einer Architektur (G92) ist, die teils an Bandbreite verhungert bzw. dadurch limitiert wird (vergleiche G80 / G92) ;) Und ja, die Radeons haushaltet ihre 512 MiByte verdammt gut, aber irgendwann mal ist halt auch der Beste am Ende^^

cYa
 
Zuletzt bearbeitet:
ja ne is klar,

was ein schwacher trost, optimierung der treiber für eine hand voll spiele.

was ist denn mit den unzähligen anderen spielen?

bei ati ist es leider nicht selten, das schattenprobleme auftauchen.

bestimmt ist die hardware top, warum versagen hier programierer und was tut das management?

schliesslich ist heute eine geschickte strategie alles, ob es die zusammenarbeit mit spieleschmieden oder eine schnelle reaktion gegenüber der konkurrenz.

der nächste hammer für ati ist die physix, leider verschlafen.

selbst wenn ati physix an sich gebracht hätte um sie zu verschrotten, hätte nvidia jetzt keinen marktstrategischen vorteil mit dieser technik.

so wird es kommen, das ein wahnsinns-shooter den jeder haben will die physix unterstützt und nvidia wieder glänzt.

schade, schade ati hat echt potential aber die mitbewerber sind eine nasenlänge vorraus,
sagt pinochio.
 
@Lübke ganz einfach wenn die Spiele nicht darauf optimiert sind die immense Rechenleistung der RV770 zu nutzen nutzt die beste Treiberoptimierung nix und da kann auch Ati mit nen neuen Treiber wenig dran ändern weil einfach der Input vom Spiel fehlt.Naja lassen wir das Thema das führt hier nur zu weiteren geflame.
 
Treiber install, Bluescreen lächerlich neues windows geht nicht ^^ respekt ati

edit habe auch mein orginal bios auf die karten zurück geflasht selbiges fehler bild ohne cf brücke leuft der treiber sobald er Cf schalten soll gehts nicht... alle cat`s bis 8.11 beta laufen alles danach nicht mehr
 
@ xxxx:

Genau.. Weil die Straße im Ar... ist, fährt sich mein Mercedes voll sch..e...

Wo holen die Leute eigentlich immer solche Argumente her?
 
Zurück
Oben