News ATi mit OpenGL Treiberverbesserungen

@20 dein name passt zu dir...
nur so nebenbei die x1000er sind gerade erst draußen, da steckt noch unheimliches tuningpotential...

und noch was... ab 30 fps wirkt das bild flüssig, dass es etwas ruckelt wird man aber immernoch sehen können.
 
und was war beim letzten angekündigten Mega treiber von ATI wo 20% mehr performance da sein sollten war ne lach nummer. Wir werden ja sehen am ehesten ist am ende nen unterschied von einem frame oder weniger.
 
Eigentlich hört sich ja gar nicht mal so schlecht an. Aber nen bissel zurückhaltend sollte man sein, denn die Frage ist ja, ob bei den hohen Auflösungen, dann nich doch der RAM der Graka limitiert. Dort hat ja die 7800 nen bissel weniger. Also lieber auf Benchmarks vertrauen, wo beide Karten, sie sehr ähnlich sind und dann Schlüsse ziehen.

MfG Micky
 
bist wohl nen ATi fan sonst kann ich mir deine Áussage net erklären. ATi hat mit hl2 genau das gleiche gemacht wie Nvidia mit doom3 und ich weiß was ich sage denn ich spiele hl2 in directx 9 mit allen details flüssig mit ner fx 5900. So ist nunmal die moderne MArktwirtschaft wenn de schon net besse bist versuch den gegner schlechter zu machen.

Und zu meiner aussage das die Qualität schlechter wird. Ich habe noch nie gesehen das ein Spiel um 35% schneller lief nur weil nen neuer Treiber kam der optimiert ist. Bisher war das allerhöchstens ma 5% aber keine 35%. Also ziehe ich daraus das da was an der Qualität gemacht wurde. Aber wen interessiert eigentlich ob er 60 oder 70 frames in einem spiel hat? ab 30 fps kann man schwer nen unterschied sehen und bei 60 oder 70 erst recht net.


Da geb ich Dir völlig Recht. Nein ich bin kein ATI-Fan, hab mir gerade eine 7800GTX bestellt. Nur das was id-Software mit Doom3 macht hat für den Spieler keinen Vorteil ! 32bit genaue Pixel bringt optisch NULL ! Warum wird es dann erzwungen ? Massiver Shadergebrauch in HL2 bringt was, das sieht jeder der ne ATI hat, es ist wesentlich schöner, dabei aber nicht langsamer. Das Prinzip ist schon das selbe, nur wenn dabei was für den Spieler rauskommt, dann finde ich es in Ordnung und die Schwäche des Gegners wird aufgezeigt. In Doom3 wird nicht die Schwäche des Gegners aufgezeigt sondern die Schwäche des eigenen vertuscht. Waum muss sich nvidia-Hardware sonst hinter Tricks verstecken die keinem was bringen ausser nvidia ?!

An die 35% glauben in der Tat nur kleine Kinder, da gebe ich Dir völlig Recht. Allerdings ist der OpenGL-Treiber so mies, dass durchaus auch mal 10% drin sein könnten. Was mies ist kann leicht bedeutend verbessert werden !

Ich sehe übrigens auch zwischen 50 und 60 frames einen Unterschied, ich sehe ihn auch zwischen 60 und 80 ! Das glaubte mir am Anfang auch keiner meiner Kumpels, mittlerweile haben alle akzeptiert dass ich den fps-Blick habe und mich bereits 50fps massiv stören ! Ich brauche absolut flüssiges gameplay deutlich oberhalb von 60fps. Wenn es immer konstant 60 oder mehr sind ist es in Ordnung.
 
bringt ati eigentlich irgendwann mal den versprochenen neuen opengl kern?
der opengl treiber von ati ist misst, das wissen die selbst, deswegen haben sie ja angekündigt mal nen neuen zu machen. bisher hat sich aber leider nichts getan(wie zu erwarten?).
aus diesem treiber 10% rauszuholen ist daher kein problem. man könnte auch noch wesentlich mehr rausholen.
diesen schlechten kern merkt man nicht nur in linux, sondern auch in osx wo der ati treiber mehr probleme macht als der osx eigene. ich spiele unter osx 4 spiele wovon 2 grafikfehler haben.
diese grafikfehler sind ati bekannt und werden trotzdem nicht gefixt(es steht nur ne nette liste mit den spielen in der readme).
deshalb wünsch ich mir immernoch ein powerbook mit nvidia grafik *träum*
 
War irgendwie klar, dass sich da wieder einige übel drüber "aufregen" müssen. Zuerst wird gemeckert weil die Karte zu langsam ist, was auch mit dem Betatreiber zusammenhängt und kaum wird angefangen zu optimieren verdrehen manche die Tatsachen. :lol:

Warum sollte sich ATI nun den guten Ruf mit weitgehend Winkelunabhängigen AF, also überlegener Bildqualität kaputt machen und daran was ändern? Das ganze ist noch viel absurder, wenn man bedenkt, dass man mit dem Fix eine NV Bastion angreift. Keiner nimmt es ATI übel, wenn man da langsamer als NV ist. Umgekehrt bei HL2, jeder hat sein eigenes Revier bei dem sich der andere schwer tut.

Übrigends: Doom3 unterstütz kein SM3.0 und einen Unterscheid zwischen 50 und 60 Fps zu sehen ist rein physisch unmöglich. Das einzige was man sieht sind die Schwankungen in den Min-Fps bereicht, bei dem die Fps je nach Szene unter 30 Fps fallen und somit als ruckelig empfunden werden. Je höher die Avg-Fps desto niedriger die Wahrscheinlichkeit das man in solche Bereiche kommt.;)
 
Und solange ATI keine vernünftigen Treiber für Linux schreiben werde ich sie nicht kaufen...da können sie unter windows meinetwegen 5x schneller als ne Nvidia sein. Aber ganz ehrlich gibt mir die meldung hoffnung OpenGL = OpenSource
 
ohh man...
es sind wirklich 32% (zumindest in Doom³)
denn die angaben sind nicht von ATi sondern von Hexus gemacht worden, anhand eines echten Systems
 
Ich mecker ja gar net ich finds sogar gut das die sich net auf die faule haut legen und abwarten.

Ich spiel immernoch mit meiner fx 5900 und ob ixh jetzt 100 fps oder 60 hab merke ich zumindest net außer in rennspielen da ist da schon nen unterschied.


Ich hoffe Nvidia zaubert auch noch so nen triber aus dem Hut aber ich glaube es net. Meine nächste graka wird eh erst eine für directx 10 oder wgf 1.0 und wenn sich dann ma was an den treibern getan hat bei ati werd ich mir vielleicht nach 5 Jahren wieder ne ati kaufen.
 
Der_MOB schrieb:
...Warum sollte sich ATI nun den guten Ruf mit weitgehend Winkelunabhängigen AF, also überlegener Bildqualität kaputt machen und daran was ändern? ...
Bitte was? Seit wann soll es denn bei ATI "weitgehend winkelunabhäniges AF" geben? Einmal in meine Signatrur blicken, bitte! Dass Nvidia den Scheiß mit der GF 6 dann auch eingefüphrt hat äbndert nichts daran, dass es auch bei ATI bis heute so gerendert wird. ;)
Ü
Der_MOB schrieb:
...brigends: Doom3 unterstütz kein SM3.0 und einen Unterscheid zwischen 50 und 60 Fps zu sehen ist rein physisch unmöglich. Das einzige was man sieht sind die Schwankungen in den Min-Fps bereicht, bei dem die Fps je nach Szene unter 30 Fps fallen und somit als ruckelig empfunden werden. Je höher die Avg-Fps desto niedriger die Wahrscheinlichkeit das man in solche Bereiche kommt.;)
Damit liegts du falsch, denn erstmal hängt es von dem was zu sehen ist ab, auch mit welcher Geschwindigkeit Abläufe ablaufen, mit wie vielen fps ich das sehen sollte und dann kommt dazu noch der Umstand, dass in Videospielen mit zunehmender Darstellung schnellerer Abläufe die Framerate sinkt - es ist also genau dem entgegengesetzt, was das menschliche Sehsystem braucht. Was die Rezeptoren physisch alles verarbeiten können weiß ich nicht, aber du ganz sicher auch nicht, auf jedenfall dürfte es ein vielfaches von dem betragen was du annimmst. 30 fps reichen bei langsamen Abläufen gerade so aus, mit dem Fehrnsehen ist das aber nicht vergleichbar, da dort durch die analoge Aufnahme immer ein natürlicher Bewgungsunschärfeeffekt vorliegt, der bei Renderbildern nur auftauchen würde, wenn er, wie bei großen Hollywood-Animationsfilmen seit dem Film Ants (erster Hollywood-3D-Animationsfilm, ein Jahr vor Toy Story, der deutsche Titel ist mir gerade nicht bekannt) künstlich berechnet wird - dieser Bewegungsunschärfeeffekt führt zu einer deutlich flüssigeren Wahrnehmung. Schnelle Abläufe sind erst mit 50 und mehr Bildern pro Sekunde flüssig wahrnehmbar, deswegen siehst du im IMAX eben nicht nur die größere Auflösung von dort 1920*1080 Bildpunkten, sondern auch, und das ist gerade bei den IMAX-Filmen sehr wichtig, 48 fps (wegen Anpassung an alte Filmtechnik, der Film läuft doppelt so schnell wie normales Kino). Der Nachfolger UHDV wird grundsätzlich auf 60 fps setzen. ;)
 
@ripchen
pass mal auf was du hier für einen ton anstimmst
woher weisst du das ati nur am speicherinterface optimiert hat?
arbeitest du bei ati, so dass du alles weist?
du erhälst infos von einem herstller und glaubst alles direkt


und jetzt sag mir mal wo ich die 2 dazuaddiert habe, bei einer gleichung die du nicht einmal kennst


zu doom3:
das ist ja wohl lachhaft
der rückstand von ati beruht auf mangelhafte opengl treiber, was sie ja jatzt verbessern wollen
denn nicht nur bei d3 sehen die ati kein land, sondern ebenso bei zB cod1&2 und chronics of riddick

@mountwalker
https://pics.computerbase.de/1/3/7/1/4/44-1080.878765530.jpg#
naja für mich ist das wirklich fast winkel unabhängig
EDIT: https://www.computerbase.de/2005-10...und-x1300/8/#abschnitt_aa_und_af_kontrolliert
man kann die bilder irgendwie net direkt verlinken
oh geht doch ^^
 
Zuletzt bearbeitet:
MountWalker schrieb:
Bitte was? Seit wann soll es denn bei ATI "weitgehend winkelunabhäniges AF" geben? Einmal in meine Signatrur blicken, bitte! Dass Nvidia den Scheiß mit der GF 6 dann auch eingefüphrt hat äbndert nichts daran, dass es auch bei ATI bis heute so gerendert wird.

CB schrieb:
Als wir den Quality-Modus aktivierten, trauten wir unseren Augen – oder eher gesagt dem AF-Tester – nicht: Der R5x0-Chip bietet wieder eine winkelunabhängige Filterung, was es bei ATi noch nie und bei nVidia seit dem NV35 nicht mehr gegeben hat!

Das ist Fakt und Du wirst keine Seite finden auf der das Gegenteil behauptet wird!:D

MountWalker schrieb:
Damit liegts du falsch, denn usw..

Das klingt sehr einleuchtend, zumal das erklärt, warum man bei Strategiespielen keine hohe Framerate für flüssiges Spielen benötigt. :) Man lernt schließlich nie aus!

bensen schrieb:
der rückstand von ati beruht auf mangelhafte opengl treiber, was sie ja jatzt verbessern wollen
denn nicht nur bei d3 sehen die ati kein land, sondern ebenso bei zB cod1&2 und chronics of riddick

Nun ja, bei CoD1 ist es wohl herzlich egal, CoD2 nutzt doch kein OpenGl mehr(?)(außerdem dachte ich, dass hier die XT vorne sei) und bei Riddick hat man immerhin auch noch 16% rauskitzeln können.
 
Laut 3DCenter ist Doom 3 sehr gut auf Radeon Karten optimiert. Auf die Frage, warum der Rückstand dennoch so groß ist gab es folgende Antwort (Ausschnitt)

Die erste Idee wäre also, dass John Carmack besonders gut auf GeForce-Karten und insbesondere auf die GeForce 6800 Serie optimiert hat und das Potenzial der Radeons dabei nicht ausschöpfte. Dies ist jedoch objektiv falsch. Wie wir noch sehen werden, hat John Carmack eine Glanzleistung vollbracht, was die Optimierung auf Radeon-Karten angeht.

Und Ja, CoD2 nutzt OpenGL.

Warum fragst Du das so misstrauisch? Du lässt es so aussehen, als wäre OpenGL der letzte "Dreck". Eine Programmiersprache, die man im Mittelalter verwendete :)

So und nun zu den 16 % in "The Chronicles of Riddick" ^^

Die sind wohl bitter nötig, denn unter 1600x1200 4x AA - 8x AF ist die X850 XT PE schneller als die X1800 XT.

Siehe ComputerBase
 
Zuletzt bearbeitet:
OpenGL wird ja auch immer unwichtiger (natürlich auch dank MS) aber es ist Fakt. Von 10 Top Spielen basiert höchstens eins auf openGL, übrigens finde ich deswegen den Benchmarkparcours von Computerbase sehr unausgewogen.
Was ich auch immer mehr merke: Die Nvidia Fanboys versuchen krankhaft die x1800xt schlecht zu reden, merken aber dass sie in fast allen Belangen (bezogen nur auf Gamer) besser als die GTX ist.

Außerdem COD2 basiert auf Direct3D und liegt des Weiteren der neuen ATi besonders gut. http://www.driverheaven.net/reviews/r520reviewxvxv/COD2.htm
Sobald die XT verfügbar sein wird, ist der neue Treiber draußen und man könnte ein neues Review machen.
 
Achso bei cod ist es also auf einmal egal welche schneller ist, ist ja auch egal auf jedenfall schön das ati noch arbeitet.

zu dem das der x1800xt schneller ist bedenkt ma der ist nen halbes jahr später gekommen wenn die ultra kommen sollte siehts wieder anders aus und für die meisten von uns ist eh nur die Grakas bis 200€ interessant und da ham beide nic gescheites find ich.

naja unwichtig finde ich opengl net (doom, quake, wolfenmstein, dit neue enemy territory,...) also alle spiele von id setzen darauf und ich find die sehen sehr gut aus diese spiele die einzigste enginge die noch besser ist ist die cry enginge die ist in allem gut
 
Zuletzt bearbeitet:
noob@work schrieb:
Achso bei cod ist es also auf einmal egal welche schneller ist, ist ja auch egal auf jedenfall schön das ati noch arbeitet.

CoD basiert AFAIK auf der Quake3 Engine und darauf werden keine zukünftigen Spiele mehr basieren. Außerdem sind die Fps so hoch, das der Unterschied völlig egal ist.

KonKorT schrieb:
Warum fragst Du das so misstrauisch? Du lässt es so aussehen, als wäre OpenGL der letzte "Dreck". Eine Programmiersprache, die man im Mittelalter verwendete

Weil CoD2 ja auch auf Konsolen erscheinen soll und ich nicht glaube, das MS OpenGL auf seiner XBox laufen lassen wird. ;) :rolleyes:
 
@der_MOB
ich hab cod auch nur als ein beispiel für opengl-games ausgesucht um zu zeigen das ati bei allen opengl games abkackt(bis auf cod2, falls es eins ist) und es nicht auf bevorzugung vin nv-karten bei doom3 beruht
 
@Schorsch

Stimmt daran hab ich jetzt nicht gedacht, aber ist doch so, dass OpenGl Spiele auf Konsolen eher selten sind, oder?

bensen schrieb:
...um zu zeigen das ati bei allen opengl games abkackt

Wohl wahr.:)
 
Zurück
Oben