ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Wahrscheinlich weil es eine Spezifikation für DX10 und DX11 ist dass dort SGSSAA nicht vom Treiber aktiviert werden darf:
https://www.computerbase.de/2010-04/bericht-ssaa-mit-geforce-gtx-400/3/
Anders als bei ATi funktioniert SSAA zwar nicht in DirectX-9-, dafür aber in DirectX-10- und DirectX-11-Spielen, obwohl es die API eigentlich verhindern soll, dass der Treiber die Art der Kantenglättung bestimmt.
Warum sollte denn Ati ansonsten etwas deaktivieren das in DX9 schon funktioniert hat?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=476233
Raff schrieb:
Sind euch Spiele bekannt, in denen kein SGSSAA funktioniert? SGSSAA ist dieses nette HD-5000-Feature im Catalyst Control Center, das dort "Supersampling-AA" genannt wird. Das funktioniert prinzipiell in jedem Spiel, das die Direct3D9-API und älter nutzt. Ab DX10 darf der Treiber das AA nicht mehr erweitern. Insofern lautet die Liste anfangs wie folgt.
Mir scheint eher dass Nvidia hier "aus versehen" etwas ermöglicht das sie wieder raus nehmen werden müssen.
 
Mir scheint eher dass Nvidia hier "aus versehen" etwas ermöglicht das sie wieder raus nehmen werden müssen.

Und wieso sollten sie das müssen? Wem schadet es denn? Den Spieleherstellern nicht, eher im Gegenteil (es fallen deren Texursünden nicht mehr so auf :D), was Microsoft für einen Schaden haben sollte, wüsste ich auch nicht. Mir erschiene es unsinnig, das wieder zu entfernen (wie oben schon angedeutet).
 
Hab ich doch oben verlinkt - ab DX10 ist es wohl Teil der Spezifikation. Warum sollte es denn Ati sonst raus nehmen?
 
Regeltreue? Vertragliche Verpflichtung (hoffentlich nicht, denn ich wäre für (SG)SSAA für alle)? Müsste man eruieren.

EDIT: Warum hat man denn eigentlich AA durch den Treiber unter DX10/11 unterbunden? Mit welchem Zwecke?
 
y33H@ schrieb:
Ein Bug? Vielleicht. Aber NV kann es auch einfach per nHancer laufen lassen - warum sollte man ein so geiles Feature einfach kicken? Nein, ich bezweifle massiv, dass das DX'sche SGSSAA verschwindet.

weil man den eigentlichen Modi damit nicht mehr einstellen kann. Und gerade dieser wäre für DX10/11 besser geignet, da er weniger leistung frisst und besser als gewöhnlcihes MSAA ist.


gruß
 
Fetter Fettsack schrieb:
[...], was Microsoft für einen Schaden haben sollte, wüsste ich auch nicht.
Wir reden hier von einem Standard!
Entweder es muss offiziell erlaubt oder offiziell verboten und verhindert werden.
Sonst ist das schlecht für den Wettbewerb....
Aber gut, dass Wort im Zusammenhang mit M$, ohne das M$ gemeint ist, .... :freak:
 
@JokerGermany

Wenn man es rechtlich geschickt konstruiert, wäre das meiner Ansicht nicht so sehr ein Problem

@schinzie

Man kann ja den Bug auch wo anders "einbauen" bzw. einen weiteren funktionierenden Schalter für das TSAA installieren.^^
 
Fetter Fettsack schrieb:
EDIT: Warum hat man denn eigentlich AA durch den Treiber unter DX10/11 unterbunden? Mit welchem Zwecke?
Wäre nicht das erste mal dass die Konkurrenz ein Feature das ihr fehlt aus einem Standard drückt in den Verhandlungen - und da vieles aus DX10 auf druck von Nvidia raus genommen wurde wäre ich nicht überrascht wenn sie auch dies durchgesetzt hätten zu DX10 Zeiten - diese Art und Weise es durch die Hintertür wieder rein zu schmuggeln nachdem man der Konkurrenz das deaktivieren aufgezwungen hat wäre auch nicht gerade untypisch für die Grüne Geschäftspolitik. Wahrscheinlich wollte man zeigen dass man nun dazu im Stande ist und wird es dann wieder deaktivieren um die SGSSAA Diskussionen für die Zukunft zu unterbinden.
 
@complication

Nun, das klingt schlüssig. Wäre aber trotzdem schade. Mir wäre es lieber, wenn beider Hersteller es sozusagen als "Bug" in ihre Treiber implementieren. Meinetwegen auch nur so, dass man nHancer bzw. sein etwaiges Ati-Pendant zur Aktivierung benötigt.
 
ssaa wird doch aber bei solchen gurken-karten eigentl. keine rolle spielen.

schaffen die denn irgendein spiel in brauchebaren frames?
wohl eher nicht.

mfg
 
Naja, müsste aus den CB Tests zumindest ansatzweise ersichtlich sein.
 
Lübke schrieb:
gegen die 5770 (die mein persönlicher favorit aller dx11 karten ist^^) wird in dieser generation wohl weder von ati noch von nvidia ein ernstzunehmender konkurrent kommen.

Wie soll ATI mit dieser Generation (die ja komplett erschienen ist mittlerweile) auch die 5770 schlagen? ;)
Aber vielleicht mit der nächsten. Southern Islands lässt auch nicht mehr lange auf sich warten, der September/Oktober liegt nicht allzu lange hinter dem 1. Juni. (falls da überhaupt was kommt)

Mal sehen ob NVIDIA die komplette 400er Serie rausbringen kann bevor ATI den Refresh komplett hat. :lol:

y33H@ schrieb:
"idR" und "tendenziell" sind einzig Beschränkungen, mehr nicht. Fakten bleiben es, auch wenn du sie nicht akzeptieren willst.

Ein Fakt ist eine Tatsache wie die Titanic ist (war) 269,04 m lang.
Nicht: Die Titanic war tendenziell länger als 250m.

Aber das nur am Rande ;)

Im Prinzip weiß ich ja, dass du absolut objektiv bist, wobei mich aber deine Treiberstory ("NVIDIA tendenziell mit weniger Problemen") vom Gegenteil zu überzeugen versucht ;)
 
Zuletzt bearbeitet:
sieht man ja auch...
wenn die gtx480 teilweise grenzwertige frames abliefert, dann kommt es für alle karten unterhalb der 470er nicht in frage und ist KEIN verkaufsargument.

mf
 
die.foenfrisur schrieb:
wenn die gtx480 teilweise grenzwertige frames abliefert, dann kommt es für alle karten unterhalb der 470er nicht in frage und ist KEIN verkaufsargument.
endlich mal einer der seinen kopf einschaltet bevor er was postet. was für ein gedöns hier um ssaa unter dx10/11 gemacht wird, egal von wem, ist mir unbegreiflich. am besten drehen wir noch das komplette featureset von dx10/11 inkl. tesselation bis auf anschlag :rolleyes: in auflösungen >=1650 braucht man mit karten unter der 5850/470 doch eh nicht ankommen.
 
ssaa wird doch aber bei solchen gurken-karten eigentl. keine rolle spielen.

schaffen die denn irgendein spiel in brauchebaren frames?
wohl eher nicht.
Ältere Spiele bzw. mit niedrigen Leistungsanforderungen schon.

BTW
Wenn ich mich errinne meint Schaffe89, dass MW2 mit 8*SGSSAA auf seinem Midrange CF gut laufen soll.

edit:
Im Prinzip weiß ich ja, dass du absolut objektiv bist, wobei mich aber deine Treiberstory ("NVIDIA tendenziell mit weniger Problemen") vom Gegenteil zu überzeugen versucht
Weniger Treiber= weniger Probleme "absolut" gesehen
Ati= mehr Treiber = absolut mehr Probleme
 
@screemer

Ich hatte deshalb für ein Beibehalten des SSAA plädiert, weil dies ja dann nicht nur bei der GTX4XX möglich wäre, sondern auch bei den Nachfolgern, die ja wohl leistungsmäßig ein Schäuflein nachlegen werden (war bis jetzt ja noch immer so, wie ich meine). Da wäre es dann schon besser nutzbar. Dahingehend habe ich das gemeint. :-)

@airbag

Wegen der Treiber: Irgendwie finde ich, dass diese Probleme doch gemessen an der absoluten Nutzerzahl eher recht gering sind, schließlich bekommt man ja nur von Leuten, die Probleme haben, einen Post zu Gesicht, es würde ja kaum einer posten: "Juhuu, mein Treiber läuft ohne Probleme"^^. Insofern würde ich fast so weit gehen und die Sache nur auf die etwaigen Kompatibilitätsprobleme mit manchen Spielen beschränken (wobei das auch meist an den Spieleherstellern liegt).
 
Zuletzt bearbeitet:
das ist natürlich zu befürworten. ich bezog mich ja aufs aktuelle geschrei und gejaule. ssaa unter dx10/11 sie der große wurf und und und. die zukunft ist wiederum ein anderes thema. dafür müssen aber probleme wie matschiges bild, grafikfehler, etc. pp beseitigt werden :) mal schaun was ati macht. ich könnte mir durchaus vorstellen, dass da irgendwann auch mal son bug durchs qm "rutscht".
 
Als Bug gibt es dann richtiges HQ -AF:D

@fetter Fettsack
Finde ich auch so.
Auf die große Masse gerechnet und somit relativ ist es sicherlich nicht mehr und nicht weniger als bei Nvdia.
Obwohl es mich manchmal wirklich stört dass CFAA bei vielen Spielen die ich ab und zu spiele nicht unterstützt wird.
 
@screemer

Genau, wie ich es oben schon erwähnt habe, wenn beide diesen Bug aus "Versehen" im Treiber haben und ihn halt "leider" nicht beheben (wollen^^), dann wäre das wohl die beste Konstellation. Bei Midrange dreht man halt dann die Auflösung und die Ultra Details (überspitzt Formulierung) herunter und man hat auch zumindest ein bisschen SSAA und bei Highend kommt man dann eben in einen höherqualitativen Genuss. Fände ich wie gesagt am sinnvollsten und fairsten.

EDIT:

Als Bug gibt es dann richtiges HQ -AF :D

Das wärs :D.
Das könnte ich sogar auf meiner 4670 verwenden *gröhl*.

@screemer

dafür müssen aber probleme wie matschiges bild, grafikfehler

Die liegen aber auch häufig an den Spieleherstellern, die matschige Texturen verwenden bzw. mit Gittermodellen ihr Schindluder treiben. Und Grafikfehler, nun, ich kenn die nur, wennman sich zu sehr dem OC widmet ;-) .
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Im Prinzip weiß ich ja, dass du absolut objektiv bist, wobei mich aber deine Treiberstory ("NVIDIA tendenziell mit weniger Problemen") vom Gegenteil zu überzeugen versucht
Danke.

Wenn ich mir aber anschaue, was mit FC2, GTA4, Shift, Saboteur oder Anno 1404 abging - in dem Maße gibt's das bei NV schlicht nicht. Ob da AMD oder der Dev am Ende schuld ist, ist für den Radeon-Enduser egal, denn er muss mit schlechter Performance, Freezes oder Grafikkfehlern leben bis AMD oder der Dev ein Update bringt.

@ Screemer

Zum Thema Kopf einschalten: Ich habe mehrere Spiele benannt, die unter DX10/11 exzellent performen und in 1680 selbst bei halber GTX480-Leistung noch mit 4x MSAA + 2x SGSSAA passabel bis problemlos spielbar sind. Etwa Resident Evil 5 oder Anno 1404 oder Far Cry 2 oder Red Faction. Ergo ist die Behauptung "in auflösungen >=1650 braucht man mit karten unter der 5850/470 doch eh nicht ankommen" schlicht Unfug :rolleyes:
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben