• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News ATi bestätigt: Assassin's Creed nutzt D3D 10.1

"ATi bestätigt: Assassin's Creed nutzt D3D 10.1"

Davon wird das Spiel auch nicht besser. Ich als PoP Fan finde das Game enttäuschend. :(
 
Mich verwundert es etwas, dass der Performance Unterschied zwischen DX9 und DX10 nur unwesentlich ausfällt, während DX10.1 zu DX10 so krass ausfällt. Wirklich merkwürdig.
 
@ Topic die Demo mit den Ping Pong Bällen ruckelt auf meinem Sys auch (10.1)
 
@MarcMcLane danke :D:D hab es gefunden und es steht 10.1 ;)... so viel ich weiss unterstütz das dx10.1 das Z-buffer depth. so viel ich weiss. bei ac muss man es im treiber aktivieren. unter 3D und more settings. aber genau was es bringt. kein schimmer :S:S.
aber auf meine zweite frage hab ich noch keine antwort bekommen ;). cf ist nicht unterstützt oder? also auch keine x2 ?
 
Für mich steht seit jeher fest, dass meine 7600GT erst in Rente geht, wenn es eine vergleichbar günstige und sparsame Karte mit D3D10.1 bzw. WDDM 2.1 Support gibt.

Ich fand von Anfang an, dass D3D10.0 nicht weit genug geht bzw. so eine Art Beta war, die den Chipherstellern mehr Zeit geben sollte, ihre Hardware anzupassen.
 
Also ich habe jetzt beide Versionen auf einer 8800 GTX in 1600*1200 und 1920*1440, C2D QX6800 @ 3,7 Ghz, all high getestet. Dabei sind mir folgende Unterscheide aufgefallen:

DX9:

- Multisampling kann aktiviert werden
- Umgebung wirkt teilweise etwas verwaschen (zu viel Grau oder Sandfarben)
- Manchmal Rolleffekt beim Bildaufbau im unteren Drittel (ich weiß jetzt nicht genau wie der Fachbegriff dafür lautet)


DX10:

- Grafik wirkt insg. hochwertiger, sprich die Details kommen besser zur Geltung
- Texturen sind klarer, Schatten weicher, Wolkenschatten auf Gebäuden kommen mehr zur Geltung.
- Großes Manko für nVidia-Karten Besitzer: Multisampling nicht aktiviert bar, erst in sehr hohen Auflösungen erträglich, gerate bei den Mauerkanten der Hausdächer.
- Leider häufigere crash back to desktop unter Vista als unter XP. (Da die Kiste aber OC ist, kann es auch daran liegen)


Insg. subjektiv kein Unterschied bei den FPS-Raten zwischen den DX Versionen erkennbar. Bildruckler in beiden Auflösungen keine vorhanden. Der rein grafische Unterschied hält sich aber sehr in Grenzen. Der Detailreichtum bleibt gleich.
 
BessenOlli@ Wie Beta? DX10 ist so wie es ist FINAL und die Hersteller haben genaue Vorgaben wie sie was umzusetzen haben, wenn du auf die Leistung zielst dann hat das aber mit dem DX10 part eigentlich recht wenig zu tun. Da kommt es dann auf ganz andere Dinge an die eben einen Chiphersteller ausmachen.
Besser wäre es gewesen zu sagen "Die SPIELEHersteller sollten mehr Zeit bekommen...." Aber es sind nun einige Zeit verstrichen, man sollte nun davon ausgehen endlich brauchbare DX10 Titel zu bekommen, das einzige sind die AntiVista Personen die keinen Vorsprung durch Technik wollen, sondern "das was ich kenne behalten", somit bleibt den Spieleherstellern wenig Freiraum auf DX10 zu setzen, zumal es "einfacher" zu coden ist.
Wie schon erwähnt, mit dem Chiphersteller hat das wenig zu tun, zumindest die Hardware, man könnte noch die Treiber erwähnen, aber das Spielt jetzt genauso in der gleichen Liga wie DX9.

Ein Hohn ist es dennoch eine 7600GT hier als Vergleich zu stellen, es gibt weitaus gleichwertige Karten die genauso Sparsam sind, aber schneller sind. Mit deiner Karte wirste als Zocker kaum noch Zukunft haben und falls du nicht spielst (als Argument wegen deiner 7600GT), hier geht es um Spielen ;-)

Medic@ CTD liegt aber an dir und nicht am Vista etc ;-) Ich selbst spiele zur Zeit ein Game (MMORPG leider NDA) das grafisch neue Maßstäbe setzt und das stürzt kaum ab (ist noch frühe Betastadium) und Assassine stürzt unter Vista auch nicht ab. ;-)
 
Zuletzt bearbeitet:
@ #62

Das liegt daran, dass der 10.1 Patch fehlerhaft ist und einen Renderpass auslaesst. Deshalb wird der Patch zurueckgezogen.
Also kam die Mehrleistung nur durch fehlerhafte Darstellung.
 
eine fehlerhafte Darstellung die aber niemand gesehen hat.

Im gegenteil, die Grafikqualität wurde als spürbar besser bezeichnet.

Demnach ist fraglich ob es wirklich für eine fehlerhafte Darstellung gesorgt hat oder nur für Sorgen bei einem unserer Lieblingshardwareapotheker.
 
richtig, das hätte man von seitens nvidia aber dezenter einfädeln können und wenn die unbedingt zu viel geld haben können sie das auch mir geben und DX10.1 einfach drin lassen ;)
 
Da der aktuelle Thread zum Thema DX10.1 Support wegpatchen geschlossen wurde, mal hier ein Versuch Licht für mich ins Dunkle zu bringen. Bin mal wieder zu Faul zum Lesen, aber mich würde mal interessieren ob das nun tatsächlich DX10.1 Support sein soll, oder nur verbessertes Crossfire mit SP1. Denn wenn ich das auf die Schnelle richtig überflogen hab, dann hinkt der Vergleich einer 3870X2 zu einer 2900XT gewaltig
 
Was mir dabei in's Auge springt, und wesentlich wichtiger ist als DX10.1:

Bei einer Gegenprobe auf einer GeForce 8800 GTX können wir bestätigen, dass das Anti-Aliasing an genau derselben Stelle auf einer Direct3D-10-Grafikkarte nicht funktioniert.

Soll das etwa bedeuten, ihr habt die ganze Zeit Nvidia-Karten hochgejubelt, weil sie angeblich mit AA weniger einbrechen, und jetzt erst entdeckt, daß sie gar kein AA haben?

Irgendwie logisch, daß karten mit tatsächlich aktiviertem AA langsamer laufen, wärend solche, bei denen die Einstellung nur Placebo ist, die gleiche Performace zeigen, die sie auch ohne AA haben.

Ich mein, irgendwie steht ja immer noch die Erklärung aus, wieso CMR DiRT auf einer HD3870 mit maximalen Einstellungen butterweich und flüssig läuft, wärend eine GTX einbricht und Diashows zeigt, sobald mehrere Fahrzeuge im Bild sind.

Komische Art, eine viel höhere Rohleistung zu zeigen...

...klärt mich mal jemand bei meinem Irrtum auf? Ich meine, ich lese aus dem von mir gequoteten Satz heraus, daß beim Benchen mit zweierlei Maß gemessen wird, weil eine ungeprüfte Placebo-Aktivierung von AA bei Nvidia-Karten genügt, die gar keins haben.

Konkrete Frage daher: In diesem Fall fiel es jetzt mal auf, weil es im Zusammenhang mit DX10.1 steht. Und sonst?
 
Hier ist ein schöner Artikel zum Thema bei PCGH zu finden.

@ Spirou

Unter DX10.0 glättet auch eine HD3870 an dieser Stelle nix ...
Ich mein, irgendwie steht ja immer noch die Erklärung aus, wieso CMR DiRT auf einer HD3870 mit maximalen Einstellungen butterweich und flüssig läuft, wärend eine GTX einbricht und Diashows zeigt, sobald mehrere Fahrzeuge im Bild sind.
Interessantes Gerücht :p

cYa
 
Zuletzt bearbeitet:
Eine anti dx 10.1 patch kommt für das spiel, damit nvidia "der sponsor" nicht zu dumm aussieht. Ati hat zwar die mondernere karte, aber da nvidia der puppenspieler (aller) spieleentwickler ist, sagen die wolang es geht - und den herren passt es nunma nicht, dass die ati spieler auch spaß haben. ATI müsste auch einfach mal mehr bestechen ...ich meine korru...ah mist ich verschreibe mich einfach immer wieder. Also: ATI müsste auch einfach mal mehr spenden , dann laufen die spiele auf einmal (ganz sicher nur aus zufall) besser auf ati karten.

Ich meine wie war das, nvidia hat 2,5million für assassins creed gespendet...also dann hat man eben halt auch etwas mit zu sprechen. Ist sehr schade sowas, aber so funktioniert eben das ganze system. Eine gute karte reicht alleine nicht, man muss auch die entwickler kaufen. AMD kann nicht beides machen ;) ... die haben schon genug um die ohren fliegen.
 
Zuletzt bearbeitet:
wo kann ich nachlesen das ich auch wirklich dx10.1 habe ... hab vista64 + sp1

aber bei dxdiag wird mir "nur" 10.0 angezeigt ... wo sehe ich das genau?!
 
Jaja, ist natürlich NVidias Fehler wenn der DX10.1-Pfad buggy ist und nicht alles rendert.

NV hats gar nicht nötig, die Spieleschmieden zu kaufen, ihre Karten sind atm so oder so schneller:evillol:
 
Zurück
Oben