• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Assassin's Creed bekommt kein D3D 10.1 mehr

@ turrican: man sollte nicht verallgemeinern, es gibt sehr viele zocker mit vista. vor allem, seit dem die leistungen vergleichbar geworden sind.
und immer mehr wollen auch mehr als 4 GB ram, da greift man eben zu vista

@ omg unyu, les erst mal n paar meinungen hier, bevor du wieder unqualifiziert deinen sanf dazu gibts, nvidiafanboy nr1.

dir könnte nvidia echt noch in der sahara n sack sand verkaufen, du wärst glücklich, wenn nvidia draufsteht *g*
 
1. Die Liste der TWIMTBP Spiele ist sehr lang, da kann nvidia nicht so viel für ein einzelnes ausgeben
2. Fehler. .1 und weglassen von Effekten ergibt die Steigerung auf den normalen Abstand zu Nv.
3. Ja und? Wozu auch? Was hat das damit zu tun? Falscher Fred?
4. Nvidia macht bei AC so viel Werbung wie bei jedem anderen TWIMTBP Spiel.

Das ist nichts!
Pure Verschwörungstheorie ohne Belang, zusätzlich vermischen AMD Fans wie cosmicparty noch völlig andere Lügen damit, um es aufzupushen.

Schonmal überlegt wie unnormal es ist so lange nach Release Patches zu liefern? Irgendwann ist Schluss.
 
Zuletzt bearbeitet:
@Turrican101: naja einige fanboys suchen nen grund warum "ihre" ati nicht die schnellste ist und schuld sein muss der tod-feind nvidia, ist doch klar. ;)
wenn der bauer nich schwimmen kann, liegts an der badehose...
dass nvidia vllt im moment wirklich etwas schnellere karten baut, ist einfach undenkbar. darum sucht man verzweifelt nach "beweisen" für eine verschwörung :D
hat man ja auch schon gefunden: in crysis ist nvidia besonders stark, ergo haben sie crysis bestochen dass die ati sabotieren. kann ja nicht wirklich sein dass nvidia in einem spiel besser abschneidet, wenns andersrum läuft und ati besonders gut skaliert hat das dann aber nichts mehr mit bestechung zu tun, sondern dann ist es weil die einfach besser sind.
und jetz haben sie ja wieder den ultimativen beweis für eine weltverschwörung gegen die gute ati gefunden: ac hat keine dx10.1 unterstützung implementiert, was zwar auch nie angekündigt war, aber sie haben ja damit experimentiert. einzig mögliche schlussfolgerung: die diabolische führung vonn nv hat ubisoft gekauft damit sie ihre experimente für ein längst vermarktetes spiel einstellen :D

würden die nvidia-fanboys allerdings genauso machen. immer die schuld beim "feind" suchen...
 
@ Lübker : Das sehe ich genauso. Hier sind wieder die Hobby Mulder und Scullys unterwegs um die Welt von der großen grünen Bedrohung zu warnen :) . Lustig ist es dennoch anzuschauen - zumal der verbugte DX10.1 Renderpfad davon auch nicht zurück ins Spiel kommt.
Erinnert mich irgendwie an jene welche heute noch sagen DX10 unter XP sei kein Problem aber nicht kapieren wollen das ihnen dieses verwässerte Halbwissen überhaupt nichts nützt (da der Zug abgefahren ist) ;) .
 
@Lübke: Crysis IST die nVidia-Tech-Demo, das ist so, sagen die Herren selber. ;) Aber davon ab, grundsätzlich nix gegen z.B. die GF 8800-Serie von nVidia, die waren überirdisch. Alles, was von nV danach folgte (GF9) ist aber eher halbgar. Bei ATi war die HD2k fürn Eimer, da lass ich auch kein gutes Haar dran. Die HD3k ist aber aller Ehren wert... da hat man konsequent Fehler beseitigt und neues hinzugefügt. Nur um das zu klären.

@Unyu: Puh, ich versuch's nochmal ganz geduldig.

1. Rrrrrrrrrichtig, die Liste ist lang, nur eins unterstützte bisher DX 10.1, das war Assassins Creed. Alles war schön, bis es bekannt wurde, dann wurde es herausgepatcht, weil es einen ominösen Fehler (von dem es keinen Screen gibt) hatte. Man versprach die Reimplementierung nach der Fehlerbehebung. Kommt aber nicht. Jetzt fragt sich: Warum nicht den Fehler beheben und gut? Seit wann nimmt man einen kompletten Renderpfad aus einem Game, nur um einen Fehler zu beheben? Na?

2. Na, dann zeig mir mal einen Screen, wo die Effekte fehlen. Und zeig mir EINEN hier im Forum, der AC mit Dx 10.1 gezockt hat, der bestätigt, daß auch nur EIN Effekt fehlt. Dürfte schwer werden.

3. Wozu auch? *lol* Unyu, DX 10.1 bietet neue Möglichkeiten, es bringt das, was DX 10 bringen sollte -> mehr Leistung bei verbesserter Qualität. Keinesfalls falscher Fred, gehört hier mit rein. Ich WETTE, hätte GT200 DX 10.1 wäre selbiges *schwupps* schon wieder bei AC drin.

4. Ja, aber kein anderes TWIMTBP-Spiel hatte DX 10.1. Betonung auf HATTE.
 
Zuletzt bearbeitet:
0. Die mangelhafte Texturleistung wurde bei HD3 nicht gefixt. Aber es gibt ja AI.

1. Fehlende Effekte, die die Performance verbessern sind schon fein.
2. http://rage3d.com/articles/assassinscreed-addendum/index.php?p=2
2,5. Stimmt, so etwas gibt man hier nicht gerne zu.
4. Es gibt überhaupt kein anderes Spiel mit .1. Warum setzt sich AMD nicht mal durch? Könnten ihr ach so tolles .1 mal kräftig pushen.
Solange habe ich recht, das .1 nichts bringt.
5. Dafür gibts bei AC und .1 kein AF. http://forum.beyond3d.com/showthread.php?p=1149155#post1149155

6. Haben die AMD Fans damals bei SM3 auch geheult? Übrigens SM3 ist ein weitaus größerer Schritt gewesen als .1 und oh Wunder es gab sogar Spiele dafür, bevor es ATi Hatte.

Was ist jetzt mies? AMDs Produktsupport oder AMDs Marketing oder Ubisofts Patchpolitik?
 
Zuletzt bearbeitet:
4. Es gibt überhaupt kein anderes Spiel mit .1. Warum setzt sich AMD nicht mal durch? Könnten ihr ach so tolles .1 mal kräftig pushen.
Solange habe ich recht, das .1 nichts bringt.
10.1 wird sich nur aus einem Grund nicht durchsetzen: Weil Nvidia auf stur schaltet. Mehr nicht.
Außerdem hat Nvidia mehr Geld für Marketing übrig, was bekanntermaßen in der EDV das wichtigste überhaupt ist.

In der EDV-Technology setzten sich leidergottes oft nicht die besten Produkte durch.
OS/2 war WIndows (bis Windows95) weit überlegen, dennoch hat es sich nicht durchgesetzt.

Mit BlueRay hat ein schlechteres Format gewonnen.

Auch das BTX Format konnte sich nicht ggb dem ATX Format durchsetzen.

Nvidia ist eben nicht in der Lage Dx10.1 richtig zu supporten, deshalb haben sie die FLucht nach vorne angetreten.
Das ist aber wirklich kein Beweis das Dx10.1 nichts bringt. Eher der Beweis das Nvidia unfähig war diese Schnittstelle rechtzeitig zu supporten.
 
Zuletzt bearbeitet:
kisser schrieb:
CB sollte mal besser recherchieren, denn der 10.1 Pfad ist definitv fehlerhaft (bei Nutzung von AA), das ist ein Fakt.

Und das wurde mittlerweile auch von ATI bestaetigt:

http://rage3d.com/articles/assassinscreed-addendum/index.php?p=2
Wo sind die Fakten? Hast du dir den Artikel überhaupt mal vollständig durchgelesen? ATI hat hier noch überhaupt nichts gesagt, geschweige denn irgendetwas bestätigt.
Der einzige Fakt hier ist, dass mit D3D10.1 und AA kein Staub angezeigt wird. Ist das eigentlich bei D3D10.0 anders? Aber mal abgesehen davon, sind Leistungssteigerungen nicht auch ohne AA zu verzeichnen gewesen? Und die Bildqualität scheint mit D3D10.1 auch besser zu sein, gerade was die Beleuchtung betrifft. Da scheint es eher noch mit D3D10.0 Probleme zu geben. Dazu auch folgende Spekulation aus deinem verlinkten Artikel.
What's odd is that the way the 10.1 renders is identical to the way DX9 renders, with DX10 being the outlier. Given the fact that other GPUs display a similar pattern(DX9 being brighter than DX10), and collaborating that with UBi's statements that rendering between the paths should in theory be equal visually, it looks likely that there's actually a bug with the DX10 pathway itself, that is fixed in the 10.1 one-assuming that the way DX9 renders is the look the devs are looking for.

BigChiller schrieb:
Mit der Aussage, AC sei ein plattformunabhängiges Spiel wäre ich persönlich lieber vorsichtig.
Dir ist der Unterschied zwischen Multi-Plattform und plattformunabhängig aber schon bewusst, oder?

BigChiller schrieb:
Ob mit DX10.1 Neuerungen, Vorteile oder auch Nachteile in die jeweilige Software einfließen, hängt nicht nur von der Wahl einer gewissen Version einer API ab, sondern auch direkt davon, was letztenendes im Quelltext geändert wurde. Die Besonderheiten einer API oder generell von Bibliotheken bringen einem nichts, wenn man diese nicht verwendet. Wir stehen bei AC nun dem Problem gegenüber, dass wir die Quelltexte nicht kennen und somit ist eine absolut objektive Aussage keinesfalls möglich. Es kann bei einem anderen Entwicklungszweig durchaus ein Fehler auftreten, der in anderen Abzweigungen nicht auftritt und somit ungeachtet von verwendeten Schnittstellen gewisse Änderungen schafft. Wenn die Entwickler nun behaupten, solch etwas sei genau vorgekommen, dann klingt das durchaus plausibel und sogar gängig, dass solche Testzweige temporär oder dauerhaft geschlossen werden. Überprüfen können wir es wie gesagt aber nicht, das ist den meisten jedoch sowieso egal. Es geht ihnen nur um ihr "vielgelobtes" DX10.1, um welches sich zur Zeit der ganze Trubel dreht. Dabei sind viele bereit komplett auf Objektivität zu verzichten.
Ich bezweifle außerdem stark, dass die meisten genau wissen, welche Änderungen in DX10.1 Einzug gehalten haben. Ich weiß es ebenfalls nicht, ich arbeite prinzipiell mit OpenGL. Umso erstaunlicher ist es, wie weit sich einige aus dem Fenster lehnen.
Du erzählst viel, sagst aber nichts. Dass die Umsetzung den meisten hier egal ist, dürfte doch klar sein. Augenscheinlich ist, dass mit D3D10.1 ordentliche Leistungsgewinne erzielt wurden und dabei die Bildqualität besser ist im Vergleich zu D3D10.0. Daher darf man sich ruhig fragen, warum der D3D10.1 Renderpfad nicht gefixt wurde, sollten tatsächlich Fehler vorhanden sein bzw diverse Effekte nicht angezeigt werden. Es ist daher schwer zu glauben, dass nVidia und TWIMTBP rein gar nichts damit zu tun hat. Solche Spiele sollen ja für nVidias Hardware optimiert werden, und nicht für die der Konkurrenten.
 
Zuletzt bearbeitet:
@FortissimoIV: jap das die geforce mit crysis sehr gut skaliert ist denke ich mal unbestritten. aber das problem ist dass einige es immer darauf schieben, dass ati sabotiert worden wäre und das ist mal definitiv frei erfunden. wie mit dem bauer und der badehose halt. ati hat auch seine spiele in denen es hervorragens skaliert (age of conan z. b.) da behauptet doch auch keiner das läge daran, dass die nv sabotieren. obwohl nv da wirklich schwächelt.
und der zusammenhang zwischen ac und nvidia besteht einzig und allein in der tatsache, dass beide kein dx10.1 verwenden. intel übrigends auch nicht ;) und die haben ja viel mehr geld als nvidia zum leute bestechen. und intel hats auch viel nötiger aufzuholen. warum verdächtigt die keiner was damit zu tun zu haben? :D
dass die api probleme verursacht haben könnte und vllt zu reklamationen geführt hätte oder hat ist für einige anscheinend undenkbar... vllt ist der fehler nichtmal bei verwendung von dx10.1 aufgetreten sondern hat zu problemen im code allgemein geführt. das mit bildfehlern zu be- oder wiederlegen ist ziemlich kurzsichtig...
 
Zuletzt bearbeitet:
0: Zustimmung, Unyu. ^^

1. WELCHE fehlenden Effekte? Und auf die Fragen in meiner letzten Antwort hast Du nicht reagiert.
2. Ich zitieren an dieser Stelle mal das Ergebnis, zu dem Rage3D kam:

"Conclusion

Did we find the glitches that everyone has been talking about when making reference to the 10.1 path? In a way - we do have that missing dust that qualifies for that category, albeit we don't know yet if it's simply a driver bug or something wrong with the pathway itself. Other than that, there's the more intense lighting, but that actually seems to show that there's a bug with the DX10 pathway, given the fact that DX9 has the same, more intense, lighting as 10.1, and UBi said that 9 and 10 (and by extension 10.1) should be nearly identical visually (shadowing is different between versions).

The good news is that the dust-bug affects only a few scenarios and that, after testing with a run through Acre that avoids any areas which include the troublesome dust, we've determined that the performance benefits associated with 10.1 remain: it wasn't a case of the missing effect causing the performance improvements. This means that you can safely enjoy running your game through the DX10.1 pathway without fear that you're getting worse IQ (you'll be missing some dust, at least for now). More importantly, perhaps, the dust-bug fix should be trivial to implement - perhaps UBi, in light of recent interest with regards to the 10.1 path, will opt for fixing it right away as opposed to disabling the pathway just to re-enable it at some later undetermined point in time. From our perspective, this would certainly make the most sense. Rest assured that all further info on the topic will be presented as it becomes available to us."

Nein, ich übersetze es nicht. Ich denke, Unyu, Du kannst englisch.

3. Geht doch. ;)
4. Okay, lass ich mal so stehen. Zumindest markttechnisch gesehen. TECHNISCH seh ich das anders.
5. Interessant... muss mal lesen... ^^

6. Jup, ich hab geflucht. Und die Nutzer einer Radeon X haben jetzt die Quittung dafür. ;)

AMDs Produktsupport krankt an finanziellen Möglichkeiten. AMDs Marketing ebenfalls. Ubisofts Patchpolitik ist zum Kotzen. nVidias Marketingmethoden allerdings auch. Noch viel mehr in meinen Augen.

@bartio: Ich weiß. Aber vielleicht kann man ihm wenigstens ZUGESTÄNDNISSE abringen. *lol*

Edit: @Lübke, naja, von Sabortage spreche ich beim besten Willen nicht, ich beziehe mich bei sowas auch NUR auf Crysis, denn da hat nVidia aktiv mitprogrammiert. Nicht GEGEN ATi, sondern FÜR die GF8.
 
och lübke, les den artikel, wennste den net verstehst kann ich dir auch net helfen.

nvidia hat eigene codes ins spiel implementiert, damits unter nvidia besser läuft. und nun geh lernen =)


"Dennoch läuft Crysis auf vergleichbaren AMD-Grafikkarten langsamer als auf Nvidia-Karten. Es gebe aber "fast keine Shader Replacements" für Crysis in den AMD-Treibern erklärte Richard Huddy. Bei dieser umstrittenen Praktik werden manche Shader-Programme eines Spiels durch Code des Grafikkarten-Herstellers ersetzt, so dass ein Spiel unter Umständen anders aussieht, als sich sein Entwickler das gedacht hat - aber deutlich schneller läuft."

ein satz aus dem artikel, der es erklärt eben.
 
Zuletzt bearbeitet:
@Cosmic: Das versucht Lübke ja gerade zu sagen...

Man kann es so und so drehen: a) nV hat FÜR die GF8 programmiert (so seh ich das) oder b) nV hat GEGEN ATi programmiert (KANN man auch so sehen)

Mir gefällt an der Sache weniger die Tatsache, daß nV mitprogrammiert hat, sondern eher, daß Crysis gerne und oft als Referenzbenchmark genommen wird.
 
@FortissimoIV: ja so langsam kommen wir der sache nächer "damits unter nvidia besser läuft" und nicht wie so gerne behauptet wird um ati zu sabotieren... wenn wir uns darauf einigen können haben wir ja schon nen schritt nach vorn gemacht ;)
ati unterstützt die hersteller ja auch nicht um sich zu verschlechtern^^
blieben nur noch die sabotagevorwürfe bei ac...
@FortissimoIV: das mit dem referenzbenchmark ist allerdings wahr und n problem da crysis etwas unausgewogen ist im bezug auf die hersteller... da haste vollkommen recht. ist halt der grafikkracher nr. 1. zum glück von nv
 
Zuletzt bearbeitet:
Na ja was will man machen NV,MS,Sony und Intel kommen eben alle direkt aus der Hölle und wollen die "Rächer der Enterbten" in Form von Amd/Ati usw. (die ihrerseits nur das beste für die User wollen) in die Tiefe ziehen. :D

Ja,ja...die Welt ist schlecht und ungerecht :p .
 
Zuletzt bearbeitet:
@Lübke: Bei AC seh ich da schon die "Verschwörungstheorien" bestätigt. Oder sagen wir's so... es spricht mehr FÜR ein Intervenieren von nV als dagegen.

Und was die Crysis-Sache angeht, hab ich nie was anderes behauptet, als ich jetzt auch geschrieben habe. Ich zumindest. Auch wenn ich ATi eher zugeneigt bin als nV, versuch ich objektiv zu bleiben. ;)
 
MS macht dx und setzt die "regeln" an die sich nvidia aber nicht hält im prinzip im vorteile zu bekommen.

aus dem artikel nochmal.

"Unsere Architektur unterscheidet sich ganz deutlich von der von Nvidia. Microsoft wollte diese Unterschiede mit DirectX-10 nahezu auslöschen, weil die Schnittstelle 'Caps free' werden sollte".

nvidia baut aber eigene codes ein eben. vielleicht auch n grund, warum nvidia kein dx10.1 will

dx10.1 setzt nämlich KLARE REGELN
 
Zuletzt bearbeitet:
@FortissimoIV: nee das mit crysis is son allgemeines fanboygelabere... dabei is das nix ungewöhnliches (siehe age of conan) war also gar nicht auf dich gemünzt...

bei ac seh ich allerdings auch keinen zusammenhang zu nv. wenn der einzige beweis sein soll dass nv nicht auf dx10.1 setzt (genau wie bei dx9b übrigends) dann find ich das sehr schwach.
denn wer erwartet ernsthaft, dass ubi-soft nochmal millionen in die entwicklung eines bereits vermarkteten (!) spiels investiert nur um die user die 1. eine 38x0 besitzen und 2. mit vista zocken und 3. sich das spiel noch nach fertigstellung des gefixten patches kaufen (!) zu umwerben?
es ist schade, dass sie die dx10.1 api nicht vernünftig implementiert bekommen haben, denn es wäre sicher interessant gewesen zu sehen, ob dx10.1 tatsächlich einen vorteil gegenüber dx10 bringt. 20% mehrleistung sind imho allerdings absolut übertrieben. dafür dass sich die beiden angeblich nur geringfügig unterscheiden... so einen leistungssprung hats noch bei keiner dx-version gegenben, geschweigedenn bei einer simplen erweiterung...
 
@Lübke: Nein, ich persönlich gehe da nicht von der fehlenden DX 10.1-Unterstützung des GT200 aus, wobei das ein weiteres Indiz wäre, da spielen ein paar Faktoren mehr hinein.

Zum einen wäre das halt TWIMTBP als "Basis".

Alles war ruhig, bis man den DX 10.1 Renderpfad entdeckte, dann wurde er beinahe "in Panik" mit einer eher schlechten Begründung herausgenommen zur Fehlerbehebung. Für eine Fehlerbehebung, zumal eines Fehlers, der kaum auffällt (siehe Unyus Rage3D-Artikel), ist es nicht üblich, einen kompletten Renderpfad zu entfernen. Stimmst Du mir da zu? ;)

Hinzu kommt die wirklich große Werbewelle, die nV mit Assassins Creed macht (ganzseitige Zeitungsinserate AC->GeForce, Werbemails von Ubi, wo man "mit AC eine GF9 gewinnen" kann). Die wäre eher lächerlich gewesen, hätte das Spiel ein Feature unterstützt, das nur die Konkurrenz hat. Stimmst Du da auch zu?

Und jetzt kommt halt als i-tüpfelchen die fehlende DX 10.1-Implementierung im GT200 UND in Verbindung damit die Ankündigung von Ubi, DX 10.1 doch nicht wieder zu integrieren, ganz im Gegensatz zu vorherigen Verlautbarungen.

Das alles spricht für mich eher FÜR die Verschwörungstheorien hier. Dagegen spricht mir zu wenig.

Was das Leistungsplus angeht, ist es tatsächlich in AC da; woher es dann aber tatsächlich kommt, werden wir wohl nicht erfahren. Es wäre aber einleuchtend, daß es von DX 10.1 kommt, denn was DX 10 versprochen hat (mehr Qualität bei gleichzeitig mehr Leistung im Gegensatz zu DX 9.0c) würde DX 10.1 dann jetzt einhalten.
 
Zurück
Oben