Mal drei Beisepiel allein aus diesem Forum:
1.
TheHiTman schrieb:
Wäre natürlich super, aber ich kann das irgendwie nicht recht glauben. Bei Crytek Spielen hatte NV bisher ja immer seine Finger drin.
2.
kisser schrieb:
Läuft FarCry 2 auf Windows XP? Dann ist es ein DX9-Spiel.
3.
Hardware_Hoshi schrieb:
Farcry 2? Gutes Spiel?
Man kann sich nur auf Farcry2 freuen - ich tue es zumindest. Die Ideen scheinen so herausragend, denn die Entwickler sind extra nach Afrika gereist um sich bessere Eindrücke von der Natur / Tierwelt zu verschaffen. Welcher Entwickler anderer Spieleschmieden tut sowas? Ich glaube, dass das überhaupt noch nie jemand vorher gemacht hat.
Warum posten hier Leute immer Dinge ohne sich vorher zu informieren und schreiben dann über Dinge über die sie offensichtlich keine Ahnung haben?
1. Das Crytek und FarCry 2 nichts miteinander zu tun haben, wurde ja bereits 20 mal gepostet.
2. Das ein Spiel, dass auch auf XP läuft automatisch kein DX10-fähiges Spiel ist, ist natürlich totaler Blödsinn.
3. Wenn Du Dich über keine weiteren Spiele informierst, ist es kein Wunder, dass Du glaubst, dass das noch kein Entwickler vorher gemacht hat. Hättest Du Dich jedoch informiert, würdest Du wissen, dass das schon etliche Entwickler vorher gemacht haben. Und wo wir hier schon immer bei Crytek sind: Die haben das auch gemacht und sich vor Ort die Pflanzenwelt ganz genau angeschaut.
Also bitte @alle:
Informiert euch mal ein bisschen bevor ihr hier Dinge behauptet. Dann haben wir vielleicht in der Zukunft das Glück, dass in den Foren hier nicht so viel Blödsinn verbreitet wird. Kaum verständlich ist allerdings woher die Leute hier die "Fakten" haben, die sie hier so durch die Gegend posten. Denkt bitte daran, dass ihr andere mit den ganzen Falschinformationen evtl. verwirrt und eigentlich sollten Foren ja immer auch eine Hilfe sein Informationen zu sammeln. Das funktioniert aber nur, wenn es nicht mit ausgedachtem Blödsinn vollgespammt wird.
BACK TO TOPIC:
Turbostaat schrieb:
Herr Yerli behauptet es würde nichts bringen, Microsoft und ATI behaupten es wäre einfacher, würde etwas bringen und div. Berechnungen würden in einem Rutsch schneller gehen.
Ist doch klar, Crytek hat mit NVidia zusammen gearbeitet. Ob er deshalb etwas dagegen hat wäre möglich. Dass Microsoft und ATI behaupten D3D-10.1 wäre eine super tolle Sache ist doch auch klar. Daher sind die beiden völlig unseriöse Quellen.
Man wird davon ausgehen können, dass 10.1 Verbesserungen mit sich bringt, aber sowas alleine bringt keinerlei Performance-Vorteile. Auch das eine Grafikkarte irgendwie 10.1 unterstützt heißt noch lange nicht, dass sie 10.1 auch sinnvoll umsetzen kann. Daher kann man nicht pauschal sagen, dass 10.1 x% schneller ist. Außerdem ist die größte Variable auch immer noch das Spiel selbst und wie das genau optimiert wurde. Es ist wirklich gröbster Unfug z.B. zu behaupten dass 10.1 15% schneller ist als 10. Wofür soll das gelten? Ma abgesehen davon, dass das von Grafikkarte, Spiel, Auflösung, Einstellungen etc. abhängt gibt es viel zu wenig Spiele bei denen man Tests durchführen könnte. Außerdem ist 10.1 erstmal nur eine API. Wie das in der Hardware umgesetzt wird ist entscheidend. Dass etwas allein durch die 10.1 API oder die 10.1 Unterstützung schneller wird ist ungefähr so als würde man behaupten ein Spiel würde schneller, wenn die Verpackung rot wäre.
DJMadMax schrieb:
Hier übrigens mal ein Beispiel anhand meines aktuellen Lieblingsspiels, dass es nicht immer die neueste D3D-Schnittstelle sein muss, damit ein Spiel gut aussieht:
http://www.pcgameshardware.de/aid,6..._PC_Bildvergleich_DirectX_9_gegen_DirectX_10/
Capcom macht es hier bei Devil May Cry 4 wirklich blendend vor, der Unterschied zwischen D3D9 und D3D10 ist wirklich nur sehr marginal. Dennoch läuft das Spiel - und das, obwohl es eigentlich eine Konsolenportierung ist
Da hast Du gerade alle Deine Fragen selbst beantwortet: Das Spiel wurde vermutlich für DX9 entwickelt, damit es gut auf die Xbox 360 portiert werden kann. Danach hat man einfach noch mal die D3D10-API verwendet, um damit Werbung machen zu können, dass man D3D10 unterstützt. Durch das Umsetzen von DX9 nach DX10 wird ein Spiel aber nicht schöner oder schneller. Dazu müsste man schon wirklich DX10 nutzen, also man müsste das Spiel wirklich an DX10 anpassen und die speziellen Möglichkeiten nutzen und es darauf optimieren. Bei DMC4 wurden vermutlich einfach nur die Funktionsaufrufe von DX9 nach DX10 umgesetzt. Daher läuft es auch langsamer, weil es eine billige Portierung ist, so wie man es auch von Konsole zu PC macht.
Und so wirklich beeindruckt bin ich von der Grafik nicht. Die meisten aktuellen Spiele sehen in kleinen Auflösungen vernünftig aus, werden aber fast schon hässlich, wenn man die Auflösung hochschraubt. Bei Crysis ist das z.B. nicht so. Ich sehe z.B. bei den von Dir geposteten Screenshots kein Parallax Occlusion Mapping, eines der schönen Features, die die DX10-Version von Crysis nutzt und das enorm etwas bringt. Ein Zeichen dafür, dass man DX10 zwar unterstützt, aber nicht wirklich nutzt, weil es ein einfacher Port von DX9->DX10 war.
Experte18 schrieb:
Natürlich wird Fc 2 Dx 10.1 haben.Natürlich wird es nicht rausgepatchd.Ubis soft wär ja schön blöd wenn sie das tun wurden.Immerhin haben bestimmt 80 % 48** Karten und 20 % 280 Karten.Ausserdem hat Nvidia schonmal nachgefragt.Ubisoft meinte aber nichts,dx 10.1 bleibt.
Ich glaube über 80% haben weder eine 48xx noch eine GTX2xx! Das 10.1 bleibt glaube ich aber auch. Ob das etwas bringt ist eine anderen Frage. Hängt davon ab, ob man 10.1 auch nutzt, oder ob man einfach einen Renderpfad mit 10.1-API-Calls angelegt hat, um damit Werbung machen zu können, weil ja alle glauben, dass ein Spiel plötzlich schöner und schneller wird, wenn man statt der 10-API die 10.1-API nutzt. Und natürlich läuft das nicht automatisch.
DUNnet schrieb:
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Lustig finde ich ja auch wie nVidia vor 6 Monaten noch großkotzing in die Welt schläuderte sie würden nie DX10.1 brauchen, da das kaum Vorteil hat!
Sie würden direkt DX11 rausbringen
Und vor 2 Monaten les ich das nVidia nun doch 10.1 will (weiß nicht mehr wo!).
Und wenn die nun die GTX216 und GTX206 bringen denk ich mal wird da 10.1 unterstüzung drin stecken - wodurch auch FC2 10.1 haben wird
Kein Wunder. Der GT216 und GT206 (nicht GTX216 und GTX206!) kommen vermutlich v.a. deshalb, weil AMD ihnen mit den HD-Modellen ordentlich eingeheizt hat. Nach der 8800GTX kam von NVidia doch gar nichts mehr. Die 8800 GT war noch eine gute Sache, aber eben ohne Geschwindigkeitssteigerung. Die 9er-Serie war eine Luftnummer ohne echte Veränderungen und praktisch nur eine Umbenennung. Die GTX2xx-Modelle sind seit der 8800GTX das erste halbwegs(!) neue. Daher kam auch kein 10.1, denn da hätte man am Core noch etwas ändern müssen.
Natürlich ist die Haltung von NVidia verständlich gewesen: Wozu sollte man sich anstrengen, wenn der einzige Konkurrent mit dem Finger in der Nase bohrt und nur Blödsinn produziert. Mit der 4000er-Reihe hat AMD/ATI aber seit der 9000er Radeon das erste Mal wieder vernünftige Grafikkarten herausgebracht. Und nun geht NVidia der Arsch auf Grundeis, weil sie es nämlich in den letzten 2 Jahren auch nicht mehr gewohnt waren überhaupt noch etwas neues zu entwickeln. Mit den nächsten GT-Chips, die vermutlich auch nur ein leichtes Update werden, weil sie ein Schnellschuss sind, bringt man dann eben auch 10.1. Ist eh kein so großer Unterschied zu 10 und man nimmt AMD die Möglichkeit mit 10.1 Werbung machen zu können (die Leute kaufen ja blind alles, wenn eine tolle Nummer drauf steht).
Wenigstens ist endlich mal wieder richtig was los im Grafikkarten-Markt. Vielleicht kommen also auch mal ein paar richtige Innovationen. Das komplette und flexible An-/Abschalten einzelner Grafikkarten wäre z.B. sowas (auch ohne IGP sinnvoll; denn wozu soll eine 4870 70W schlucken, wenn man z.B. seinen PC gerade nur laufen hat, um zwei große Verzeichnisse zu synchronisieren oder seine Fotos auf Blu-ray zu brennen etc.). Und vielleicht haben wir dann ja auch das Glück, dass man sich endlich mal um Mikroruckler kümmert bzw. mal endlich ein sinnvolles Konzept zur Nutzung von Multi-GPUs entwickelt. Bisher ist das ja eher ein Hack und mit der heißen Nadel gestrickt.