• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Crysis: DirectX 9 vs. DirectX 10 im Vergleich

Bitte bleibt beim Thema und vor allem: Sachlich.
Ansonsten müssen Diskussionen rund um solche Themen künftig schlicht geschlossen oder einige ausgeschlossen werden ;)
 
@BeeHaa
Was verstehst du nicht an der Tatsache, daß MS DX10 auch DX9L beigelegt hat - was ja angeblich auch performanter als DX9c sein soll - und man seitens der Treibermacher nichts emulieren SOLLTE?
In meinen Augen ist DirectX9L der Versuch gewesen, einen XP Kompatiblen DirextX10 Zwitter zu bauen um doch noch diverse Features auf das XP DirectX zu kleistern.
Wann man sich die Schnittstelle ansieht, wird man allerding wirklich nicht sonderlich schlau daraus.
Derzeit steckt das Projekt ja auch fest, oder ist Direct X 9L inzwischen schon auf XP erschienen?

Woraus implizierst du aber, daß die bis auf die allergrößten Blockbusters teils immernoch recht lahmen Treiber die Schuld von ATI/NV sind und nicht die von MS

Weil man es direkt mit der DirectX10 SDK ausprobieren kann. Dort kann man über ein Programm sowohl die Ausführungsschicht als auch die Latenz auf der Schicht bei Verarbeitung diverser Befehle sehen.
Da sieht man ganz schnell, was da begrenzt...
 
Zuletzt bearbeitet:
In meinen Augen ist DX9L die DX9c-"Schicht" für Vista. Oder hab ich was verpeilt? Wird das nicht immer mit DX10, DX9c entsprechend, geupdatet oder wie "eingefroren"?

DX9L sollte NIE für XP erscheinen. Hat mit XP daher auch überhaupt nichts zu tun.

Weil man es direkt mit der DirectX10 SDK ausprobieren kann. Dort kann man über ein Programm sowohl die Ausführungsschicht als auch die Latenz auf der Schicht bei Verarbeitung diverser Befehle sehen.
Da sieht man ganz schnell, was da begrenzt...
Und warum behebt man das nicht ebenso schnell? Weil die Leute bei ATI/NV mit dem SDK nicht umgehen können? :freaky:


Und wieder einmal: Und was hat das alles damit zu tun, daß eine gehörige Portion der Unterschiede zwischen CrysisDX10 und CrysisDX9 nach Verarsche ausschaut?

Jetzt aber ab haja machen ;) Bis zum nächsten Mal. Das Thema bzw. die OnT-Fragen sind weitgehend erschöpft, Antworten findet man hier leider keine. Die Gebetsmühlen dreht mal alleine weiter...
 
ZeroZerp schrieb:
DirectX low- level??
Das ist mit eines der höchsten Abstraktionsschichten im Betriebssystem!!
och bitte... directx ist lowlevel. hast du in deinem leben eine zeile shader code geschrieben? directx alein bietet für aktuelle spiele nichts was über grafik-primitive hinaus geht. damit dadraus etwas ansehnliches wird muss man erstmal ne ordentliche engine oben drauf setzen. von "eines der höchsten Abstraktionsschichten" kann also beim besten willen nicht die rede sein...
vielleicht schaust du dir z.b. mal ogre an, um mal ein vergleich zu bekommen was eine schon-fast-high-level-grafik-api so alles für dich macht ;).


ZeroZerp schrieb:
Einer von vielen Links, die Dir erklären, dass es auch die GPU besser auslastet. Das ist mit einer DER Hauptvorteile schlechthin:
http://www.chip.de/artikel/c1_artikelunterseite_24167441.html?tid1=29121&tid2=0
dein link erklärt überhaupt nicht wie dx10 die hardware besser auslastet. er erklärt das die dx10 hardware so gebaut sein muss das man sie viel einfacher auslasten kann. das funktioniert aber unter dx9 ganz genauso - schließlich haben die in die karten nicht irgendwo noch ein paar lagacy pipelines eingebaut.... wiegesagt scheinst du relativ wenig ahnung von der materie zu haben.


ZeroZerp schrieb:
Genau da dreht DirectX 10 an der entscheidenden Schraube mit Geometry Shadern und verbessertem Instancing, die eine WEIT größere anzahl von verschiedenen Objekten ermöglicht.
Natürlich hast Du recht, dass nicht beliebig viele objekte dargestellt werden können. Das wird auch niemals funktionieren, weil die Objektanzahl im Wahren leben fast infinit ist.[/url]
instancing und geometry shader sind eine wunderbar sache. ich bezweifle allerdings das crysis von diesen features viel gebrauch macht. das alte instancing hätte man bei dx9 schließlich auch weiter verwenden können. abgesehen davon das für einen baum nicht gleich ein draw-call notwendig ist, sondern man die bäume, die sich ja nicht unabhängig von einander in der welt bewegen, sehr gut zusammen batchen kann... ich bezweifle also mal ganz stark das das der grund ist, warum die dx9 version deutlich weniger objekte darstellt. sobald die objekte erstmal auf der karte sind, ist die performance schließlich praktisch die selbe.


ZeroZerp schrieb:
Aber vielleicht mit einem vereinfachten Beleuchtungsmodell?
ein anderes beleuchtungsmodel würde eine detailiertere beleuchtung erklären, aber keine komplett andere farbgebung. die bestimmt schließlich der designer, damit er auch die gewählte stimming für ein level richtig rüber bringen kann. auf micht macht es ganz klar den eindruckt das man hier ganz gezielt verschiedene stimmungen auf den bildschirm bringt, um so einen qualitätsunterschied vorzugaukeln.
 
@iberian..husky
och bitte... directx ist lowlevel. hast du in deinem leben eine zeile shader code geschrieben?
Korrektur-Wir reden hier von Betriebssystemen und deren DirectX API. Nicht von Anwendungen/Gameengines, die darauf aufsetzen. In diesem zusammenhang IST DirectX mit die höchste in der Abstraktion höchste Schnittstelle im Betriebssystemmodell.

directx alein bietet für aktuelle spiele nichts was über grafik-primitive hinaus geht.
Exakt! Das ist auch nicht die Aufgabe von DirectX!

dein link erklärt überhaupt nicht wie dx10 die hardware besser auslastet. er erklärt das die dx10 hardware so gebaut sein muss das man sie viel einfacher auslasten kann. das funktioniert aber unter dx9 ganz genauso - schließlich haben die in die karten nicht irgendwo noch ein paar lagacy pipelines eingebaut....

Mein Link erklärt, dass viele Leute, die sich hier aufregen, bereits Technologie benutzen, die auf der Entwicklung von DirectX 10 basiert. Und natürlich werden die Shader auch besser ausgelastet, wenn auch die Organisationsarbeit vermehrt an die GPU abgegeben wird.

ein anderes beleuchtungsmodel würde eine detailiertere beleuchtung erklären, aber keine komplett andere farbgebung. die bestimmt schließlich der designer, damit er auch die gewählte stimming für ein level richtig rüber bringen kann. auf micht macht es ganz klar den eindruckt das man hier ganz gezielt verschiedene stimmungen auf den bildschirm bringt, um so einen qualitätsunterschied vorzugaukeln.

Reine Spekulation. In Wirklichkeit hat bis jetzt hier keiner das Endprodukt "Crysis" zu Gesicht bekommen.
Solange man nicht an seinem eigenen Rechner Vergleichsscreens hat, oder unabhängige Medien einen unvoreingenommenen Ingame- Vorher/Nachher- Test machen, ist die ganze Diskussion hinfällig.

Der Unterschied von den DirectX9 Screens zu DirectX10 ist eklatant. Selbst wenn man die Farbgebung außen vorlässt. Dass der Detailgrad mit den neuen Spielen bei DirectX9 an seine Grenzen stösst (wir reden von Bewegtbildern mit 25FPS+) kann niemand ernsthaft bestreiten. Falls doch, so ist das Realitätsverweigerung und derjenige sollte mal in den Entwicklungsbteilungen diverser Spieleschmieden nachfragen.
 
Beehaa@ In Deinen Augen OT Mist in meinen Augen "Auf den Punkt gebracht" denn alles verjährt auch die Sorgen der Contra DX10 Leute.

Ich darf ja wohl meinen Senf in Bezug OS Auswahl kundtun, da es nämlich DX10 betrifft, also, was wolltest du mir nochmal sagen?

Glaubst du allen ernstes das Ende 2008 DX10 vs DX9 noch ein Thema ist? Selbst Shader 2.0 zu 3.0 kräht kein Hahn mehr danach. So wird es auch in diesem Falle sein (Ausnahmen bestätigen die Regel) - so nun verziehe ich mich, da ich ja OT Mist erzähle und "ihr" könnt ja weiter, tiefgreifende API Diskussion führen. *kopfschüttel*
 
hallo ^^ melde mich auch wieder mal....

ich sag euch eins, Far Cry war super, da hieß es auch "Ich kanns net spieln wegn meiner 'schwachen' graKa" und bla bla bla...
crytek wird/hat das spiel sicherlich genug getestet und angepasst, weil was würde es denen bringen ein spiel heraus zu bringen was keiner spieln kann??? wär ja sinnlos...

ich bin mir sicher, das crysis auch auf ner 7800 GT und etc... läuft, und das auf hoher quali.... ich seh positiv in die zukunft :)

meine graKa 2x7900 GTO schaffen Rainbow Six auf Maximum, also wird crysis was D3D9 angeht auch kein Problem ;)

mfg
 
Puh, was in einem Tag so an Comments anfällt:

Kurze Korrektur zu meinem Post:
1. Dx10 kann theoretisch auf vorhandener Dx10-Hardware eine Szeneriekomplexität um theoretische 50% steigern, ohne dass es Einbrüche gibt. Faktisch werden es vielleicht 25% sein.

Bedeutet: Trotz niedriger Details wird ein Dx10-Beschleuniger unter Dx9 nur eine reeeelativ geringe Mehrperformance haben. Wer also Crysis kauft, wird sinnvollerweise auch irgendwann mal Vista haben wollen ;-). Hier liegt das Marketingargument.

2. Nichts desto trotz hat dies nur wenig damit zu tun, dass sich bei Crysis die Komplexität der Dx9-Screenshots inklusive der Texturauflösung eben mal fast halbiert. Ich habe einfach gesagt schon weitaus hübschere Dx9-Titel gesehen. Selbst das nunmehr betagte Oblivion oder aber auch das aktuelle Bioshock scheinen in weiten Teilen einen besseren Look zu haben...

3. ... und eine deutlich bessere Performance. Herrschaften! 37 FPS unter Dx10 mit einem aktuellen Highendbeschleuniger und das ohne AA und AF ist keine optimale Performance. Allerdings, das muss man einräumen, bekommt man dafür auch die beste Grafik bis jetzt.

4. Zurück zu Dx9. Bei den Screens wurde eindeutig für Dx10 der HDR-Level aufgedreht. Mir siehts sogar so aus, als würde unter Dx9 gar kein HDR aktiv sein (?). Sollte dem so sein, ist dies ein Eingriff in die Spielmechanik. Man erinnere sich an FC, welches mit HDR dank des Blendeffektes noch mal ein ganz anderes Spielen war.

5. CryTek ist für solche "Übertreibungen" bekannt. FarCrys 64-Bit-Version hat die Szeneriekomplexität ebenfalls ggü. der 32-Bit-Version deutlich vergrößert, auf einen Detailgrad, der in der 32-Bit-Version nicht erreichbar war. Auch hier wurden die Texturen feiner. Warum? Einfacher: Wenn 64-Bit diese Vorteile hatte, wieso hat sichd as bei Spielen praktisch nie durchgesetzt? WinXP64 floppte trotz 180-Tage Testversion zum runterladen!
(und wegen des verhaltenen Marketings von Microsoft)


Die Erklärung ist hier recht einfach:
Wer damals eine 64-Bit-CPU hatte, hatte damals ein flinkes System. Das konnte man so assoziieren. Die zu diesem Zeitpunkt verfügbaren CPUs mit 64-Bit-Erweiterung (Athlon64 3000+ aufwärts) rannten technisch dem Rest davon. Man konnte also vereinfachend davon ausgehen, dass derjenige, der sich eine solche CPU schon geleistet hat, auch eine Grafikkarte für diesen hohen Detaillevel haben würde... Wenn nicht konnte man die Details ja noch reduzieren.

Crysis:
Wer einen Dx10-Beschleuniger hat und WindowsVista hat auch ein halbwegs aktuelles System. Kaum jemand wird Vista und eine G8800GTS in einem System stecken haben, welches noch mit 1 GB Arbeitsspeicher und einem Athlon64-3000+ arbeitet.
Man kann quasi von einem DualCore und 2 GB Arbeitsspeicher beinahe ausgehen. Davon ausgehend kann man die wählbaren Detailgrade hochdrehen und die Szenerie komplexer gestalten.

Warum aber überlässt man diese Entscheidung nicht dem User?
Sehr einfach: Es stört kaum jemanden, die Dx10-Besitzer freuts (Ätsch, guck mal was mein PC kann...) und man hat ein Topp-Marketingargument für das Spiel und nicht zuletzt für Vista...

Ein objektiver Bild-zu-Bild-Vergleich wäre für mich ein Vergleich nicht bei gleichem Setting, sondern bei gleicher Framerate auf Dx9 und Dx10. Der Unterschied wäre trotzdem signifikant, aber nicht so übertrieben!

Letztlich: Es sind nur Marketing-Pics, schliesslich will Crytek die Engine verkaufen. Das Spiel muss Spaß machen und das auch unter Dx9. Und wenn das Leveldesign nur halb so gut wird, wie in FC, wird das Spiel Spaß machen.
Daher denke ich, dass das Spiel so einen Marketing-Blubb nicht verdient hat.

PCO
 
Will ja nichts sagen aber die bewegungschärfe mit Dx10 da ist augenkrebs vor programiert :freak: Da denn lieber dx9
 
Tronx schrieb:
akuj13@ Wie schön das du dir zeit zum Auseinandernehmen eines Postings genommen hast, ich finde es immer wieder amüsant wie man akribisch einen Text eines anderen zitiert, alle Achtung ;-)

Mache ich doch gerne für dich! ;)
Andere sind halt zu faul für sowas.

Tronx schrieb:
So nun zu deiner Aussage dass es mehrere Entwickler wären, welche wären das denn? Ich kenne nur 2 Namhafte Gurus (einer hat es schon bestätigt "politischer Natur" -nein das war nicht Carmack, der traut sich so sowas nicht offen zuzugeben), die anderen sind heilfroh über DX10 da es einfach mehr kann und aufgeräumter wirkt als das lästige DX9 das nur Altlast mit sich trägt.

Z.B. die Entwickler von Codename Panzers - Cold War.
Wäre DX10 unbedingt nötig, hätten sie es auch eingebaut, so ihre Aussage.

Tronx schrieb:
Tech5 wird wenn die Gerüchte stimmen mehr als 50GB betragen, man schätzt eher bis zu 200GB, es war auch die Rede von mehrfachen Diskwechsel - willkommen in der alten Zeit.

Ich wechsle gerne Discs...weil Verpackungen mit mehreren Discs IMMER schöner sind, als schnöde DVD Verpackungen.
Für mich als Sammler sehr wichtig.
Deshalb bestelle ich immer US CD Fassungen. ;)

Tronx schrieb:
Auch wird es mit der jetzigen Hardware bescheiden laufen, bis es rauskommt dürfte wohl jeder auf 8800 oder Next Generation umgestiegen sein, somit relativiert sich seine Aussage gegen DX10 zu stellen, im Keim.

Nein, da deine Aussage reine Spekulation ist. ;)
Des weiteren ist das doch mit jeder zukünftigen Engine so.

Tronx schrieb:
Sorry, aber voll Auflösung heist bei mir 1680x1050 oder 1920 (Trend geht Richtung 22er Zoll) aufwärts mit AA und AF haste nicht gesehen und vollen Details. Wieso hat man SLI wenn man nur 1280er Auflösung fährt, soll ich dir das jetzt glauben?
Aber das ist ein anders Thema.

Ich habe SLi (oder CF), weil mich die Technikkombination interessiert.
Genau wie ich einen Rechner mit ASRock Board und AM2 Upgrade Card zusammengestellt habe, nur um zu sehen, ob und wie es funktioniert.
HighDefinition und WS machen ein Spiel (oder Film) nicht besser, ich brauche beides nicht.
Außerdem profitiert man auch bei 1280x1024 von SLi...die minimum FPS z.B. sind damit deutlich angenehmer.
Und die Kombi reicht länger für FPS jenseits der 60.
Letzter Punkt: mein Eizo macht nunmal nur diese maximale Auflösung, ein Wechsel auf einen gleichwertigen WS mit höherer Auflösung würde mich einen hohen 4-stelligen Betrag kosten (meinen habe ich z.B. geschenkt bekommen).

Tronx schrieb:
Wie? Du glaubst mehr deinen Familiencodern als hoch Qualifizierte Entwickler? Kann ich deine Coder einstellen? Suche fähige Leute die besser sind als Crytek&Co ;-)
Nur zu deiner Info, die Yerlis haben damals schon gesagt das sie sich von niemanden etwas sagen lassen, insbesondere nicht mal von EA, das war nämlich teil des Vertrags. Aber ne, sie spielen ja in einer Verschwörung ;-) Die Jungs sind eher Geil auf Non Plus Ultra, deswegen auch der DX10Part, der dient lediglich jetzt zum üben für das zukünftige Spiel.

Ich kann nicht beurteilen wer "besser" ist, immerhin arbeiten die von mir genannten Personen auch bei weltweit bekannten Unternehmen. ;)
Die Yerlis sind auch nur Programmierer, keine Götter.
Deshalb kannst du auch keinen von ihnen einstellen, da du...ist nicht negativ gemeint...dafür vermutlich zu wenig Kohle hättest. ;)
Warst du bei ihrer Arschkriecherei dabei? Ich ja...das war widerlich, vor allem wenn man mal bedenkt WER da in den Himmel gelobt wurde. :rolleyes:

Tronx schrieb:
Was ich damit sagen möchte, wer 8800&Co hat, will auch mehr machen können, es reicht nicht einfach solch eine Karte zu haben und DX9 ist nun mal mit seiner Architektur am Ende. Schaut euch doch Pentium an, bis zum abwinken auf GHZ Rennen gewesen, was kam danach, optimierte CPUs - hat da jemand gemeckert? Es gibt so viele Gründe von pro und contra, wenn man ständig darüber diskutieren müsste, würden wir noch mit Holzstöcken aus einem Feuerlager die Wand bemalen.

Warum muss es denn immer höher, schneller, weiter sein?
Der beste shooter ever ist für mich DukeNukem 3D, mit lächerlichen Auflösungen und nichtmal DX7.
Wenn wir immer noch Wände bemalen würden, gäbe es heute zumindest keine Klimawandeldiskussion.
Von mir aus könnte der Fortschritt (mehr Lärm, Abwärme und Verbrauch sind allerdings schwer als Fortschritt zu bezeichnen) im PC Sektor angehalten werden, denn besser hat er die Spiele in meinen Augen noch nie gemacht.

;)
 
Zuletzt bearbeitet:
auf den screenshots sieht dx10 wirklich schon viel besser als dx9 aus, aber ich bin trotzdem der meinung, dass ein entwicklungsteam, das nicht von ms gesponsort wurde mit dx9 ähnliche ergebnisse erzielen könnte ohne größere performance einbußen als es beim wechseln von dx9 auf dx10 sowieso der fall ist. zB. sind auf den dx10 screenies mehr objekte wie kisten usw. und die bäume werde auch in größerer entfernung dargestellelt, dafür benötigt man doch keine neue api.

besonders die farben in dx10 gefallen mir, hoffe es gibt einen mod der das emulieren kann. ich warte aber lieber auf die nächste dx version erhoffe mir da größere sprünge.
 
ZeroZerp schrieb:
Korrektur-Wir reden hier von Betriebssystemen und deren DirectX API. Nicht von Anwendungen/Gameengines, die darauf aufsetzen. In diesem zusammenhang IST DirectX mit die höchste in der Abstraktion höchste Schnittstelle im Betriebssystemmodell.
directx ist eine hardware abstraktionsschicht. es tut selbst nur sehr wenig. ein betriebssystem besteht eigentlich ausschließlich aus lowlevel apis, auch wenn ich dx nicht zum system dazuzählen würde (das sie MS aber sicher anders)...


ZeroZerp schrieb:
Mein Link erklärt, dass viele Leute, die sich hier aufregen, bereits Technologie benutzen, die auf der Entwicklung von DirectX 10 basiert. Und natürlich werden die Shader auch besser ausgelastet, wenn auch die Organisationsarbeit vermehrt an die GPU abgegeben wird.
jetzt hat also microsoft die gpus entwickelt, oder was ;)? du verwechselst hier die kausalität. es gibt unified shader weil die hardwarehersteller welche entwickelt haben. ein dx das dinge verlangt die keine hardware zur verfügung stellt ist absolut nutzlos. nvidia (und sicher auch ati) experimentieren schon seit jahren mit unified shadern...

selbst wenn es andersrum wäre: was interessiert das die kunden? unified shader haben unter dx9 die selben vorteile wie mit jeder anderen api. das interessiert den kunden.


ZeroZerp schrieb:
ein anderes beleuchtungsmodel würde eine detailiertere beleuchtung erklären, aber keine komplett andere farbgebung. die bestimmt schließlich der designer, damit er auch die gewählte stimming für ein level richtig rüber bringen kann. auf micht macht es ganz klar den eindruckt das man hier ganz gezielt verschiedene stimmungen auf den bildschirm bringt, um so einen qualitätsunterschied vorzugaukeln.

Reine Spekulation. In Wirklichkeit hat bis jetzt hier keiner das Endprodukt "Crysis" zu Gesicht bekommen.
Solange man nicht an seinem eigenen Rechner Vergleichsscreens hat, oder unabhängige Medien einen unvoreingenommenen Ingame- Vorher/Nachher- Test machen, ist die ganze Diskussion hinfällig.
was hat das mit spekulation zutun? wir haben hier vergleichsbilder die crytek extra zum vergleich veröffentlicht hat.
die farbgebung hat keine technischen gründe. farbe is schließlich nichts technisches. wenn ich einen lila himmel mit roten punkten will kann ich das selbst auf einer alten voodoo bekommen...


ZeroZerp schrieb:
Der Unterschied von den DirectX9 Screens zu DirectX10 ist eklatant. Selbst wenn man die Farbgebung außen vorlässt. Dass der Detailgrad mit den neuen Spielen bei DirectX9 an seine Grenzen stösst (wir reden von Bewegtbildern mit 25FPS+) kann niemand ernsthaft bestreiten. Falls doch, so ist das Realitätsverweigerung und derjenige sollte mal in den Entwicklungsbteilungen diverser Spieleschmieden nachfragen.
warum kann das niemand bestreiten? hast du zahlen? hast du nachvollziehbare zahlen, und keine abgeschriebenes marketing von microsoft, nvidia oder ati?

solange du mir keinen benchmark zeigst der beweist das shaderlastige titel wie crysis unter dx9 bei gleicher performance nur deutlich schlechtere texturen und weniger objekte (und bonbonfarben) darstellen können, kann ich das wunderbar bestreiten.

selbst wenn die performance deutlich schlechtere wäre: warum gibt es für dx10 einen qualitätsmodus der heute garnicht benutzt werden kann, und für dx9 werden nichtmal die der 10er details freigeschaltet? zumindest mehr objekte sollten ja vom entwicklungsaufwand kein problem darstellen... für micht sieht das also in jedem fall nach absicht aus.

soweit mir bekannt ist ermöglich dx10 deutlich mehr als dx9 - die performance bleibt dabei zum größten teil aber weiterhin sache der gpu, sprich identisch. da nicht davon auszugehen ist das crysis viel gebrauch von dx10-only features macht (da dafür aktuelle hardware einfach noch zu langsam ist), sollte also auch die performance größtenteils vergleichbar sein.
 
Was mich dringend interessiert ist der Ram Arbeitspeicherbdarf !!! Braucht man unter XP oder Vista mehr als 2048MB um keine Nachladeruckler zu haben Weil ich gerade 4096MB drinnen habe und unter Vista keinen Vorteil spühre. Wenns bei Crysis genauso wenig nützen würde so konnte man darauf erstmal noch verzichten und Geld sparen.

Empfholene Systemanforderungen sollen ja 2GB sein.
 
Zuletzt bearbeitet:
Siberian..Husky schrieb:
soweit mir bekannt ist ermöglich dx10 deutlich mehr als dx9 - die performance bleibt dabei zum größten teil aber weiterhin sache der gpu, sprich identisch. da nicht davon auszugehen ist das crysis viel gebrauch von dx10-only features macht (da dafür aktuelle hardware einfach noch zu langsam ist), sollte also auch die performance größtenteils vergleichbar sein.
Das mag vielleicht bei Crysis noch der Fall sein. Da wissen wir Näheres, wenn das Spiel verfügbar ist.

Der Punkt ist, dass die GPU nur Daten verarbeiten kann, wenn sie diese auch zeitnah erhält, und nicht dauernd auf calls auf den Kernel der wiederum den call an die CPU macht, warten muss.
Was nützt mir die ganze Rohleistung einer Grafikkarte, wenn der Unterbau die Berechnungsdaten nicht liefern kann?
DirectX 10 ermöglicht, dass zukünftig größere Datenmengen an die Recheneinheiten der GPU übergeben werden können, ohne die CPU dabei zu töten.
 
@Falk01: Bei mir sind in der Beta Version unter Vista so um die 2GB ausgelastet. Kann also sicher nich schaden mehr zu haben, zumal die Beta ja noch grafisch eingeschränkt ist...
 
ZeroZerp schrieb:
[...]
Der Punkt ist, dass die GPU nur Daten verarbeiten kann, wenn sie diese auch zeitnah erhält, und nicht dauernd auf calls auf den Kernel der wiederum den call an die CPU macht, warten muss.
Was nützt mir die ganze Rohleistung einer Grafikkarte, wenn der Unterbau die Berechnungsdaten nicht liefern kann?
DirectX 10 ermöglicht, dass zukünftig größere Datenmengen an die Recheneinheiten der GPU übergeben werden können, ohne die CPU dabei zu töten.
der punkt ist, das das nicht für daten allgemein gilt, sondern nur für viele verschiedene objekte die nicht mit einem call auf einmal zur gpu geschickt werden können. wieviele daten (details) da übertragen werden ist vollkommen egal.

diese optimierung ist also sicher nicht verkehrt, aber eben keine generelle beschleunigung des rendering.
 
Die ham meiner Meinung nach alle en Arsch offen. Dieses Grafikgeprotze hier und da. Uiii ich seh 5 Steine mehr mit Schatten. Das bringt rein gar nix. UNd die Sache mit der Hardware schlägt weitere Rätsel auf. Man bekommt mit DX9 so gute Effekte hin. Warum fangen die Leute nich an auf langsameren Rechnern wirklich gute und durchdachte Spiele zu programmieren die dann auch wirklich laufen. Dieses ganze Hardware Wettrüsten nervt auf Dauer allmählich. Mein Rechner is en Jahr alt und untauglich zum zocken o.O das kann meiner Meinung nach irgendwo nich sein. Dieser DX10 Kram wäre mit ein paar Modulen sicher auch bei XP gelaufen oder auf Win 95 wenn man sich Mühe geben würde. Nein da muss ein Vista rauskommen was von Haus aus Scheiße is aber als einziges DX10 kann... Alles Geldmacherei
so.
jetz binsch zufrieden *g*
 
Ich arbeite noch immer mit XP und wollte erst nach Crysis umsteigen. Ob es wirklich besser mit DX10 ist, wird sich noch zeigen. Der Umstieg wird aber wohl bald auf mich zukommen.
 

Ähnliche Themen

Zurück
Oben