Test Direct3D 10.1 im Test: Fünf Spiele mit Microsofts API im Vergleich

War es nicht auch ein Spiel aus dem TWIMTBP programm wo man ohnehin erwartet das es auf den nVidia Karten besser läuft und darf ich dich noch an den Punkt der Architektur erinnern?
wadenbeisser schrieb:
Natürlich hat der Spieleentwickler direkten Einfluss darauf auf welcher Grafikkarte das Spiel wie gut laufen wird, denn dazu sind die Architekturen der beiden Grafikchiphersteller einfach zu unterschiedlich.
Wird ein Füllratenfresser progerammiert sehen die HD Chips keine Sonne, wird ein Shaderleistungsfresser programmiert pfeifen die Geforce Chips auf dem letzten Loch. Nimmt man dann noch spezielle APIs hinzu ist die Vergleichbarkeit eh für die Tonne.

Und trotzdem ist der ATI vs. nVidia Vergleich hier immernoch Schwachsinn und für die Tonne.
 
DVD_ schrieb:
@wadenbeisser

Nochmal, DX10.1 ist eine nachträgliche Entwicklung von MS.
Zu dem Zeitpunkt als DX10.1 veröffentlicht wurde, hatte NV schon längst die erste Generation DX10 Karten verkauft. Ebenso ATI mit ihrer HD2000er Reihe.
Ist es im Sinne der Kundschaft, dass kurz nach dem Kauf einer vermeintlich Zukunfssicheren Karte, der Hersteller den Standard gleich wieder ändert?
Nein.
Denn wenn es danach geht wäre es ja cool, wenn MS alle 6 Monate ein DX 10.2, DX 10.3 ect. pp. raushaut.
Oder wie?

Es gab noch nie in der Geschichte von DX, eine Änderung des aktuellen Standards die eine Änderung im Design der aktuellen Grafikkartengeneration nötig gemacht hätte.
Eine DX- Generation blieb ein-zwei Kartengenerationen aktuell, dann kam der nächste Schritt.
Und damit anzufangen, für jeden Klein-Klein-Schritt immer neue Hardware zufordern, würde nur noch mehr Leute weg vom PC hin zu Spielekonsolen treiben, denn da kann man sich wenigstens sicher sein, dass der aktuelle Standard für ein paar Jahre hällt.

ATI und S3 machen das nur aus Marketinggründen, für den PC Markt ingesamt ist das aber eine fragwürde Entwicklung, sollte diese Praktik Schule machen.

niemand zwingt dich eine dx10.1 karte zu kaufen , wenn sie ohne hin in deinen augen unnötig ist und dx10 ausreichend ist .
konsolen mit pcs zu vergleichen , ist wie joschka fischer vs anna hathaway von der BQ her.
die ersten dx10 karten gab es schon ende 2006 , anderthalbjahre später also kamen die ersten 10.1 karten ( mit rv700 juni 2008 ) .
ich sag das jetzt , weil du so tust , als ob ms jeden monat eine neue dx version rausbringt.
bevor nvidia gt 200 released hat , hatte ms 10.1 schon angekündigt gehabt - nv wusste also schon vor dem tapeout , dass ati dx 10.1 unterstützen wird .
es ist noch zu früh , um sagen zu können wer das rennen macht , ob 10.1 oder physX.
spätestens mit havok gpu physik allerdings , wird physX auf dem gebiet nem wahren konkurrenten begegnen .
hör bitte auf 10.1 zu verharmlosen , weil dann müsstest du das gleiche über physx schreiben - denn es ist kein stück besser als 10.1 ( derzeit zumindest ) .
ach und übrigens , nvidias versuch den markt mit physX zu spalten , könnte ebenfalls den selben von dir gennanten nebeneffekt haben , dass immer mehr leute zur konsolen greifen .
außerdem ist es nicht gerade entgegenkommend von nvidia , dass man zb. ne 9600 gt als physX beschleuniger nicht in kombination mit ner 4890 oder so beitreiben kann . wieso sollte ati also mit nvidia kooperieren oder sie gar dabei pushen , damit sie nachher komplett angewiesen auf nvidia sind?
ich finds gut , dass ati selbst weiss wo der hase lang läuft und sich nicht nacht nvidias fußspuren orientiert .
 
T3dbundy schrieb:
die ersten dx10 karten gab es schon ende 2006 , anderthalbjahre später also kamen die ersten 10.1 karten ( mit rv700 juni 2008 ) .

Kleine Korrektur....die HD 3000 Serie hatte bereits 10.1 Support und wenn ich mich recht erinnere kam die Ende 2007.
 
wadenbeisser schrieb:
War es nicht auch ein Spiel aus dem TWIMTBP programm wo man ohnehin erwartet das es auf den nVidia Karten besser läuft und darf ich dich noch an den Punkt der Architektur erinnern?
Clear Sky war bis Patch 1.5.07 ein "Get in the Game"-Titel. Und ja, die Architektur ist halt so eine Sache. Das ist aber das Problem der Devs ...
 
Unyu schrieb:
Richtig, es zeigt nur das eine 4670, 4850 und 4890 mit dem betreffenden 0.1 Pfad mehr FPS raushauen.
Warum wird nicht erklärt, ob es vielleicht daran liegt das AMDs .0 Pfad in dem Falle gänzlich unoptimiert bleibt wird nicht geklärt. Für AMD machts auch kaum Sinn .0 neben .1 zu optimieren, mal ausgenommen für die paar HD2 Kunden.

Diese suggestive These, die keineswegs einfach so naheliegt, müsste man zunächst belegen. Das Gegenteil ist wahrscheinlicher, denn dies zeigt etwa der Clear Sky Bench. Unter DX10.1 leicht bessere Bildqualität, aber leicht geringere FPS-Raten. Die logische Schlussfolgerung: beim Grad der Optimierung liegen beide Renderpfade gleich auf. Ferner legt der fortwährende monatliche Treibersupport für die älteren DX10-Karten der HD2000er Reihe die Optimierungstätigkeit für selbige Karten nahe. AMD hätte ja auch analog zur x- und x1er Reihe die Versorgung mit frischen Treibern ebenfalls bei der HD2er Reihe einstellen können.

Ich bin sicher, Dir dürfte auch dieser Artikel zu Clear Sky @DX10.1 ein Begriff sein: http://www.pcgameshardware.de/aid,665475/Stalker-Clear-Sky-im-D3D101-Test/Action-Spiel/Test/?page=8

Oder dies: http://www.tweakguides.com/ClearSky_6.html

Antialias A-tested Objects: This option can only be accessed in DX10 mode when the Antialiasing option (see previous page) has been set to anything other than disabled. When Multisampling Antialiasing (MSAA) is being used, this option allows you to enable and use either DirectX 10 or DirectX 10.1 style MSAA on alpha-tested objects (i.e. objects with transparent portions, such as foliage). This can help to greatly reduce the jagged appearance of Clear Sky's environment by smoothing grass and trees, however it comes at an additional performance cost. If your graphics card is capable of DX10.1, then this is the recommended mode as it should improve performance and image quality as well when using this option.

Use DX10.1: If your graphics card supports DirectX 10.1, then you can enable this option, which should help to improve performance when in DX10 mode. If available to you, I recommend testing to see the impact of this option, though remember that a restart is required to implement it properly.
 
Zuletzt bearbeitet:
Seppuku schrieb:
Wie war das nochmal bei Directx9(c) und SM3.0? Stimmt. Konnten ja alle DirectX9 Karten über mehrere Generationen ;).
Die Spezifikationen für SM2 und SM3 waren zum Zeitpunkt der Entwicklung der ersten DX9 Karten bekannt. Nur waren die Chips noch nicht soweit die Forderungen an SM3 auch umzusetzen. Deswegen der Zwischenschritt über nur SM2 am anfang.
Das ist was anderes als wenn hinterher, zu SM4.0, ein SM4.1 nachgereicht wird.
Zumal der Zwischenschritt winzig ist.

Und NV tut gut daran diese Klein-Klein-Schritte nicht mitzugehen.
Und bis auf Stormrise, sieht man ja hier, das die Unterschiede marginal sind.

T3dbundy schrieb:
es ist noch zu früh , um sagen zu können wer das rennen macht , ob 10.1 oder physX.
spätestens mit havok gpu physik allerdings , wird physX auf dem gebiet nem wahren konkurrenten begegnen .
hör bitte auf 10.1 zu verharmlosen , weil dann müsstest du das gleiche über physx schreiben - denn es ist kein stück besser als 10.1 ( derzeit zumindest ) .

PhysX ist eine Physik engine, eine Anwendung, kein Hardwarestandard.
PhysX wird in 150Spielen auf der XBox360, PS3, Nintendo Wii und auch dem PC benutzt.
Einzig auf dem PC bietet NV auch an PhysX auf der Grafikkarte laufen zulassen.
Denn komplexere Physik, braucht auch mehr Rechenleistung.
DX11 und OpenCL wird PhysX auf CUDA nicht ersetzen.
 
DVD_ schrieb:
PhysX ist eine Physik engine, eine Anwendung, kein Hardwarestandard.
PhysX wird in 150Spielen auf der XBox360, PS3, Nintendo Wii und auch dem PC benutzt.
Einzig auf dem PC bietet NV auch an PhysX auf der Grafikkarte laufen zulassen.
Denn komplexere Physik, braucht auch mehr Rechenleistung.
DX11 und OpenCL wird PhysX auf CUDA nicht ersetzen.

wow 150spiele , echt boaaaah :D
komischerweise hat das niemanden gejuckt als physX noch ageia gehörte .
und sei mal ehrlich , welche spiele profitieren denn wirklich davon außer marketing-gag aka cryostasis :D?
 
DVD_ schrieb:
PhysX ist eine Physik engine, eine Anwendung, kein Hardwarestandard.
PhysX wird in 150Spielen auf der XBox360, PS3, Nintendo Wii und auch dem PC benutzt.
Einzig auf dem PC bietet NV auch an PhysX auf der Grafikkarte laufen zulassen.
Denn komplexere Physik, braucht auch mehr Rechenleistung.
DX11 und OpenCL wird PhysX auf CUDA nicht ersetzen.

- Konsolen interessieren bei einer Diskussion um PC Hardware nicht.
- NVidia bietet PhysX support im PC Segment derzeit NUR über die Grafikkarte und ist somit auch an eine nVidia Grafikkarte gebunden
- Wenn ich mich recht erinnere wird derzeit an einer PhysX Unterstützunv via DX11 oder OpenCL gearbeitet, wodurch an der Stelle CUDA irrelevant wird oder soll man die gleiche Funktion parallel für mehrere Schnittstellen entwickeln, die alle auf der gleichen Grafikhardware vorhanden sind?
Wenn Havoc für OpenCL und/oder DX11 rauskommt und somit von allen Grafikkarten unterstützt wird, die auch diese Programmierschnittstellen anbieten, dann wird sich nVidia hüten PhysX auf ihre eigenen Produkte zu beschränken und somit deren Ende einzuleuten.
DirectX und OpenGL haben die damaligen herstellerspezifischen Grafikschnittstellen ersetzt und gleiches wird auch bei GPGPU Anwendungen geschehen um ein Minimum an Programmieraufwand für ein Maximum an Hardwarebasis zu erreichen.

Genau das dürfte auch der Grund sein warum sich D3D 10.1 nicht wirklich durchsetzen konnte, dernn der damalige Marktführer für Spielehardware war/ist nicht mit dabei und man hätte zwangsläufig 3 statt 2 Renderpfade bedienen müssen.
 
@ T3dbundy

Mirrors Edge und Sacred 2 werden deutlich aufgewertet, imo.
wadenbeisser schrieb:
Konsolen interessieren bei einer Diskussion um PC Hardware nicht.
PhysX ist plattform-übergreifend.
wadenbeisser schrieb:
NVidia bietet PhysX support im PC Segment derzeit NUR über die Grafikkarte und ist somit auch an eine nVidia Grafikkarte gebunden
GPU-beschleunigtes PhysX. CPU-PhysX bekommst du auch ohne Geforce - in sehr sehr vielen Spielen.
wadenbeisser schrieb:
Wenn Havoc für OpenCL und/oder DX11 rauskommt und somit von allen Grafikkarten unterstützt wird, die auch diese Programmierschnittstellen anbieten, dann wird sich nVidia hüten PhysX auf ihre eigenen Produkte zu beschränken und somit deren Ende einzuleuten. DirectX und OpenGL haben die damaligen herstellerspezifischen Grafikschnittstellen ersetzt und gleiches wird auch bei GPGPU Anwendungen geschehen um ein Minimum an Programmieraufwand für ein Maximum an Hardwarebasis zu erreichen.
nV wird PhysX weiterlaufen lassen bzw. porten, CUDA ist recht nahe an OpenCL angelehnt.
 
Zuletzt bearbeitet:
@DVD_
Klick mal auf den Link in meiner Signatur....
Man beachte letzten Satz in 2. Absatz.


Aber BITTE hört auf PhysX/CUDA mit DX10/10.1 zu vergleichen ok? -.-"
 
Zuletzt bearbeitet:
y33H@ schrieb:
GPU-beschleunigtes PhysX. CPU-PhysX bekommst du auch ohne Geforce - in sehr sehr vielen Spielen.nV wird PhysX weiterlaufen lassen bzw. porten, CUDA ist recht nahe an OpenCL angelehnt.

PhysX auf der CPU dürfte warscheinlich nahezu 0 Relevanz haben, da es dabei um eine Hardwarebeschleunigung ging. Der Aspekt der aber offenbar nicht zu dir durchgekommen ist...wozu sollte man PhysX für CUDA weiterentwickeln wenn es dann auch für OpenCL (danke an Arhey für den Hinweis) verfügbar ist und erst recht wenn sich die Schnittstellen so ähnlich sind? CUDA ist in meinen Augen bei der kommenden Hard- und Software so gut wie Tot, da es für die Programmierer bessere Alternativen gibt.

Für mich ist das Thema jedenfalls durch...
 
CUDA wird geportet und stirbt ergo nur indirekt. nV hat da zuviel Aufwand bisher reingepumpt um CUDA einfach fallen zu lassen.
 
Jap auf nV Karten soll OpenCL über CUDA realisiert werden.
Dadurch wird CUDA nicht wirklich sterben, aber Anwendungen werden wahrscheinlich in OpenCL oder DX11 erscheinen, da dort bessere Kompatibilität gegeben ist.
 
y33H@ schrieb:
@ T3dbundy

Mirrors Edge und Sacred 2 werden deutlich aufgewertet,

Naja, darüber läßt sich streiten ob PhysX Sacred 2 aufwertet. Zumindest kann man vor lauter PhysX kaum etwas vom Spiel mitbekommen... Stichwort Blätter ! :rolleyes:

Und Mirrors Edge kann man wirklich nicht als Spiel bezeichnen. Es ist eher eine Werbeplattform für PhysX wo der Rest eben zu kurz kommt.

Fakt ist halt einfach, das bei hochwertigen Games die Physikberechnung über die GPU absolut sinnfrei ist, da man sonnst zuviel Rechenpower der GPU opfern muß während die CPU kalt bleibt !

Ich verstehe eh nicht warum man hier bei einem Vergleichstest von DX10.0 zu DX10.1 jetzt auf PhysX kommt.
Klar, NV beherrscht PhysX und ATI eben nicht. Aber dafür kann ATI DX10.1 und NV wiederum nicht. Punkt !

Und wenn sich hier soviel darüber aufregen das man hier "nur" 5 Spiele aufzeigt, frage ich mich, warum es Damals keinen gestört hat das CB bei Mirror Edge eben nur 1 Spiel so ausführlich mit 4 ATI-Karten getestet hat welche ja bekanntlich kein PhysX beherrschen ?

Das NV kein DX10.1 Supportet ist schließlich nicht die Schuld von ATI und das NV es mit der GTX-Serie nicht gefixt hat ist ein Versäumnis.
 
Für mich hat der sehr gute CB-Test vorallem 3 Punkte aufgezeigt:
1. Leute, die nicht jedes Jahr (oder alle 6 Monate) eine neue Karte kaufen, sind im Hinblick auf Win7 mit einer RV700 Karte besser bedient.
2. Ein marktbeherrschender Hersteller bestärkt in der Hardwarebranche den technischen Stillstand. (Würde Nvidia DX10.1 nutzen und ATI nicht, gäbe es nun zig PC-Games mit DX10.1 und ATI wäre wohl vom Markt verschwunden). Anstattdesen diskutiert man in einem DX10.1-Test über Physx..
3. Der Minimum-FPS-Wert ist (fast) wichtiger als der Durchschnittswert und sollte imho in allen CB-Tests aufgenommen werden (wenn der Mehraufwand nicht extrem groß ist), gleiches sollte für 1920x1200 auch gelten.
 
brabe schrieb:
Bei Stormrise kann man mal sehen, was wirklich mit DX10 möglich sein könnte.

Das witzige an Stormrise ist, dass es da eine Vsync-Wand bei 60 fps gibt, in der die x2 dauernd drinhängt. Echt beeindruckend, diese Performance!
 
y33H@ schrieb:
Das musst du mir erklären.

[...]Und wer hat DX10.1? Korrekt, zur Zeit nur AMD (und S3). Ergo zeigt man, dass die Technologie die die Konkurrenz nicht hat, für mehr Fps und Optik sorgt - das man hier besser ist (als nV).

Ich darf mal wadenbeisser zitieren:

wadenbeisser schrieb:
[...]
Somit hatte nVidia also nur das Zeitfenster bis zu ATI Treiberupdate ausgenutzt um möglichst gut dazustehen. Billigstes Marketing ebend und erstaunlich viele Redaktionen haben da auch noch mitgespielt.

Hier geht es hingegen um einen Direct3D 10 vs. 10.1 Test in dem die Vorteile der neueren Schnittstelle gezeigt werden. Den Treiber will ich sehen mit dem nVidia das Nachlegen und die nicht vorhandenen zusätzlichen Funktionseinheiten emulieren will.

Die Geforce Karten dienen lediglich als Vergleich was der Konkurrent im gleichen Preissegment anbietet.

Die NVIDIA-Karten mit reinzunehmen, war wohl ne CB-Entscheidung und die hätte man auch genausogut weglassen können.

DVD_ schrieb:
Und damit anzufangen, für jeden Klein-Klein-Schritt immer neue Hardware zufordern, würde nur noch mehr Leute weg vom PC hin zu Spielekonsolen treiben, denn da kann man sich wenigstens sicher sein, dass der aktuelle Standard für ein paar Jahre hällt.

Und du findest es gut, wenn NVIDIA den Fortschritt blockiert? Alles klar... Ist ja nicht so, das man gewzungen gewesen wäre/ist, sich wegen 10.1 ne neue Graka zu kaufen. Mit der Unterstützung hätte man wenigstens die Umbenennerei rechtfertigen können...
Umgekehrt sollte man eher dankbar sein, wenn in ne neue Grakageneration die verfügbaren Features integriert werden, so hat man nämlich länger was von seiner Hardware. (Außer man ist einer von der "ich will immer das neueste haben, obs was bringt oder nicht" Sorte)

@emploi: Und was ist dein Problem? CUDA läuft nur mit NVIDIA-Grakas, OPENCL auf jeder Hardware. Warum sollte man dann (außer man bekommt "Unterstützung" von NVIDIA) auf CUDA setzen?

http://www.theinquirer.net/inquirer/news/924/1049924/opencl-opens-for-business

Da steht drin, das INTEL, AMD, APPLE UND sogar NVIDIA OpenCL unterstützen, NVIDIAs CUDA soll dabei kompatiblel zu OpenCL sein/werden/bleiben/wasauchimmer.

Kann ich mir zwar nicht so richtig vorstellen, weil man dann ja auch ne "Übersetzung" von OpenCL auf Cuda braucht, was die Sache theoretisch verlangsamen sollte, aber die Grünen werden schon wissen was sie tun.
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Und du findest es gut, wenn NVIDIA den Fortschritt blockiert?
Nochmal:
Der Fortschritt wird durch NVidia in keinster Weise "geblockt" oder verlangsamt. Ich hatte das bereits erklärt:
Konti schrieb:
Auch verlangsamt sich dadurch nicht die Entwicklung betreffend DX11, welches DX10.1 ohnehin bald ablösen wird. Man hat also eher was ausgelassen, als etwas gebremst.
Klar gäbe es jetzt im Moment wahrscheinlich mehr DX10.1 Games, wenn NVidia das ebenfalls supporten würde .. die in naher Zukunft bestehende Zahl an DX11 Games wird es jedoch kaum/garnicht beeinflusst haben.



Pickebuh schrieb:
Fakt ist halt einfach, das bei hochwertigen Games die Physikberechnung über die GPU absolut sinnfrei ist, da man sonnst zuviel Rechenpower der GPU opfern muß während die CPU kalt bleibt !
Auch wenn's eigentlich nichts mit dem Thema zu tun hat, aber du hast hier einen entscheidenden Denkfehler:
Hochwertige Games müssen mitnichten immer die Graka bis zum Limit beanspruchen. Ein Game könnte ja zum Beispiel auchmal durch ganz neue physikalische Möglichkeiten "hochwertig" werden.
Oder eben einfach durch gutes Gameplay .. diverse Klassiker sind heute noch gut .. und auf jedem heutigen OnBoard-Chip spielbar.

Das Potenzial, welches einem GPU-beschleunigte Physik-Berechnung bietet, wurde halt noch nicht richtig genutzt. Trotzdem macht es diese Möglichkeit noch lange nicht "sinnfrei".
Dann hätte ein heutiges Game z.B. eben "nur" HL2-Grafik .. dafür aber z.B. komplett zerstörbare Level und Fahrzeuge usw.
 
Zurück
Oben