Test Direct3D 10.1 im Test: Fünf Spiele mit Microsofts API im Vergleich

@y33H@:

Stimmt schon nur ist der Vorteil den Nvidia damals hatte weg und der Vorteil den ATI mit DX10.1 hat bleibt erstmal. Für mich war das damals nur ein billiger Versuch nVidas im Weihnachtsgeschäft besser da zu stehen. Aber spätestens als die Quartalszahlen kamen wusste mann das die es nötig hatten bei dem Einbruch an Verkäufen.

Mann kann sich aber auch streiten ich glaube das Thema ATI /nVidia ist so heikel wie religion. Keiner hat die selbe Meinung und Meinungsverschiedenheiten sind vorprogrammiert. Nie niemals wird sich dieses ändern. Ist wie Herne West vs. Lüdenscheidt Nord.
 
Zuletzt bearbeitet:
@y33H@
Wenn du schon was Zitieren willst, dann versuch es mal mit dem ganzen zusammenhängenden Absatz, es sei denn deine Aufmerksamkeitsspanne lässt dies nicht zu.

Solange Publisher Schrott wie die PC Version von GTA4 auf den Markt bringen brauchen wir über Sachen wie "der Entwickler kann es sich (finanziell) nicht leisten" garnicht anfangen zu reden.

Da du jetzt allerdings mit Geschichten wie der Interpunktion und das zerhacken der Beiträge antanzt vermute ich einfach mal das du einfach keine ernsthaften Argumente vorbringen kannst und damit von der Geschichte ablenken willst.

Wie du allerdings selbst bemerkt hast geht es bei der Direct3D 10.1 Geschichte darum die Darstellungsqualität zu steigern oder die Mehrleistung in höhere Frameraten umzusetzen, was einen direkten Vergleich zu den Geforce Produkten ad absurdum führt. Diese können schließlich mangels Direct3D 10.1 Support im Zweifelsfall nicht die gleiche Darstellungsqualität liefern und somit ist die Vergleichbarkeit dahin. Das ist in etwas so Sinnvoll wie eine DX9 Karte mit einer DX10 Karte, welche beim getesteten Spiel im DX10 Modus läuft, zu vergleichen.

PS: Ich hoffe dir gefällt die zitierfreundliche Aufteilung
 
Seppuku schrieb:
In diesem Fall wurden aber alle Spiele genommen, die verfügbar sind
Nein, Assassin's Creed fehlt.
Seppuku schrieb:
Man sollte sich also lieber an einem verbesserten Artikel und den Nutzen von DX 10.1 freuen
Ich habe mich bereits bei AC v1.0 an DX10.1 erfreut (mit meiner HD3870) und tue es gelegentlich bei Clear Sky (mit meiner HD4850/1G) :)
 
DVD_ schrieb:
Eine DX- Generation blieb ein-zwei Kartengenerationen aktuell, dann kam der nächste Schritt.
Wie war das nochmal bei Directx9(c) und SM3.0? Stimmt. Konnten ja alle DirectX9 Karten über mehrere Generationen ;).


@ y33H@

Ist bei Assasins Creed das 10.1 wieder drin? Ist mir anscheinend entgangen.
Zu dem Bereitstellen habe ich mich auch nur auf den CB-Test bezogen, da er damals einfach total unglücklich aufgezogen war.
 
Zuletzt bearbeitet:
Nein ist es nicht, aber solange man das Spiel nicht patcht ist es ja vorhanden :)
 
Dann schreien aber andere wieder auf, dass es fehlerhaft sei und der Leistungsvorteil nur dadurch zustande gekommen ist. Das wird jetzt natürlich nach den aktuellen Ergebnissen deutlich schwieriger zu begründen, aber genauso wenig kann man es definitiv ausschließen. ;). Aber da kenn ich mich auch nicht wirklich aus, weil ich mich damit nicht befasst habe.
 
wadenbeisser schrieb:
Wenn du schon was Zitieren willst, dann versuch es mal mit dem ganzen zusammenhängenden Absatz, es sei denn deine Aufmerksamkeitsspanne lässt dies nicht zu.
Ich zitiere das, worauf ich etwas antworten möchte.
wadenbeisser schrieb:
Da du jetzt allerdings mit Geschichten wie der Interpunktion und das zerhacken der Beiträge antanzt vermute ich einfach mal das du einfach keine ernsthaften Argumente vorbringen kannst und damit von der Geschichte ablenken willst.
Ich weise dich nur darauf hin, damit ich aufgrund der mangelnden Interpunktion nichts falsch verstehe.
wadenbeisser schrieb:
was einen direkten Vergleich zu den Geforce Produkten ad absurdum führt
Wieso? Wenn eine GTX 275 ohne DX10.1 so schnell ist wie eine HD4890 mit DX10.1, finde ich das schon interessant.
wadenbeisser schrieb:
Diese können schließlich mangels Direct3D 10.1 Support im Zweifelsfall nicht die gleiche Darstellungsqualität liefern und somit ist die Vergleichbarkeit dahin.
Dann dürfte man gar keine Balken von AMD und nV vergleichen, da bei AMD das AF (fast) immer schlechter ist und sich die Sampleanordnung beim MSAA minimal unterscheidet.
wadenbeisser schrieb:
Das ist in etwas so Sinnvoll wie eine DX9 Karte mit einer DX10 Karte, welche beim getesteten Spiel im DX10 Modus läuft, zu vergleichen.
Apfel mit Birnen ... einzig bei Clear Sky unterscheidet sich die Optik. AC ist ja nicht dabei.
wadenbeisser schrieb:
Ich hoffe dir gefällt die zitierfreundliche Aufteilung
Jepp :)
Seppuku schrieb:
Ist bei Assasins Creed das 10.1 wieder drin? Ist mir anscheinend entgangen.
Leider nein. Aber da der v1.02 nichts spielerisch relevantes ändert, sollte man als HD-User mit der v1.00 zocken - in Sachen Fps und BQ ziehen die Radeons hier Kreise um die Geforces. Warum DX10.1 wirklich weg ist, wird sich nie klären. Doof ist es alle mal ... hat mir damals auf der HD3870 viel besser gefallen als auf der 8800 Ultra.
 
danke an Nvidia [ironie off]
wenn nicht Vista wäre, würde ich es gern nutzen aber vista leg ich mir nicht mehr zu, nee nee

alle ATI Besitzer werden sicherlich auch Assasins Creed in Version 1.0 spielen und ebenfalls mehr PErformance für lau haben .... diese Geschichte werd ich mein lebtag nicht vergessen
 
DVD_ schrieb:
@wadenbeisser

Nochmal, DX10.1 ist eine nachträgliche Entwicklung von MS.
Zu dem Zeitpunkt als DX10.1 veröffentlicht wurde, hatte NV schon längst die erste Generation DX10 Karten verkauft. Ebenso ATI mit ihrer HD2000er Reihe.
Ist es im Sinne der Kundschaft, dass kurz nach dem Kauf einer vermeintlich Zukunfssicheren Karte, der Hersteller den Standard gleich wieder ändert?
Nein.
Denn wenn es danach geht wäre es ja cool, wenn MS alle 6 Monate ein DX 10.2, DX 10.3 ect. pp. raushaut.
Oder wie?

Es gab noch nie in der Geschichte von DX, eine Änderung des aktuellen Standards die eine Änderung im Design der aktuellen Grafikkartengeneration nötig gemacht hätte.
Eine DX- Generation blieb ein-zwei Kartengenerationen aktuell, dann kam der nächste Schritt.
Und damit anzufangen, für jeden Klein-Klein-Schritt immer neue Hardware zufordern, würde nur noch mehr Leute weg vom PC hin zu Spielekonsolen treiben, denn da kann man sich wenigstens sicher sein, dass der aktuelle Standard für ein paar Jahre hällt.

ATI und S3 machen das nur aus Marketinggründen, für den PC Markt ingesamt ist das aber eine fragwürde Entwicklung, sollte diese Praktik Schule machen.

Warum hat es dann ATI geschafft mit der HD 3000 Reihe den 10.1er Support einzubauen, wärend nVidia es nichtmal für nötig hielt in der dritten Generation (ab GTX260) ihrer Grafikkarten nachzulegen? Lange genug war es schließlich am Markt oder gab es ihre grundarchitektur einfach nicht her, wodurch der Entwicklungsaufwand zu enorm gewesen wäre? OK, Umbenennen und ein bischen gefrickel bei den Shaderclustern ist definitiv billiger aber die Rechnung spüren sie derzeit sehr deutlich.

Es gab noch nie in der Geschichte von DX, eine Änderung des aktuellen Standards die eine Änderung im Design der aktuellen Grafikkartengeneration nötig gemacht hätte.
Dann erkläre mir bitte Sachen wie DX9C und co. Solche Zwischenschritte sind ein alter Hut oder kalter Kaffee von vorgestern. Vielleicht hätte man die Zwischenschritte auch als Bugfix titulieren können? Das wäre bei der Hardwarefestlegung ein Mordsgeschrei gewesen!

Im übrigen kann man alles als Marketing auslegen, solange es nicht auf breiter Front umgesetzt wird. Schule macht dies schon seit Ewigkeiten und sehr viele Beispiele dafür sieht man bei den PC Prozessoren, wo von der Software wohl nur ein Bruchteil der aktuellen Features genutzt wird.


y33H@ schrieb:
Wieso? Wenn eine GTX 275 ohne DX10.1 so schnell ist wie eine HD4890 mit DX10.1
Weil der Vergleich Schwachsinn ist wenn sich die Bilddarstellung unterscheidet oder man die andere Grafikkarte dafür künstlich beschneiden muss?
Da kannst du auch den einen mit und den anderen ohne FSAA oder AF testen und dich wie ein Kleinkind freuen das beide gleichschnell sind.
 
wadenbeisser schrieb:
Weil der Vergleich Schwachsinn ist wenn sich die Bilddarstellung unterscheidet oder man die andere Grafikkarte dafür künstlich beschneiden muss?
Im hier vorliegenden Test unterscheidet sich die BQ einzig in Clear Sky und hier einzig beim TMSAA - welches man btw ohnehin nur mit Highest-End-Karten oder runtergefahrenen Details nurtzen kann.

Ergo bei 1/5 Spielen haben wir einen dezenten, in der Praxis kaum nutzbaren BQ-Unterschied. Kein Vergleich zu AC etwa.
 
Zuletzt bearbeitet:
Seppuku schrieb:
Außerdem geht es ja hier um den Nutzen von DX10.1 und nicht um ATI vs. Nvidia! Noch ein großer Unterschied zu damals.
Dann versagt der Artikel leider.
Ein D3D10.1 Artikel ohne .1 Hardware erscheint mir recht sinnfrei.

Es wird auch keineswegs auf den Nutzen von .1 eingegangen, ich kann nur 20 Diagramme sehen.

Ob und wie die Performancesteigerungen ausfallen wurde nicht geklärt.
Im Endeffekt, wenn man nur das bisschen .1 Hardware, das getestet wurde nimmt, hat man:
A) Unoptimierte .0 Treiber
B) Hochoptimierte .1 Treiber

B ist natürlich besser als A.

Es bleiben so viele Fragen offen.
Was bringt jetzt der Treiber und was .1?
Was kann .1?
Wie sieht Stalker SC aus?
Wie sieht es bei andere .1 Hardware aus?


Im Endeffekt führt der Artikel nur dazu, das sich einige ins Feustchen lauchen und behaupten ein D3D11.0 Spiel würde automatisch superdupper Vorteile für D3D10.1 Hardware bieten.

eter schrieb:
ein Performance Rating Qualität sollte meiner Meinung nach auch die Beste Qualität testen.
Also AI-off vs HQ.
Es macht einfach keinen Sinn 50% der FPS für 8xMSAA zu opfern, andereseits die 3% für HQ nicht hergeben zu wollen.

Seppuku schrieb:
In diesem Fall wurden aber alle Spiele genommen, die verfügbar sind (wenn es auch nicht so viele sind) und nicht nur die 3 von AMD zur Verfügung gestellten. Damals war es eben nicht so...
AMD war bereit alle 5von5 Spielen zu stellen, aber CB hatte bereits 2.
 
@Unyu
Naja da haste glaub ich nicht ganz die richtigen Werte...


Zitat CB Bericht:
Auf einer ATi-Karte kostet das Adaptive Anti-Aliasing selbst in der Quality-Einstellung gerade einmal sieben Prozent an Leistung gegenüber dem gewöhnlichen 4xMSAA, im Performance-Modus gar nur drei Prozent...
Link CB Berich AA
 
y33H@ schrieb:
Im hier vorliegenden Test unterscheidet sich die BQ einzig in Clear Sky und hier einzig beim TMSAA - welches man btw ohnehin nur mit Highest-End-Karten oder runtergefahrenen Details nurtzen kann.

Herrlich wenn man sich nur selbst zitieren brauch um zu antworten... :evillol:
wadenbeisser schrieb:
Wie du allerdings selbst bemerkt hast geht es bei der Direct3D 10.1 Geschichte darum die Darstellungsqualität zu steigern oder die Mehrleistung in höhere Frameraten umzusetzen, was einen direkten Vergleich zu den Geforce Produkten ad absurdum führt.

wadenbeisser schrieb:
Weil der Vergleich Schwachsinn ist wenn sich die Bilddarstellung unterscheidet oder man die andere Grafikkarte dafür künstlich beschneiden muss?

Edit: im übrigen ist die GTX275 (ab 210€) preislich oberhalb der HD 4890 (ab 196€) angesetzt...da kann man wohl erwarten das sie zumindest unter den gleichen Bedingungen auch etwas mehr leistet.
 
Zuletzt bearbeitet:
Es wird auch keineswegs auf den Nutzen von .1 eingegangen, ich kann nur 20 Diagramme sehen.

Stimmt, diese Auswertung sagt auch gar nichts über den jeweiligen Nutzen aus: https://www.computerbase.de/artikel/grafikkarten/5-spiele-mit-direct3d-10-1-test.1005/seite-9#abschnitt_direct3d_10_vs_direct3d_101

Und dass DX10.1 jeweils entweder eine Verbesserung der Bildqualität oder eine erhöhte Performance bringen kann, zeigt dieser Absatz auch kein Stück:

Stalker Clear Sky zeigt sich von Direct3D 10.1 dagegen unbeeindruckt und rendert keinen Deut schneller als unter Direct3D 10. Ganz im Gegenteil sogar, ist der Direct3D-10-Modus doch des Öfteren gar minimal schneller. Anscheinend nutzen die Entwickler D3D 10.1 in diesem Fall nur dazu, um die Qualität des Anti-Aliasing für Alpha-Test-Texturen zu verbessern.

Seppuku schrieb:
In diesem Fall wurden aber alle Spiele genommen, die verfügbar sind (wenn es auch nicht so viele sind) und nicht nur die 3 von AMD zur Verfügung gestellten. Damals war es eben nicht so...

Ich habe es in diesem Thread schon einmal gesagt: diese Diskussion führt leider zu nichts. Was viele offenbar verdrängt oder vergessen zu haben scheinen, so war beim nvidia-5-Spiele-Test die mangelnde Transparenz gegenüber den Lesern das Problem, da man in Anbetracht international zeitgleich erscheinender, praktisch identischer Tests als Außenstehender nicht unterscheiden konnte, ob hier direkt nvidia (die nicht nur die Spiele, sondern auch die passende Hardware mitlieferten) federführend war oder nicht. Daraus resultierte das Mißtrauen gegenüber den Ergebnissen bzw. deren Aussagekraft. Hier sagt Wolfgang eindeutig, dass der Test sowieso erstellt werden sollte, DX10.1 ist als solches durchaus interessant genug dafür (zumindest mehr als ein sog. Wundertreiber m.E.), AMD aber entgegenkam und drei zusätzliche Spiele bereitstellte. Der Hinweis auf "eigene Settings, Einstellungen und Tests-Parcours" ist eindeutig. Genau dies wurde damals zunächst versäumt, jetzt nicht, und ich möchte bitten, dies zur Kenntnis zu nehmen.
 
Zuletzt bearbeitet:
....Genau dies wurde damals zunächst versäumt, jetzt nicht, und ich möchte bitten, dies zur Kenntnis zu nehmen.

Ich denke das wurde von fast allen Usern die noch auf Computerbase noch klicken, "wohlwollend" zur Kenntnis genommen. Kritischer betrachtet werden seit diesem nvidia-Schnitzer die Tests denke ich dennoch... ;)
 
Zuletzt bearbeitet:
eter schrieb:
Auf einer ATi-Karte kostet das Adaptive Anti-Aliasing selbst in der Quality-Einstellung gerade einmal sieben Prozent an Leistung gegenüber dem gewöhnlichen 4xMSAA, im Performance-Modus gar nur drei Prozent
Dummerweise hat CB nicht geprüft, ob das AAA auf MS- oder SS-Basis ausgeführt wird (das entscheidet die Catalyst-Version und diese dann je nach Spiel). In der Regel ist AAA nur TMSAA - und da bricht nV auch um nur 3% ein. Q-AAA hat btw die doppelte Abtastrate von P-AAA, ob TMSAA oder TSSAA hat damit aber nichts zu tun.
wadenbeisser schrieb:
da kann man wohl erwarten das sie zumindest unter den gleichen Bedingungen auch etwas mehr leistet
Dann versuche mal, das sample-sparende AF einer Radeon so umzubiegen, dass die gleiche Qualität wie bei nVidias Q rauskommt und schau dir an, wie stark die Radeon einbricht. Es sind keine gleichen Bedingungen, da AMD unterabtastet und so Fps gewinnt.
 
Zuletzt bearbeitet:
rumpel01 schrieb:
Stimmt, diese Auswertung sagt auch gar nichts über den jeweiligen Nutzen aus: https://www.computerbase.de/artikel...seite-9#abschnitt_direct3d_10_vs_direct3d_101
Richtig, es zeigt nur das eine 4670, 4850 und 4890 mit dem betreffenden 0.1 Pfad mehr FPS raushauen.
Warum wird nicht erklärt, ob es vielleicht daran liegt das AMDs .0 Pfad in dem Falle gänzlich unoptimiert bleibt wird nicht geklärt. Für AMD machts auch kaum Sinn .0 neben .1 zu optimieren, mal ausgenommen für die paar HD2 Kunden.

Ebensowenig wird geklärt, wie andere Karten (also nicht HD4) sich dort verhalten.

Artikel schrieb:
Anscheinend nutzen die Entwickler D3D 10.1 in diesem Fall nur dazu, um die Qualität des Anti-Aliasing für Alpha-Test-Texturen zu verbessern.
Das zeigt mir nicht wie es konkret aussieht.
Unter diesem Satz kann sich niemand etwas vorstellen. Wie siehts den nun genau aus?

eter
Mir gings eben um 8xMSAA und HQ auf einer Geforce.
 
Unyu schrieb:
Wie siehts den nun genau aus?
Mit DX10.1 werden die Alpha-Tests nicht TMSAA-üblich an den Rändern aufgeweicht (ähnlich A2C), sondern filigraner geglättet - mehr Richtung TSSAA. Mir fällt leider der Name für das Verfahren nicht mehr ein. Sieht auf jeden Fall gerade in Bewegung deutlich besser aus und der Fps-Einbruch durchs zuschalten ist unter DX10.1 geringer als unter DX10.0.

DX10.0 vs. DX10.1

1.5.08_DX10.0.jpg 1.5.08_DX10.1.jpg
 
y33H@ schrieb:
Dann versuche mal, das sample-sparende AF einer Radeon so umzubiegen, dass die gleiche Qualität wie bei nVidias Q rauskommt und schau dir an, wie stark die Radeon einbricht. Es sind keine gleichen Bedingungen, da AMD unterabtastet und so Fps gewinnt.

Du widersprichst mir das die GTX275 bei dem Mehrpreis zur HD 4890 unter den gleichen Rahmenbedingungen auch mehr zu leisten hat?
Eine faszinierende Wendung.. :freak:

Und trotzdem ist der Vergleich nVidia (D3D10) mit ATI (D3D10.1) in etwar so schwachsinnig wie die ATI Karten künstlich auf den D3D10 Support zu beschränken.
 
Zuletzt bearbeitet:
Ich sage, dass sie mehr leistet bzw. die bessere Qualität bietet (hinsichtlich des AF) für mehr Geld. Ergo widerspreche ich dir nicht. Wenn etwas teurer ist, muss es mehr leisten (Fps oder BQ) - und das tut die GTX 275.
 
Zurück
Oben