Test DirectX 12: Vollgas für AMD in der Beta von Ashes of the Singularity

max_1234 schrieb:
Wow, was für eine Korinthenkackerei.
1. AS sind Bestandteil, sprich ein Feature von DX12, aber kein Muss.

Max

Das ist falsch, denn AS sind Bestandteil der DX12-API und müssen daher von JEDER Karte, die DX12 Unterstützung meldet, korrekt verarbeitet werden (also zum richtigen Ergebnis führen).
 
Problem ist nur:
Wie und in welcher Art das Ergebnis zu Stande kommt wäre demnach irrelevant.
Die Karte muss es nur melden. Ob diese es dann per Hardware oder Software löst ist dann ja egal... und in welcher Zeit, solange das Ergebnis stimmt.
 
Wadenbeisser schrieb:
@mambokurt
Dein doller Becherhalter hat aber keinen Einfluss auf die Fahreigenschaften und Leistungswerte des Fahrzeugs, die unterstützten Funktionen einer Grafikkarte hingegen sehr wohl.
Was du meinst sind eher die Aufkleber und die, bei ausreichender Kühlung, wahl des Kühlsystems bzw. Anzahl der Anschlüsse.

Das kommt schon hin. Nvidia unterstützt über irgendwelche Schwachsinnsfeatures ein höheres Featurelevel als Amd(darauf wurde hier Wochen und Monate rumgeritten bevor das mit Async Compute rauskam), aber letztendlich unterstützen sie das was zählt halt nicht in Hardware. Also: schwachen Motor verbaut aber über Becherhalter höheres Featurelevel ;)
Ergänzung ()

DocWindows schrieb:
Ein Fahrzeug definiert sich nicht über einen starken Motor. Es ist auch mit einem schwachen oder mittelstarken Motor noch ein Fahrzeug, wenn für die Definition Fahrzeug nur erforderlich ist, dass es einen Motor haben muss.

Vollkommen korrekte Aussage, genauso wie 3.5 Gb Ram + 0.5 Gb Ram 4 Gb Ram sind.

Ich habe nie behauptet dass sie zu Unrecht behaupten DX12 zu unterstützen, ich sage dass Nvidia im günstigsten Fall nicht viel in die Zukunftsfähigkeit seiner Produkte gesteckt hat und dadurch der Lebenszyklus dieser Produkte unnötig verkürzt wird. Den Endkunden juckt es relativ wenig ob das per Definition nun 4Gb Ram sind oder per Definition das bessere Featurelevel, der Kunde muss seine Karte früher ersetzen.
 
Das kommt schon hin. Nvidia unterstützt über irgendwelche Schwachsinnsfeatures ein höheres Featurelevel als Amd(darauf wurde hier Wochen und Monate rumgeritten bevor das mit Async Compute rauskam), aber letztendlich unterstützen sie das was zählt halt nicht in Hardware. Also: schwachen Motor verbaut aber über Becherhalter höheres Featurelevel
Im Gegensatz zu Async Compute sind diese Features aber funktional, das heißt wenn sie nicht unterstützt werden kann Software, die diese Features voraussetzt, überhaupt nicht mehr laufen oder diverse Effekte nicht erzielen, sofern keine Fall-Back-Lösung vorhanden ist.

Wie dem auch insgesamt sei, die Diskussion welche der aktuellen oder halbaktuellen GPUs jetzt unter DX12 besser ist, finde ich sowieso insgesamt im Moment etwas überflüssig. Denn bis sich DX12 wirklich verbreitet, werden noch ein paar Jahre ins Land gehen. Ich wage es deshalb einfach mal zu behaupten, dass GPUs, die aktuell so gekauft werden, während ihres Lebens im Durchschnitt wesentlich mehr Zeit unter DX11 verbringen werden als unter DX12. Deshalb finde ich das DX12 Thema im Moment noch ziemlich überbewertet.
 
Ich bin da etwas anderer Meinung bzw. man kann es nicht pauschal sagen und jeder soll für sich selber das ganze bewerten.
Just Cause 3 und F1 2015 werden beide einen DX12 Patch erhalten und werden unter DX12 Gebrauch machen von Conservative Rasterization und ROVs, was kein Zufall ist, weil mit Intel kooperiert wurde und Intel beide Features ordentlich unterstützt.
Heißt man kann deutlich bessere Performance oder exklusive Grafikeffekte erwarten.

Dann gibt es einige Spiele die von Async Compute unter den Konsolen Gebrauch machen, wenn AMD Glück hat und Besitzer, dann wird das gleiche auch für den PC umgesetzt.
Da gibt es in Zukunft vermutlich einige Beispiele.

Und naja, es interessieren ja die modernen und aktuellen Spiele.
Heute noch DX11, morgen DX12.
 
Nai schrieb:
Im Gegensatz zu Async Compute sind diese Features aber funktional, das heißt wenn sie nicht unterstützt werden kann Software, die diese Features voraussetzt, überhaupt nicht mehr laufen oder diverse Effekte nicht erzielen, sofern keine Fall-Back-Lösung vorhanden ist.

Du weißt von welchen und wie vielen Features wir hier reden? Und auch dass eher gegen Tiers als Featurelevels gecoded wird? (jedenfalls soweit ich als Wald und Wiesen Programmierer sagen kann...)

Wie dem auch insgesamt sei, die Diskussion welche der aktuellen oder halbaktuellen GPUs jetzt unter DX12 besser ist, finde ich sowieso insgesamt im Moment etwas überflüssig. Denn bis sich DX12 wirklich verbreitet, werden noch ein paar Jahre ins Land gehen. Ich wage es deshalb einfach mal zu behaupten, dass GPUs, die aktuell so gekauft werden, während ihres Lebens im Durchschnitt wesentlich mehr Zeit unter DX11 verbringen werden als unter DX12. Deshalb finde ich das DX12 Thema im Moment noch ziemlich überbewertet.

Und auch da divergieren wir vor uns hin... Wenn ich jetzt eine 970 oder 960 kaufe, soll die wenns geht drei oder vier Jahre halten. 2016 allein stehen 15? Titel auf der Liste, 2017 wird wohl ein Übergangsjahr und 2018 werden Imho schon massiv DX 12 Titel rauskommen. Aber von meiner Glaskugelstarrerei mal abgesehen: das ist nicht das was interessiert. Den User interessiert das eine Spiel was rauskommt, und seine Graka mit Dx 12 überfordert. Das eine Spiel, das er zocken will und das ihm zum Grakawechsel 'zwingt'. Und ich denke da werden einige Titel in 2017 rauskommen...
 
Er hat absolut recht damit. AMD unterstützt weniger Features der API. Werden die eingesetzt, gibt es die Effekte entweder nicht auf AMD Hardware oder müssen über langsame Shader-Techniken emuliert werden.
 
Du weißt von welchen und wie vielen Features wir hier reden?
Hmmm? Wir reden hier von Raster Ordered Views und Conservative Rasterization. Bei Raster Ordered Views werden die Fragmente eines bestimmten Pixels in der Reihenfolge ihrer geometrischen Primitive abgearbeitet, womit man z.b leicht Transparenz erstellen kann. Bei Conservative Rasterization, wird ein Fragment für jeden Pixel erstellt mit dem sich das Primitiv schneidet, was man wiederum z.B. für Ray-Traced-Shadows oder globale Illumination per VXGI verwenden kann. Habe ich etwas vergessen?

Und auch dass eher gegen Tiers als Featurelevels gecoded wird? (jedenfalls soweit ich als Wald und Wiesen Programmierer sagen kann...)
Darauf bezog sich meine Aussage nicht. Sobald ein benötigtes funktionales Feature, sei es das Resource Binding Tier wie in diesem Fall oder eben Conservative Rasterization oder ROV, nicht unterstützt wird bzw. keine Fall-Back-Lösung vorhanden ist, dann ist die Software eben nicht mehr lauffähig.

Und auch da divergieren wir vor uns hin...
Unterschiedliche Menschen haben eben unterschiedliche Meinungen und Ansprüche :)
 
Zuletzt bearbeitet:
mambokurt schrieb:
Ich habe nie behauptet dass sie zu Unrecht behaupten DX12 zu unterstützen, ich sage dass Nvidia im günstigsten Fall nicht viel in die Zukunftsfähigkeit seiner Produkte gesteckt hat und dadurch der Lebenszyklus dieser Produkte unnötig verkürzt wird. Den Endkunden juckt es relativ wenig ob das per Definition nun 4Gb Ram sind oder per Definition das bessere Featurelevel, der Kunde muss seine Karte früher ersetzen.
Ich würde eher mal sagen, dass MS hier die Hauptschuld hat. Seit es Tiers, Featurelevel und solch einen Quark gibt haben wir eine Fragmentierung die Anfangs zum Nachteil von Nvidia war (DX11.1/2; in der Praxis egal da es keine Spiele gab), jetzt aber mit DX12 seinen Höhepunkt erreicht hat wo beide Hersteller nur Teile von DX12 beherrschen. Das ist kein Zufall. Bis DX11.0 gab es da auch keine Probleme und der Kunde wusste immer woran er ist.
Wer in der Praxis insgesamt mit den aktuellen Generationen besser da stehen wird wird man frühestens in einem Jahr sehen. Richtige Auswirkungen die nicht nur ein paar vereinzelte Spiele betreffen wohl eher dann wenn die aktuellen Generationen eh längst zu langsam sind.
Die ganze Diskussion hier ist ja bisher nur theoretischer Natur die 99% aller Spieler nicht interessiert. Erst die Praxis wird zeigen inwiefern welche Features wann gebraucht werden. Und zwar nicht nur vereinzelt. Das sollte man nicht vergessen. Man muss ja nur mal auf DX11.1/2 schauen. Das bedeutete keinerlei Nachteil für Nvidia.
 
nospherato schrieb:
Problem ist nur:
Wie und in welcher Art das Ergebnis zu Stande kommt wäre demnach irrelevant.

Eine API macht nie irgendwelche Vorgaben, wie die Hardware, die darüber angesprochen werden soll, auszusehen hat.
 
Nai schrieb:
Hmmm? Wir reden hier von Raster Ordered Views und Conservative Rasterization. [....]Habe ich etwas vergessen?

Tiled Resources? Egal. Zwei oder drei Features... _Nur_ zwei oder drei Features für ein komplettes Featurelevel 12_1.

Darauf bezog sich meine Aussage nicht. Sobald ein benötigtes funktionales Feature, sei es das Resource Binding Tier wie in diesem Fall oder eben Conservative Rasterization oder ROV, nicht unterstützt wird bzw. keine Fall-Back-Lösung vorhanden ist, dann ist die Software eben nicht mehr lauffähig.

Klar, wenn ich drauf poche geht das nicht. Das sind aber 12_0 und 12_1, der normalsterbliche Entwickler wird wohl eher gegen 12 programmieren und sich aus _0 und _1 an Features holen was unterstützt wird, oder sehe ich das falsch?
 
Klar, wenn ich drauf poche geht das nicht. Das sind aber 12_0 und 12_1, der normalsterbliche Entwickler wird wohl eher gegen 12 programmieren und sich aus _0 und _1 an Features holen was unterstützt wird, oder sehe ich das falsch?
Was für möglichkeiten hat ein Programmierer denn bei der optionalen Unterstützung eines Features insgesamt? M.E. sind es folgende:
1. Das Feature nicht zu verwenden und nur die "Fallback"-Lösung implementieren
2. Das Feature zu verwenden und eine Fallbacklösung für die Nichtunterstützung einzubauen, die dann wahrscheinlich, langsamer ist, geringere graphische Qualität hat oder diverse Effekte nicht darstellen kann.
3. Das Feature vorauszusetzen und bei Nichtvorhandensein den Dienst verweigern

Letzteres ist bei kommerzieller Software nur eine gute Lösung, wenn das Feature einen großen Marktanteil hat, was also selten der Fall sein wird. Ersteres ist dafür sehr wahrscheinlich eine Lösung die man sehr oft finden wird, weil es am günstigsten zu programmieren ist. Der Anteil der zweiten Lösung wird m.E. auch deutlich geringer sein, weil es für die Programmierer einen großen Aufwand bedeutet und man deshalb oft auf den kleinsten gemeinsamen Nenner programmiert.
 
Zuletzt bearbeitet:
Na eher 1 _und_ 2. Du programmierst auf 12, das was alle zwingend können müssen. Und dann guckst du was du überhaupt gebrauchen kannst von _0 und _1, und setzt das halt inklusive Fallbacks um.
Wie gesagt, ist nicht meine Domäne, aber Imho ist das halb so wild. Letztendlich fängt man da ja auch nicht unbedingt beim Urschleim an, was Dx11 konnte muss 12 doch auch unterstützen, also reichts doch theoretisch seinen Code zu nehmen und die fiesen Teile mit 12er Features schneller zu machen, was bisher gut lief bleibt halt auf 11. Ich denke mal genau deshalb ging das jetzt recht fix mit den ersten Spielen.
 
mambokurt schrieb:
Den Endkunden juckt es relativ wenig ob das per Definition nun 4Gb Ram sind oder per Definition das bessere Featurelevel, der Kunde muss seine Karte früher ersetzen.

So? Warum denn? Kann der Kunde nicht einfach Grafikeinstellungen vornehmen die seine Karte packt? Du scheinst davon auszugehen dass ein GTX 970 Käufer annimmt, immer bessere und bessere Grafik oder immer mehr und mehr FPS zu bekommen.

Die Grafikqualität und die FPS die er heute bekommt, wird er morgen auch noch bekommen, denn das Fahrzeug mit dem schwachen Motor muss ja auch nicht zwingend früher ersetzt werden als das Fahrzeug, welches einen starken Motor hat.

Zukunftsfähigkeit richtet sich weniger an den technischen Details aus (bis auf API-Support vielleicht), sonderen daran was ein Kunde von seiner Karte erwartet. Es gibt heute auch noch Leute die mit einer 1GB-Karte der vorvorvorletzten Generation spielen. Die "mussten" ihre Karten anscheinend bis heute nicht ersetzen. Gibt aber auch Leute die ihre Original Titan durch die Titan X ersetzen "müssen". Warum auch immer.

Bei FullHD@mittlere bis hohe Details und nicht allzu übertriebenem AA wird die 970 noch lange werkeln können.
 
Zuletzt bearbeitet:
Sontin schrieb:
Er hat absolut recht damit. AMD unterstützt weniger Features der API. Werden die eingesetzt, gibt es die Effekte entweder nicht auf AMD Hardware oder müssen über langsame Shader-Techniken emuliert werden.

Oh man bitte nicht schon wieder Du . Entweder ist AMD bei dir generell scheiße und NV das Gottgleiche Maß aller Dinge oder du glänzt mit eklatanter abwesenheit von Sachverstand . Nicht jedes Feature steht auch für einen graphischen Effekt . So wie es auch bei Asynchron Shadern der Fall ist die für absolut keinerlei neue zusätzliche Grafische Effekte zuständig sind .
 
Zuletzt bearbeitet von einem Moderator:
Alle DX12 Effekte sind auch mit DX11 umsetzbar.
DX12 = DX11 mit neuem Untersatz. Optisch werdet ihr genau 0 Unterschied bemerken, war auch nie Sinn der Sache.

mfg,
Max
 
DocWindows schrieb:
So? Warum denn? Kann der Kunde nicht einfach Grafikeinstellungen vornehmen die seine Karte packt? Du scheinst davon auszugehen dass ein GTX 970 Käufer annimmt, immer bessere und bessere Grafik oder immer mehr und mehr FPS zu bekommen.

Ich gehe davon aus, das jede Graka von DX 12 profitieren müsste, weil es bei DX 12 ja eben um etwas mehr Hardwarenähe bzw Entlastung der CPU und Entschärfung der Drawcalleskalation ging. Das heißt: JA, ich gehe davon aus dass ein Spiel auf einer DX 12 Karte entweder besser aussieht bei gleicher Performance oder bessere Performance bei gleichem Aussehen zeigt, sonst _braucht_ man DX12 nämlich gar nicht. Dass DX12 unter einer Graka schlechter performed als DX11 ist schlicht ein Lacher, das heißt übersetzt dass man auf der Graka DX12 direkt in die Tonne treten und weiter DX11 benutzen kann.
 
Zuletzt bearbeitet von einem Moderator:
mambokurt schrieb:
Das DX12 unter einer Graka schlechter performed als DX11 ist schlicht ein Lacher, das heißt übersetzt dass man auf der Graka DX12 direkt in die Tonne treten und weiter DX11 benutzen kann.
Gibt es denn schon fertige(!) DX11/12-Spiele die das durch die Bank weg beweisen? Einfach mal abwarten und Tee trinken. :)
Die Praxis wird zeigen wie es letztendlich aussehen wird. Das wird aber zu einem Zeitpunkt der Fall sein wo die 970 eh zum alten Eisen gehört. Die Karte ist jetzt immerhin knapp 1,5 Jahre auf dem Markt.
 
Alteisen für 300€, na Danke ;)
Ich denke mal wenn in den nächsten Monaten die ersten DX12 Titel rauskommen, wird man sehen woran man ist. AOS wird mit seinen Drawcalls so ziemlich der Extremfall sein...
 
max_1234 schrieb:
Alle DX12 Effekte sind auch mit DX11 umsetzbar.
DX12 = DX11 mit neuem Untersatz. Optisch werdet ihr genau 0 Unterschied bemerken, war auch nie Sinn der Sache.
Oder auch mit DX9, seit es programmierbare Shader gibt.
Viele Dinge muss man dann über 10 Umwege programmieren und hat dann am Ende 0,37 FPS, aber was solls. :p

Natürlich kann DX12 auch optisch etwas Neues bieten, wenn die neuen Rendering-Features genutzt werden, die auf anderem Wege zu teuer sind.
 
Zurück
Oben