Kompatibilität von DX10.1(-Karten) zu DX11

Beelzebub

Lieutenant
Registriert
Nov. 2008
Beiträge
522
Hallo.
In diesem Artikel steht etwas davon, dass ATI praktisch seit der HD2900 die Hardwareanforderungen von DX11, welche eigentlich schon DX10 beinhalten sollte erfüllt. Letztendlich wurde (vllt nvidia zu liebe?) einige der Anforderungen gestrichen.
Vermutlich wurde das ursprünglich geplante DX10 im jetzigen DX11 dennoch weiter verfeinert, sodass sicher keine 100%ige Kompatibilität besteht.

Meine Frage ist nun inwiefern DX11 diese Karten ausnutzen kann oder ob diese Karten trotzallem nur reines DX10 unterstützen und obwohl theoretisch möglich keine Eigenschaften von DX11 nutzen können?

Hinzukommt ja noch, dass es mittlerweile erwiesen ist, dass DX10.1 zu DX10 gewisse Vorteile bringt. Sei es eine reine Performancesteigerung oder aber stattdessen bessere Bildqualität. Ich nehme an, dass zumindest DX10.1 vollständig von allen zukünftigen DX11 Spielen unterstützt wird, da es bestandteil von DX11 ist?

Könnte es sein, dass dann die einst VIEL günstigeren ATI-Karten mit den teureren, aber etwas besseren Nvidia-Karten in naher Zukünftig voll mithalten können oder ist es dann schon Zeit sich eine neue DX11 Karte anzueignen, sodass die nVidia Jünger gar nichts "verloren" haben?

Was sagen die Experten dazu?
 
Ati-Karten enthalten einen Tesselator, der in der Spezifikation für DX11 steht - allerdings muss ein solcher nicht zwangsläufig mit DX11 kompatibel sein.
Ganz abgesehen davon wäre es für einen Grafikkartenhersteller nicht förderlich, wenn er zu weit in die Zukunft entwickelt, da er doch seine neuen Karten verkaufen will, die sich meistens recht teuer verkaufen lassen, oder?
 
@Iapetos

Naja, ich denke die Geschwindigkeit der Karten macht den Unterschied - die nächste Generation wird wieder entsprechend schneller sein, so dass es herzlich wenig bringt, dass einige Teile von DX11 in DX 10.1 intergriert sind, wenn die Karte zu langsam ist!

Ausserdem greift stets das Marketing - DX11 klingt viel besser - also ab in den Rechner!

CU
 
Nvidia könnte die eigenen Karten ja auch DX11 fähig machen.
Features die von dx10 zu dx11 neu hinzugekommen sind, könnte man ja mit CUDA emulieren, wie es dann laufen würde sei mal dahingestellt, aber möglich wäre es.

Intel zeigt ja schon seit jahren wie das geht.
Deren Grafikkarten unterstützen das minimale an features und der rest wird von der CPU errechnet.

So hat man durch ein Treiber Update eine ganze generation von DX9 zu DX10 hochstufen können.
Ich selber habe mal den 3Dmark vantage auf meinemr intel graka ausprobiert, es war der aller erste treiber, und für ein frame brauchte er fast eine minute - danach hab ich es nie wieder probiert ^^

Theoretisch könnten alle Grafikkarten hersteller ihre Karten "upgraden" neue funktionen nachrüsten etc, denn es sind ja programmierbare chips. Doch man macht es einfach nicht, da man ja neue Karten verkaufen will ;)

Was man möglich ist, und was gemacht wird, sind zwei unterschiedliche paar schuhe ;) :rolleyes:
 
Beelzebub schrieb:
vllt nvidia zu liebe?

Genau deswegen :mad:

Schande über NVIDIA. Vermutlich hatten sie einige Features soweit fertig, die sie (schnell) umsetzen konnten und haben dann MS "überredet", den Rest von DX10/11 vorerst zu streichen. Damit war man der Konkurrenz natürlich voraus, die in harter Arbeit jedes Detail mühevoll umgesetzt hat. Kein Wunder, dass die 2900 so spät kam und dementsprechend nix reissen konnte.

Es könnte sein, das einige der anscheinend schon verbauten DX11-Features sich quasi mit erscheinen der DX11 API per Treiber aktivieren lassen. Die Möglichkeit sehe ich zwar als äußerst gering an, aber möglich.

Wer hat was davon (wenn das funktioniert)? Eigentlich nur die, die eine Graka lange behalten, bzw. eher alte Hardware kaufen. Denn die Leute könnten dann einen Geschwindigkeitsbonus erhalten, sobald mal passende Games erscheinen, die dann auch noch die im nachhinein aktivierte Hardware unterstützen.

Irgendwie scheint mir das aber eher ein Nachteil für ATI zu sein, denn dementsprechend kann man ja nicht so viele Grakas verkaufen, wenn die Hardware so lange nutzbar bleibt.

Im Gegensatz zu NVIDIA, der Grakas entweder abrauchen oder Hardwaretechnisch schneller veralten. Beispielhaft sei hier die Geforce7 genannt, die im Vergleich zu X1900 Serie sowas von kein Land mehr sieht, das es echt weh tut.

Der Kommentar von oben bezieht sich vermutlich auf die Story vom Inq, wo alles haarklein beschrieben wird.

"DX11 is a much funnier story. The DX10 feature list was quite long when it was first proposed. ATI dutifully worked with Microsoft to get it implemented, and did so with the HD2900. Nvidia stomped around like a petulant child and refused to support most of those features, and Microsoft stupidly capitulated and removed large tracts of DX10 functionality."

Alles in allem solltes für NVIDIA diesmal aber wirklich schwierig werden. DX11 neu, GDDR5 neu, 40nm mitm Riesenchip, dazu NVIDIAs "Bump-Probleme". Mal sehen wie sie das alles gebacken bekommen und wann wir den ersten G(T?)300 sehen.

Ich wünsche DAMMIT jedenfalls das Beste und das sie mal die Früchte der harten Arbeit ernten können. Sprich erste (schnelle) DX11 GPU aufm Markt und mal ein Marktanteil deutlich in Richtung 50%.

EDIT: rony12: Du hast den Nagel aufn den Kopf getroffen, so will NVIDIA DX11 anscheinend (teilweise) umsetzen. Zitat ausm Link oben:

"Contrast that with the GT300 approach. There is no dedicated tesselator, and if you use that DX11 feature, it will take large amounts of shader time, used inefficiently as is the case with general purpose hardware. You will then need the same shaders again to render the triangles. 250K to 1 Million triangles on the GT300 should be notably slower than straight 1 Million triangles.

The same should hold true for all DX11 features, ATI has dedicated hardware where applicable, Nvidia has general purpose shaders roped into doing things far less efficiently. When you turn on DX11 features, the GT300 will take a performance nosedive, the R870 won't."

Das wird mal echt spannend, ich hab so das Gefühl, wer hier den falschen Ansatz verfolgt, wird ganz schön auf der Nase landen. Mal schauen wers wird...
 
Zuletzt bearbeitet:
ich würde fast sagen das ATI endlich einen vorteil daraus ziehen kann eine fast fertige DX11 architektur seit der HD2K im stall zu haben :D
sie müssen nichtmehr viel machen um kompatibel zu sein, sie können sich als fast auschließlich auf die optimierung und oerformancesteigerung konzentrieren.

das wird auch der grund sein warum dieses jahr schon ein DX11 Produkt demonstriert wurde und warum diese auch ende dieses jahres schon vertrieben werden.
 
Mal langsam, im Inquirer - gerade in Artikeln von Charlie Demerjian - wird sehr viel spekuliert und sich gerne auch verspekuliert. Wie Nvidia Tesselation umsetzen wird, ist nicht bekannt.
Außerdem gibt es ja noch andere Features, z. B. Threaded Rendering, auch das verdient Beachtung.
 
Es ist doch so, dass bei DX10/10.1/11 die Funtkionsweise von Microsoft vorgeschrieben wird.
Man kann keine Features rauspicken, oder ändern.

Deshalb würde ich behaupten, dass Tesselation bei beiden Herstellern gleich sein wird.
Frage ist nur, ob ATI DX10.1 Karten es unterstützen werden oder nicht.
 
Features rauspicken oder ändern natürlich nicht, aber umsetzen kann man das unterschiedlich. Entweder über (dedizierte) Hardware, oder z.B. programmierbare Shader. Die sind ja nicht umsonst programmierbar. Im aktuellen GT200 sind ja auch (double precision) Shader drin, die an der eigentlichen Grafikberechnung nicht teilhaben. Und gerüchteweise (siehe Inq), soll der Anteil von 5% auf 10% Chipfläche gesteigert werden.

@Iapetos: Fakt ist, dass NVIDIA momentan weder die 40nm, noch GDDR5 am Start hat und auch kein DX10.1 (jedenfalls noch nicht). Die Umsetzung aller dieser Features ist für NVIDIA folglich wesentlich komplizierter, als für ATI, die zudem noch den kleinerer Chip haben und demzufolge Fertigungsproblemen aus dem Weg gehen. NVIDIA hingegen verbaut 10% (für die Grafik nutzlose?) Chipfläche, was die Sache nicht vereinfacht.
 
Ja, ich wage mal ne prognose und sage, das es wieder so aussehen wird wie bei der 8800gtx vs 2900xt zu gunsten von ati.

Früher auf dem markt und mehr leistung. Denn damals konnte ATI keinen idealen chip uaf den markt bringen da man ja von mehr features ausging die dann aber entfernt wurden und nvidia sich nur auf die verbleibenden konzentriert hatte und so schneller war, da ja viele möglichkeiten beim r600 ungenutzt blieben.

Jetzt ist es so das sich diese Arbeit bezahlt macht. ATI kann diese bereits im r6t00 integrierten features endlich zeigen und mus daher nix neu entwickeln, Nvidia hat sich einfach erst auf den loobereen ausgeruht und sich nun übernommen, da man ja auch gegen Intels Grafikkarte konlureiren will und daher auch features einbaut die man für die grafik net braucht. aber ob man das hinkriegt, das bezwifele mal.

Nvidia will weinfach auf zu vielen hochzeiten gleichzeitig tanzen.

DX 10.1
Dx11
40 nm
Larrabee konkurent (zumindest 10% des chips ;))

ach und ne performancesteigerung braucht man ja auch noch
gleichzeitig darf der verbrauch aber nicht weitrer steigen (ich meine nvidia sagte was von max. 225 watt)
 
Zuletzt bearbeitet:
Um nochmal kurz auf die Tesselations-Unit des R600 zurück zu kommen:

Man muss, um den Sinn der Implementierung dieses Feature verstehen zu können, die Herkunft des R600 bemühen - nämlich den in der xbox360 verbauten Grafikchip Xenos.
Das Feature wurde höchst wahrscheinlich beibehalten, um xbox360-Games auf einem R600-System mit allen Features, inkl. LOD-flexible Tesselation lauffähig zu machen oder um dies zumindest zu erleichtern.

An sich ist Tesselation eine sehr interessante und u.U. auch extrem performante Sache. - Ob ich von vorn herein ein hochpolygoniges Modell inkl. Textur oder eine durch x-mal Tesselation gerendertes minderpolygoniges Modell nehme, kann, muss nicht aber kann einen z.T. brachialen Performanceunterschied bei konstanter Qualität bedeuten.

Nichtsdestotrotz würde ich mich hüten, wegen des R600-Fauxpas, inkl. der Tesselations-Unit gegen nVidia und Microsoft zu konspirieren. Der R600 kränkelt an einigen sehr kritischen architekturbedingten Schwächen, die in Teilen durch den RV670 und insbesondere durch den RV770 sehr erfolgreich ausgebügelt worden sind.
 
Zuletzt bearbeitet:
Fakt ist, zunächjst sollte DX 10 vieles können was jetzt erst Dx 11 kann aber schon im r600 implenteirt wurde, was der g80 aber nich konnte und bis heute auch net im gt200 integriert wurde.

Nein, ich bin kein ati-fanboy,. ich hab ne 8800gt drin.

Ich bion sicher diese features hätten den r600 auch noch deutlich schneller gemacht.
 
Zuletzt bearbeitet:
Wir werdens sehen :)

Wann kommt eigentlich OpenCL? O.o
Wurde schon vor Monaten gezeigt und versprochen, aber bis jetzt keine Spur.
 
OpenCL soll zeitgleich mit DirectX11 erscheinen.
 
Zurück
Oben