News DirectX 12: AMD bestätigt maximal Feature-Level 12_0 für GCN

Buttermilch schrieb:
wieviel schneller ist eine Karte wenn sie statt DX 12-0 dann DX 12-2 kann?

Das kommt auf die Effekte an und wie oft sie verwendet werden. Aber DX12.1 ist schon eine interessante Erweiterung:

12.1 a) Conservative Rasterization:
Conservative rasterization means that all pixels that are at least partially covered by a rendered primitive are rasterized, which means that the pixel shader is invoked. Normal behavior is sampling, which is not used if conservative rasterization is enabled.

12.1 b) Rasterizer Ordered Views:
Standard graphics pipelines may have trouble correctly compositing together multiple textures that contain transparency. Objects such as wire fences, smoke, fire, vegetation, and colored glass use transparency to get the desired effect. Problems arise when multiple textures that contain transparency are in line with each other (smoke in front of a fence in front of a glass building containing vegetation, as an example). Rasterizer ordered views (ROVs) enable the underlying OIT algorithms to use features of the hardware to try to resolve the transparency order correctly. Transparency is handled by the pixel shader.
 
rony12 schrieb:
Dann kommt die Radeon HD 7000 serie, welche GCN 1.0 hat (zumindest zu großen teilen, weil es hier wohl auch umgelabete chips gibt). und diese soll nun nach aussagen FL 12_0 unterstützen? Ich dachte hardwareseitig wäre FL 11_1 drin Öö ...?

Toms schrieb:
Stimmt, die letzte GCN-Inkarnation wurde noch nicht mit Hinblick auf DirectX 12 entwickelt, Maxwell aber schon

Das ist die wahrscheinliche Antwort darauf:

[F]L4SH schrieb:
Wenn die Xbox angeblich das volle DX12 bekommt und auf GCN 1.0 basiert, wo kommen dann wohl die DX12 Funktionen her? Kommen all die DX 12 Funktionen vielleicht genau von den GCN GPUs und nicht die GCN GPUs (irgendwann) zu den DX12 Funktionen? Wer weiß :rolleyes:

Ich hab die Quelle nicht parat, aber soweit ich mich erinnere, hat AMD selbst das schon mal so erklärt. Das passt auch zu den Mantle-Artikel bei Anandtech usw.

DX12 ist, wie auch Mantle, von der hardwarenahen API der XBox One abgeleitet, und die ist halt auf GCN zugeschnitten. Deshalb ist es möglich, dass GCN-GPUs, die eigentlich älter sind als DX12, trotzdem schon zumindest die grundlegenden DX12-Features unterstützen.
 
DX 11 wurde ja im Herbst 2009 it win7 eingeführt, hat aber bis Mai 2010 gedauert bis es die ersten games konnten ( anstatt DX 9/10) nur gab es da keine Karte die das unterstützt hatten ;)

Medal of Honor: Warfighter was das erste game was DX 11 only war,
und das kam wann raus?
taattaattaa oktober 2012....

wer hatte da noch eine grafikkarte von 2009? aus dem release jahr von win 7 sind das:
nur die DX 10 Karten ala Radeon R700 (HD 4xxx) Series,
dx 11 kam erst mit radeon HD 5xxx (2010)

oder
Nvidia GTX 2xx mit DX 10 (2009 oder
die ersten mit DX 11 gt 4xx (ende 2010)
wenn das bei DX 12_x auch so wird dann haben wir bis dahin eh alle 14nm mit HBM 3.0 :D

http://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units
http://en.wikipedia.org/wiki/List_of_AMD_graphics_processing_units
http://en.wikipedia.org/wiki/DirectX
http://en.wikipedia.org/wiki/List_of_games_with_DirectX_11_support
 
Zuletzt bearbeitet:
Wolfsrabe schrieb:
Ist Maxwell 2.0 nicht sowieso später erschienen als die Generationen von AMD, die im Artikel aufgelistet wurden? Ist das nicht auch von Bedeutung?


Zudem liest sich der Artikel doch irgendwie grün-werbebelastet. Es hätte genügt zu sagen, daß die aktuellen/älteren AMD-Generationen nur 12.0 beherrschen und gut ist. :rolleyes:

Allerdings ;)
 
Sontin schrieb:
Haha, im schlimmsten Fall wird Fiji
nur 4GB
>300W
Feature Level 12_0

haben und damit schon beim Erscheinen vollkommen veraltet sein. :evillol:

Und toll, wie AMD frech behauptet, die "spielerelevanten Sachen" wären in 12_0, wenn Intel schon mit Pixelsync vor einem Jahr gezeigt hat, dass ROVs wichtig sein werden.

Da kann man sich ja auf die nächsten Heulattacken freuen, wenn nVidia per Gameworks Effekte einbauen lässt, die ROVs und CR zur Beschleunigung verwenden werden. :freak:
Du meinst noch schlimmer als Kepler der lediglich das 11_0 schafft wärend die Radeons dieser Zeit vermutlich auf 12_0 kommen?
 
Achje, wieder die Diskussion um 11_1. Soll ich die Battlefield 4 Ergebnisse mit Windows 8.1 erneut posten?

Mal davon abgesehen, dass Kepler Features von 11_1 unterstützt, die per DX11.2 verwendet werden können - Constant Buffers z.B., die von der Frostbite Engine verwendet werden.

Ist also nicht vergleichbar mit AMD, die weder CR und ROVs unterstützen.

Achja, GCN 1.0 unterstützt auch nur Tiled Ressources Tier 1. Ist also auch nicht besser als Kepler.
 
PiPaPa schrieb:
Das PCB der Fiji ist halb so lang wie 980Ti/Titan.
So und jetzt rechne mal 1 und 1 zusammen, warum vielleicht eine entsprechende Luftkühlung suboptimal ist.
GeForce_GTX_670_B-1_575px.jpg
was hat die Länge des Boards mit der Luftkühlung/ Wakü zu tun? es gibt auch kurze pcb bei der 970 und die haben trotzdem nen 2 fan 2 slot design, bis zu 28cm lang :D
oder mein Prozessor der hat ohne HS nur 160mm² fäche das sind 8x20mm. und wird mit einem intel aluminum stock cooler geliefert passt aber auch nen Archon drauf sogar bei ITX ;)
Ergänzung ()

BF4 Beta war ab dem 1.10.2013. Das "killerfeature" DX 11.1 ist ja ursprünglich ein Windows 8 only feature gewesen, also Stand oktober 2012, knapp ein jahr später dann BF4 hinzugefügt. wieviele games nutzen das denn bis heute?
 
Zuletzt bearbeitet:
Das PCB der Fiji ist halb so lang wie 980Ti/Titan.
So und jetzt rechne mal 1 und 1 zusammen, warum vielleicht eine entsprechende Luftkühlung suboptimal ist.
Nope, wurde gerade erörtert, Monster Kühler wie ein Accelero Xtreme IV passen auf die Fury: https://www.computerbase.de/forum/t...tart-am-16-juni.1481848/page-17#post-17470639

Dürfte somit keine Probleme geben mit Luftkühlung für Fiji. Notfalls wird das PCB künstlich verlängert. Und da AMD nicht so strunz dumm ist wie NV und kein Custom Design Verbot verhängt wie bei der Titan X, hat die GPU gleich mal von Anfang an gute Karten. ;)
 
Zuletzt bearbeitet:
Eigentlich dachte ich das Grafikkarten dazu da sind um spielen zu können und dadurch Spaß zu haben und nicht um Grabenkämpfe damit zu führen, wer nun das bessere Produkt hat. Diese Gezänke um minimale technische Vor oder Nachteile werde ich wohl nie verstehen :rolleyes:
 
Sontin schrieb:
Achje, wieder die Diskussion um 11_1. Soll ich die Battlefield 4 Ergebnisse mit Windows 8.1 erneut posten?

Mal davon abgesehen, dass Kepler Features von 11_1 unterstützt, die per DX11.2 verwendet werden können - Constant Buffers z.B., die von der Frostbite Engine verwendet werden.

Ist also nicht vergleichbar mit AMD, die weder CR und ROVs unterstützen.

Achja, GCN 1.0 unterstützt auch nur Tiled Ressources Tier 1. Ist also auch nicht besser als Kepler.

Wozu? Wäre doch irgendwie schwachsinnig wenn das Spiel nicht das höhere Featurelevel der Hardware unterstützt oder unterschiedlich viel zu berechnen ist. Ist dies der Fall?
Auch sehr lustig finde ich das du die Geschichte mit den Spielerelevanten Features bei AMD ankreiden willst, es aber beim kepler gleich wieder relativiren willst.
Dein Unterhaltungsfaktor ist echt enorm! :lol:
 
Zuletzt bearbeitet von einem Moderator: (und -> oder)
Buttermilch schrieb:
wenn das bei DX 12_x auch so wird dann haben wir bis dahin eh alle 14nm mit HBM 3.0 :D

Ich denke, bei DX12 stehen die Chancen etwas anders.

DX10.X und 11.X wurden schon allein dadurch ausgebremst, dass die letzte Konsolengeneration nur über DX9-GPUs verfügte. Da die Masse der Spiele Konsolen-Portierungen bzw. Multiplattform-Titel sind, war DX9 damit der kleinste gemeinsame Nenner. Zumal DX10 auch nicht zu DX9 rückwärtskompatibel war. Ein Spiel, das neben DX9 auch DX10 unterstützt, musste extra zwei verschiedene Renderpfade mitbringen.

Bei DX12 stehen die Zeichen anders herum. Die aktuelle Konsolengeneration bringt schon DX12-fähige GPUs mit (GCN) und tatsächlich beinhalten ihre aktuellen hardwarenahen APIs höchstwahrscheinlich auch schon wesentliche Features von DX12.

DX12 wird es somit (besonders bei der XBoxOne) sogar leichter machen, Konsolenspiele auf den PC zu portieren. Das dürfte sehr dazu beitragen, dass DX12 sich schneller durchsetzt.
 
Intel hat mit Grid2 bewiesen, dass ROVs spielerelevant sein können. Damit ist die Aussage des AMD's Menschen einfach hinfällig.

Battlefield 4 hat im Oktober 2013 bewiesen, dass nVidia Karten trotz FL11_0 nicht benachteiligt werden, wenn DX11_1 und Features verwendet werden: http://pclab.pl/art55318-10.html

Es ist einfach langweilig eure Verkaufsshow weiter lesen zu müssen. Aber darüber habe ich mich ja auch schon lustig gemacht, indem ich sarkastisch angemerkt habe, dass ICH mich angekotzt fühlen würde eine FL11_1 Karte gekauft zu haben und dann in einem FL11_1 Spiel von der FL11_0 Konkurrenz abgezogen zu werden. :lol:
 
Ergo ist diese ganze Diskussion total irrelevant, da es bis DX 12_1.... bei mehr als 3 Spielen dann am Markt eingeführt wurde, schon die nächste oder übernächste Generation an AMD, NV Karten gibt. Denn alle Erfahrungen mit neuen DX Versionen zeigen das mindestens 12 Monate vergeben bis überhaupt was passiert ist.
Win 10 release ist Mitte 2015, -> Herbst 2016 frühestens ein Game was diese features nutzt und das war alles noch vor den Next gen Konsolen. Wie sieht denn die bittere Realität heute aus?!?

Was meint ihr denn würde ein Entwicker so eines Multiplattfomers machen?
Entwickelt er 3 "verschiedene" Enginesstufen, mit 3 verschiedenen libaries? damit auf der PS4, der X one und auf einer win 10 DX 12_1/2 Hardware das game läuft?
Oder sagt der sich, wir wollen im Abstand von 2-3 Monaten auf allen Plattformen releasen und es gibt eine Version für alles, mit 2 Auflösungen 900p/30, 1080P/30 und bei der PC Version gibts dann noch nen paar Schatten oder FXAA MSAA, Sichtweite mehr. meintetwegen mit enem patch das wir den 30fps lock aufheben können und das 21:9 Format auf 16:9 ändern ;) ;) ;)
Ein Game wie GTA5 ist eine rühmliche Ausnahme gewesen (hat auch 2 jahre Verzug auf dem pc) ansonsten ist das doch immer so wie bei Watchdogs, AC, Witcher 3, und co wo es ein Grafikdowngrade (ich meine natürlich damit "Cineastischer") gibt zu dem was technisch möglich wäre, wenn der PC das Maß der Dinge wär, was er aber nicht mehr ist.
ergo ist doch der entscheidende Punkt, was kann man von Konsolen Hardware von PS4 und X one mit low level API auf den DX12 PC übertragen. Welche Features gbit es dort in Hardware? und wie einfach können sie auf den PC adaptiert werden.
 
Zuletzt bearbeitet:
ComputerBase hat in einem persönlichen Gespräch mit Robert Hallock, Head of Global Technical Marketing bei AMD, in Erfahrungen bringen können, dass Graphics Core Next in den bisher verfügbaren Varianten DirectX 12 auch mit dem Feature-Level 12_0 unterstützt. Dass alle GPUs der Architektur damit umgehen können, wollte der Hersteller hingegen nicht bestätigen.

Sehr vorsichtig Ausgedrückt der Absatz.
dass Graphics Core Next in den bisher verfügbaren Varianten DirectX 12 auch mit dem Feature-Level 12_0 unterstützt
Okay, wenn die bisherigen GCN in bisher verfügbaren Varianten DX12 auch mit dem Feature Level 12_0 umgehen können, schließt das jetzt 12_1 aus ?
Also, wenn CB was "erfahren" haben, sollten sie es auch direkt schreiben. Unterstützt man auch oder nur ?

Sonst hat die News einfach keinen Wert. Klar ist aber, die XBOX ONE hat GCN und MS wird es insofern soweit "optimieren" sodass die XBOX ONE davon stark profitiert (Portierung ect).
 
Jan schrieb:
Die Meldung bezieht sich ausschließlich auf die bisher erhältlichen Architekturen. Zu Fiji äußert sich AMD nicht. Ist jetzt deutlicher hervorgehoben.

da meine ich hat AMD doch selbst auch schon von 12_3 gesprochen, also eigentlich mehr jetzt aktuell bei Maxwell und GCN. Wobei es am Ende eh total wayne sein wird, hauptsache DX12.
 
Ich frage mich jetzt bei den ganzen grünen und roten Fangebashe, wieso Intel nicht einfach seine Portokasse in die Hand nimmt und die 2 Hinterhoffirmen mal eben aufkauft. Dann gibt es nur das Lager der blauen Vernunft und Ruhe kehrt ein.

mfg

P.S. Der Beitrag kann Ironie beinhalten.
 
avey schrieb:
Am Ende werden Spiele eh für den kleinsten gemeinsamen Nenner entwickelt.
Das ist ein wichtiger Punkt und auch der Grund, warum die Spiele, die ich spiele (World of Tanks, Diablo 3 und Heroes of the Storm) immer noch DX9 und Windows XP unterstützen.
Ich denke der größte Performance Sprung wird einfach nur der reduzierte CPU Overhead sein. Die Grafikfeatures die noch zusätzlich drin stecken, werden auch in den nächsten zwei Jahren kaum eine Rolle spielen. Das wird dann auch der Zeitpunkt sein, an dem ich meine alte Titan 1 dann in Rente schicken kann.
 
Zurück
Oben