News DirectX 12: AMD bestätigt maximal Feature-Level 12_0 für GCN

Ist mir ehrlich gesagt bis jetzt alles ziemlich egal.
Erstmal will ich Performance Sprünge sehen und auch Spiele sehen die das dann unterstützen. Ist ohnehin nur Zukunftsmusik, praktisch kommt das ganze wohl frühstens ab Winter ins Rollen. Ich denke nicht das Skylake jetzt auch nochmal die Leistung verdoppeln wird ebenso Fiji.
 
latexdoll

Ich Frage mich wieso nicht Samsung oder Apple Intel kaufen. Apple würde sogar passen. i7, i5, i3 :evillol:

Der Beitrag kann Ironie beinhalten.

Persönlich, hoffe ich, dass AMD soviel Features wie möglich hat, genauso wie NV. Ich will dass sich Features wie Compute Shader, physikbasierte Engine, SFR und Co in Spielen eingesetzt werden.

https://www.youtube.com/watch?v=SUU9eB3d2UQ

Umbra wird von drei Leute gemacht, dann werden es wohl größere Teams auch schaffen, physikbasierte Engine zu nützten.
 
Sontin schrieb:
Intel hat mit Grid2 bewiesen, dass ROVs spielerelevant sein können. Damit ist die Aussage des AMD's Menschen einfach hinfällig.

Battlefield 4 hat im Oktober 2013 bewiesen, dass nVidia Karten trotz FL11_0 nicht benachteiligt werden, wenn DX11_1 und Features verwendet werden: http://pclab.pl/art55318-10.html

Es ist einfach langweilig eure Verkaufsshow weiter lesen zu müssen. Aber darüber habe ich mich ja auch schon lustig gemacht, indem ich sarkastisch angemerkt habe, dass ICH mich angekotzt fühlen würde eine FL11_1 Karte gekauft zu haben und dann in einem FL11_1 Spiel von der FL11_0 Konkurrenz abgezogen zu werden. :lol:

Und? Nutzt das Spiel nun das Featurelevel 11_1/2?
Wenn nein => irrelevant für deine Diskussion
Wenn ja => "wie steht es im Vergleich zum 11_0 Modus mit der gleichen AMD Hardware aus?" und verdammt schlecht für dein angestoßenes "Maxwell 2.0 hat das höhere Featurelevel = besser" Argumentation.

So oder so, du hast dir mit deiner dir selbst widersprechenden Argumentation selbst ins Knie geschossen.
 
Blueline56 schrieb:
Eigentlich dachte ich das Grafikkarten dazu da sind um spielen zu können und dadurch Spaß zu haben und nicht um Grabenkämpfe damit zu führen, wer nun das bessere Produkt hat. Diese Gezänke um minimale technische Vor oder Nachteile werde ich wohl nie verstehen

Das solltest Du aber, denn das ist ein Gebot der Psychoökonomie. Der Mensch möchte im Glauben ruhen und verteidigt dafür gerne seinen Glauben kämpferisch bis zum letzten Atemzug. Gerade und besonders, wenn dem Glauben eine Gefahr droht.

Bei den scholastischen Glaubenskämpfen im Mittelalter konnte die Stellung eines einzigen Wortes im Satz über Gottes Wahrheit über Leben und Tod entscheiden ...
 
Kommt jetz lasst doch endlich das kindische debattieren über theoretische Szenarien, am 16 wissen wir (oder sollten wir zumindest) welches Feature Level Fury unterstützen wird.

Und ein paar Monate nach Win 10 Release wird es dann auch erste Spiele mit Dx12 geben, denn anders als bei den vergangenen Dx Versionen, wie Buttermilch ja schön dargestellt hat, ist Dx12 ja auf vielen Dx11 Karten (teil-)lauffähig und somit ist die Hardwarebasis bereits großflächig vorhanden, sowohl am PC als auch auf Nextgen Konsolen, da beide ja GCN Architektur.

Somit kann der Umstieg auf Dx12 wesentlich früher erfolgen als das noch bei Dx10 oder 11 der Fall war, Feature Level 12.1 ist dann noch eine andere Sache und es wird sich zeigen müssen inwiefern das Verwendung findet oder wie damals Dx10.1 ein Nischendasein fristen wird.
 
SavageSkull schrieb:
Ich denke der größte Performance Sprung wird einfach nur der reduzierte CPU Overhead sein. Die Grafikfeatures die noch zusätzlich drin stecken, werden auch in den nächsten zwei Jahren kaum eine Rolle spielen. Das wird dann auch der Zeitpunkt sein, an dem ich meine alte Titan 1 dann in Rente schicken kann.

Schaut man sich an wieviele Spiele aufgrund mieser multicore Unterstützung im CPU Limit fest hängen kann man wohl getrost davon ausgehen dass der verringerte Overhead und das verbesserte Multithreading DX12 die größte Mehrleistung verpassen wird allerdings dürfte die Vergleichbarkeit schwierig ausfallen.
 
pipip schrieb:
latexdoll

Ich Frage mich wieso nicht Samsung oder Apple Intel kaufen. Apple würde sogar passen. i7, i5, i3 :evillol:

Der Beitrag kann Ironie beinhalten.

Persönlich, hoffe ich, dass AMD soviel Features wie möglich hat, genauso wie NV. Ich will dass sich Features wie Compute Shader, physikbasierte Engine, SFR und Co in Spielen eingesetzt werden.



Richtig Pipi das wär mal eine richtige und vernünftige Marktbereinigung. Denke Apple wär der bessere konzern da er schliesslich über 750 Millarden wert ist und so eine Übernahme der einen normalen Firma (Intel) und die 2 Hinterhoffirmen (AMD, Nvidia) in einen Quartal abschliessen kann.
In 2 -3 Jahren kann dann Apple Samsung mit in den Firmenkomplex einkaufen. Eine Win Win Geschichte, alles aus einer Hand. Ich denke das so wieder Performsschübe von 50 - 60% gegenüber der vorherigen Generation dann wieder möglich sind.

mfg

Heil Dir Apple im Glanz des Siegeskranzes.

Dieser Beitrag ist völlig humorlos und ironiefrei geschrieben.
 
Dafür kann so gut wie keine Karte von NVidia DX12 Tier 3 Resource Binding, was aber wiederum alle GCN-Karten können sollten (jedenfalls nach früheren Meldungen).
 
dieser sinnfreie Beitrag kam von Sinnfrei, der seinem Namen alle Ehre macht ; ) :D
 
Nvidia kann nicht "teilweise" 12.1, Nvidia unterstützt 12.1 und da gibt es nur unterstützt oder unterstützt nicht.
AMD unterstützt nicht und spielt damit mit ihrem tollen Produktportfolio Technologiebremse.

Aber auch dank Nvidia darf man eine ältere Technologie-Basis "genießen", welche nur FL11_0 supporten und nicht FL12_0, was immerhin alle GCN Gen 2 GPUs machen, Bonaire, Hawaii, Kabini/beema, Kaveri.
Bei Intel ist es auch wichtig, aber erst Skylake soll FL12_0 erreichen.
 
Zuletzt bearbeitet:
wenn ein Hersteller 16% /25% Marktanteil hat davon aber nur ca die Hälfte der Produkte dieses Marktanteiles ein feature beinhalten, was weder der Marktfüher Grafikchips Intel noch der Markführer dedizierte Grafikkarten Nvidia unterstützt.
Welcher Publisher, Gameentwickler, designer sollte dafür jetzt menpower und Zeit und Geld investieren um ein totes Pferd zu reiten? Sinnfrei meinste nicht auch?

kennst du noch Vesa local bus oder Rambus, HD DVD oder Betamax Video2000, oder PCI-64 super Produkte nur ohne Marktmacht kein Einsatz :D

ach ne wir sind ja bei Grafik Schnittstellen oder APIs kennste Directx 10 /10.1? oder DX 11.1, oder auch toll EAX von Creative Labs? war super oder hat die Welt drauf gewartet, weil es so enorm verbreitet war :D und daher hat es die sich auch am markt langfristig etabliert, daher ist das alles heute standard und nicht vom Markt verschwunden. :)
Aber du hast recht ich bin total dumm und habe keine Ahnung :D

http://de.statista.com/statistik/da...ler-von-grafikkarten-seit-dem-2-quartal-2009/
http://de.statista.com/statistik/da...rafikkarten-weltweit-seit-dem-3-quartal-2010/
 
Zuletzt bearbeitet:
latexdoll schrieb:
Ich frage mich jetzt bei den ganzen grünen und roten Fangebashe, wieso Intel nicht einfach seine Portokasse in die Hand nimmt und die 2 Hinterhoffirmen mal eben aufkauft. Dann gibt es nur das Lager der blauen Vernunft und Ruhe kehrt ein.

mfg

P.S. Der Beitrag kann Ironie beinhalten.

Ich glaube da hätte intel wegen Monopolstellung am GPU Markt ein größeres Problem. Mal abgesehen davon hat die Firma es darauf auch gar nicht abgesehen und bleibt ja ohnehin nach wie vor Pseudo Marktführer im GPU Markt.
 
latexdoll schrieb:
Ich frage mich jetzt bei den ganzen grünen und roten Fangebashe, wieso Intel nicht einfach seine Portokasse in die Hand nimmt und die 2 Hinterhoffirmen mal eben aufkauft. Dann gibt es nur das Lager der blauen Vernunft und Ruhe kehrt ein.

Warum sollte sich Intel die undankbare Minderheit der Power-Gamer ans Bein binden ? Die überlassen den Hinterhoffirmen den Stress und die Entwicklungskosten und zählen das Geld für die High-End-CPUs, die sie an die GPU-Besitzer beider Lager verkaufen können.

Das lukrative Massengeschäft mit Office und Casual Gaming hat Intel mit seinen integrierten GPUs sowieso schon in der Tasche, seit AMD nach dem Phenom II keine konkurrenzfähige CPU mehr geliefert hat.
 
Oh, dass muss jetzt aber wie ein Schlag ins Gesicht für einige Personen hier sein. Waren sie doch so davon überzeugt, dass die angeblich rückständige Nvidia-Technik nicht einmal FL 12.0 unterstützen wird, während sämtliche GCN GPUs selbstverständlich mind. FL 12.2 unterstützen werden. Und plötzlich werden die Vorteile, die AMD Grafikkarten durch das höhere FL haben sollten, irrelevant.

Bleibt nur zu hoffen, dass zumindest Fiji FL 12.2 unterstützt. Sonst würde ja genau das, was Nvidia in letzter Zeit immer von AMD-Anhängern vorgeworfen worden ist, auf die angeblich fortschrittlichste GPU-Architektur zutreffen.
 
Locuza schrieb:
Nvidia kann nicht "teilweise" 12.1, Nvidia unterstützt 12.1 und da gibt es nur unterstützt oder unterstützt nicht.
AMD unterstützt nicht und spielt damit mit ihrem tollen Produktportfolio Technologiebremse.

Aber auch dank Nvidia darf man eine ältere Technologie-Basis "genießen", welche nur FL11_0 supporten und nicht FL12_0, was immerhin alle GCN Gen 2 GPUs machen, Bonaire, Hawaii, Kabini/beema, Kaveri.
Bei Intel ist es auch wichtig, aber erst Skylake soll FL12_0 erreichen.

Laut NVidia will man auch mit Kepler DX12 unterstützen:

Plus, our Maxwell and Kepler GPU architectures already support DX12, with support for Fermi coming later.

Ich würde sagen, wenn man das behauptet, sollte die GPU wenigstens Feature Level 12.0 unterstützen. Ansonsten wohl wieder nur eine der üblichen Marketing-Lügen?
 
Zuletzt bearbeitet:
@ihabAhnung:

Schau dir Kepler an und dann denk noch mal nach. GCN ist genauso 'alt' und unterstützt 11_1 und 12_0, Kepler bloß 11_0... D.h. eine weit über drei Jahre alte Architektur kann fast genau so viel wie eine ca. 8 Monate alte. Soviel zu nur "angeblich" fortschrittlich...
 
iHabAhnung schrieb:
Bleibt nur zu hoffen, dass zumindest Fiji FL 12.2 unterstützt. Sonst würde ja genau das, was Nvidia in letzter Zeit immer von AMD-Anhängern vorgeworfen worden ist, auf die angeblich fortschrittlichste GPU-Architektur zutreffen.
Es gibt kein FL12.2, FL12.1 ist das Maximum.

Sinnfrei schrieb:
Laut NVidia will man auch mit Kepler DX12 unterstützen:

Ich würde sagen, wenn man das behauptet, sollte die GPU wenigstens Feature Level 12.0 unterstützen. Ansonsten wohl wieder nur eine der üblichen Marketing-Lügen?
Keine Marketing-Lüge, aber man hat viel Spielraum.
DX12 Support kann eine Menge bedeuten, da es bei DX12 verschiedene Feature-Levels gibt (FL11_0, 11_1, FL12_0, FL12_1) und einige optionale Features, die man extra unterstützen und verwenden kann.
Fermi, Kepler, Maxwell Gen 1 unterstützt DX12 mit FL11_0 und GCN 1.0 mit FL11_1.
 
Zuletzt bearbeitet:
Ich würde sagen, wenn man das behauptet, sollte die GPU wenigstens Feature Level 12.0 unterstützen. Ansonsten wohl wieder nur eine der üblichen Marketing-Lügen?

Ich denke mal damit ist einfach nur der verringerte Overhead gemeint aber keine Dx12 spezifischen Features, denn die müssen ja hardwareseitig unterstützt werden oder per Software emuliert, wobei letzteres sehr ineffizient sein dürfte.
 
Hier ist es doch sehr schön erklärt (ab Abschnitt Direct3D 12 levels):


http://en.wikipedia.org/wiki/Direct3D#Direct3D_12


Supported hardware is divided into three Resource Binding tiers, which define maximum numbers for descriptor heaps used for CBV (constant buffer view), SRV (shader resource view) and UAV (unordered access view); CBVs and SRVs per pipeline stage; UAVs for all pipeline stages; samplers per stage; and SRV descriptor tables. Tier 3 hardware such as AMD GCN has no limitations, allowing fully bindless resources managed through dynamic memory heap, while Tier 1 (Nvidia Fermi, Intel Haswell/Broadwell) and Tier 2 (Nvidia Kepler/Maxwell, Intel Skylake) hardware impose some limits on the number of these resources.[129] [130]
 
Wikipedia :D ich würde jetzt nicht unbedingt sagen dass das die verlässlichste Quelle ist auch wenn es natürlich super wäre, da würde ich jetzt dem AMD Futzi doch etwas mehr Glauben schenken als dem Eintrag.
 
Zurück
Oben