News DirectX 12: AMD bestätigt maximal Feature-Level 12_0 für GCN

Faust2011 schrieb:
Wer kann denn beurteilen, ob die überhaupt in den Game-Engines der Zukunft zu finden sein werden? Wer kann beurteilen, wie stark diese durch entsprechende Hardware-Einheiten beschleunigt werden können und wie stark der Nachteil sein wird, wenn es durch andere Hardware-Einheiten emuliert werden muss?

Die KeyFeatures für die Performance unter DX12 sind doch wahrscheinlich die schlanke API mit der Reduzierung des Draw-Call-Overheads und auf GPU-Seite die priorisierte und asynchrone Ausführung durch AsynShader (ACE-Units bei AMD GCN-Chips bzw. ab Haswell 2 bei Nvidia).

Oder liege ich da mit meiner Einschätzung völlig daneben?
Spiele-Entwickler können es beurteilen und IHV Mitarbeiter, auch wenn einer hier jemanden einen Bias vorwerfen könnte.
Nvidia hat eine Folie zu VXGI präsentiert, wobei das wie immer nicht ganz genau der Wahrheit entsprechen muss:
http://images.anandtech.com/doci/8526/VoxelPerf.jpg

ROVs und CR sind auf jeden Fall tolle Features, ähnlich wie (theoretisch) Tessellation bei der DX11 Einführung.

tic-tac-toe-x-o schrieb:
Wow AMDs 1 Jahr ältere Karten (290 und 290x gegenüber 900 series) können "nur" 12_0?! Boah was ne schlechte Leistung. /sarcasm
Schau mal auf alles andere was Nvidia zu bieten hat. 11_0. Nichts anderes. Während ältere AMDs auf 11_1 und 12_0 kommen.

Wenn Fiji kein 12_1 unterstützt, dann könnt ihr darüber lästern. Ansonsten seh ich nur AMD vorne.
Tonga GCN Gen 3 kam nur kurze Zeit vor Maxwell und unterstützt auch maximal 12_0 und Carrizo der erst erscheinen wird ebenso.
Fiji ist der letzte Anker, wo ich von nichts anderem ausgehen und am Ende schade ist. (0 bis maximal eine Premium GPU für FL12_1).

Schade ist natürlich auch, dass auf der anderen Seite AMD der einzige ist der FL12_0 im größerem Umfang beisteuert.
GCN Gen 2 (GPUs+ APUs + Konsolen)
Erst ab Skylake wird auch Intel 12_0 erreichen.

GCN Gen 1, Haswell/Broadwell und hauptsächlich Kepler wirken auf der anderen Seite bremsend für ein modernes Feature-Set.

noxon schrieb:
Das Gleiche gilt für grundlegende Features von DX12, dass es jetzt nicht mehr nur noch eine 3D-Engine gibt, sondern zusätzlich auch eine Compute- und Copy-Engine. Früher mussten selbst directcompute Aufgaben in der sehr overheadlastigen 3DEngine durchgeführt werden, was mit DX12 jetzt anders ist. Dort gibt es für Compute-Aufgaben jetzt eine etwas leichtgewichtigere Engine, die weniger Overhead erzeugt. Zusätzlich gibt es eine noch weiter abgespecktere Engine als diese, wenn man reine Speicherkopieraufgaben vornehmen möchte. Das alles ist grundlegender Bestandteil von DX12 und in jedem Feature Level enthalten. Jedes Spiel wird davon profitieren.
Ich schlage eine leicht andere Weltanschauung vor.
Früher wurden Compute-Berechnungen nie von der "3D-Engine" / vom Graphics-State ausgeführt, sondern immer vom Compute-State.
Das man ohne Multi-Engine sowohl 3D, als auch Compute-Aufgaben in eine Arbeitsschlange einspeisen muss und somit zu Stalls kam beim State-Wechsel oder Abhängigkeiten war ein Problem.

Es ist ein allgemeines Feature von DX12, aber auch explizit. Von automatisch läuft nichts.

Dann gibt es natürlich auch noch wichtige Features, die erst ab 12_0 verfügbar sind, wie zum Beispiel die Resource Barrier API mit der man unter anderem parallel auf UAVs zugreifen kann anstatt nur sequenziell. Dies elimeniert unnötige Wartezeiten und steigert somit die Performance, allerdings auch nicht in dem Maße, wie das viele der Features aus FL 11_x tun.
Meinem Verständnis nach ist das ebenso ein allgemeines DX12 "Feature".
Unter DX11 war es noch implizit mit idle-phasen gelöst, unter DX12 muss man es explizit selber lösen und spart sich waiting-times unter bestimmten Bedingungen.

Und natürlich kommen dann noch die Features aus 12_1. Die sind zwar nice zu have, aber ich glaube nicht, dass viele Entwickler überhaupt Gebrauch davon machen werden. Zum Einen ist die Nutzergruppe die diese Features nutzen können noch sehr gering und zum anderen sind dies keine Features, die extrem große Performancevorteile bieten.
Für mich sind die Features super nice to have.
Endlich eine effiziente OIT-Lösung programmieren zu können, ist ein gewaltiger Performance-Vorteil.
CR trägt auch stark dazu bei, dass man viele technische Umsetzungen effizienter lösen kann.

Das einzig negative an der Sache ist die fehlende Userbase und die damit sehr wahrscheinlich schleppende Verbreitung.
 
da steht doch dass nichtmal die HD6000-Serie unterstützt wird warum sollte dann die HD5000er Serie unterstützt werden?
Um die Generationen gegenüber zu haben. AMD supportet 2 Generationen weniger. Das hätte ich einer Tabelle festgehalten. Das wir hier wissen das dem so ist ist schon klar. Hätte die Tabelle ein wenig schöner und vollständig gemacht.
 
Kasmopaya schrieb:
Um die Generationen gegenüber zu haben. AMD supportet 2 Generationen weniger. Das hätte ich einer Tabelle festgehalten. Das wir hier wissen das dem so ist ist schon klar. Hätte die Tabelle ein wenig schöner und vollständig gemacht.

So einfach lässt sich das nicht sagen ... ich würde von einer sprechen, da die hd6000 im selben jahr nach win7 gelaunched wurde wie fermi.
danach folgte 2011/12 bereits die hd7000.
aber wer heute mit fermi oder hd5000/6000 unterwegs ist hat ganz andere problemchen oder interessen als DX12 Unterstützung.

meine tahiti hat jedenfalls unterstützung und 2015 wird was DX12 Titel angeht noch überschaubar bleiben ... deshalb werde ich unabhängig von fiji noch locker bis 2016 auskommen. für ne 2012er karte doch sehr zufriedenstellend.
 
Zuletzt bearbeitet:
Smartbomb schrieb:
Richtige Befriff(e)?
Bislang gab es diese "feature level", Tier_17 und so zeugs nicht!
Da war dx = dx und dx = feature level!

Es gab schon die Feature Levels, es war nur einfacher weil Feature Level im Prinzip gleich DX-Version. Die Sache mit DX12 ist, es funktioniert eher wie bei OpenGL was die Extensions angeht (genauso wie Mantle und Vulkan). Du hast eine relativ kompakte API, und Zusatzfunktionen werden per Erweiterung zur Verfügung gestellt. Das macht es komplizierter für Anwender und Entwickler, aber erlaubt spezielle und neue Funktionen einfach zur Verfügung zu stellen, ohne das dafür die API geändert werden muss. Wenn eine Funktion nicht per Extension zur Verfügung gestellt wird, muss man diese zusätzlich halt in der Software abbilden.
 
Zuletzt bearbeitet:
Plastikman schrieb:
Ein sehr tolles Trollkommentar. Alle Achtung. NV hatte DX 10.1, 11.1 anfangs auch nie unterstützt, waren die deshalb veraltet? Das ist jetzt wieder genau dasselbe.

Und jetzt das mit den 4GB. NV wird es wohl wieder mit den 6GB in der 980 ti auf Bauernfang gehen.
4GB bei HBM mit dieser riesigen Bandbreite wäre trotzdem schneller. Die 4GB werden doch nur dann ein Problem, wenn Sie langsam angebunden sind bzw. es eben durch die Speicherbandbreite zu kange dauert ihn zu leeren und wieder zu füllen. Das hat man dich gerade an der 970 gesehen. Danke für so viel Unwissen!!!
Falsch. Es geht nicht um die Anbindung Gpu Vram, sondern Vram - Hauptspeicher und da sind PCI Express und die Hauptspeichergeschwindigkeit die Bremsen, Hbm spielt dabei keine Rolle wenn 4 GB überschritten werden.
 
Locuza schrieb:
Nvidia hat eine Folie zu VXGI präsentiert, wobei das wie immer nicht ganz genau der Wahrheit entsprechen muss:
http://images.anandtech.com/doci/8526/VoxelPerf.jpg

Nvidia glaube ich gar nichts mehr, vor allem, wenn es um Performance geht. Deren Rechnung geht doch so:

Ingenieur: "Schau, wir sind in 2 Benchmarks nun jeweils doppelt so schnell" - darauf das Marketing: "Also kommunizieren wir nach außen, dass unsere neue Grafikkarte 4 mal so schnell ist!"

:D
 
Wenn vermutlich 2017 das erste und vielleicht auch einzige Spiel (möglicherweise PCars II) erscheint, welches wirklich Nutzen ziehen kann aus DX12.1, dann wird das Geflenne auf Seiten der AMD-Käufer bestimmt gaaaanz laut sein.... ;)
 
aber wer heute mit fermi oder hd5000/6000 unterwegs ist hat ganz andere problemchen oder interessen als DX12 Unterstützung.
Definitiv nicht, das ist die Gruppe die am meisten profitiert, da sie Core 2 Quads, Phenoms etc. drin hat. Die Leute die nicht immer alles auf max zocken, genau das sind die die vorerst am meisten von CPU Overherad reduzieren von DX 12 profitieren. Und laut Steam heben solche CPUs noch eine menge Leute drin.

GTX 480 v. HD 5870
GTX 580 v. HD 6970
GTX 680 v. HD 7970

AMD lässt 2 GPU Generationen nämlich die HD 5000 und HD 6000 ausfallen. Man kann es nennen wie man will, aber es sind 2. Bei NV haben die Fermis die gleiche Architektur, bei AMD hat die 6970 aber mehr Tesselltation Power bekommen. Darunter gab es wieder Rebrands. Es gibt keinen gemeinsamen Namen für die 2 Generationen von AMD, die haben beide DX 11, aber das wars dann auch schon.

Meine aktuelle 580 3GB schafft viele Spiele noch auf max. Details flüssig, also komplett unbrauchbar wird die Karte so schnell nicht. Da macht ein DX 12 Support für eine gewisse Gruppe schon Sinn. Und die profitieren zufällig prozentual am meisten von DX 12.
 
Zuletzt bearbeitet:
Man braucht nie die beste Grafikkarte mit den meisten Featutes, weil Spielehersteller darauf achten werden das sie möglichst viele Kunden ansprechen und die Konsolen geben einem da auch noch mal Sicherheit, die hinken ja sowieso hinterher ^^
 
Kasmopaya schrieb:
AMD lässt 2 GPU Generationen nämlich die HD 5000 und HD 6000 ausfallen. Man kann es nennen wie man will, aber es sind 2. Bei NV haben die Fermis die gleiche Architektur, bei AMD hat die 6970 aber mehr Tessalltations Power bekommen. Drunter gab es wieder Rebrands. Es gibt keinen gemeinsamen Namen für die 2 Generationen von AMD, die haben beide DX 11, aber das wars dann auch schon.
Man kann es immer so beleuchten wie man es will, z.B. dass das 12er Feature-Level von AMD bereits mit 2013 Karten erfüllt werden, aber bei Nvidia braucht man schon die neueste Generation.

Es kommt am Ende auf die Entwickler an und ich sage voraus, dass die neusten Spiele die DirektX 12 supporten am Feature-Level 11.0 stehen bleiben werden. ( Ausser Benchmarks )
 
aber wer heute mit fermi oder hd5000/6000 unterwegs ist hat ganz andere problemchen oder interessen als DX12 Unterstützung.
Welche probleme wären dass denn?
Mein aktuelles Setup: 1680*1050er Monitor, Fx8350@Stock, 2x5870CF, bei neuen Titeln reichts tatsächlich noch für mittlere Details, wenig AA/AF - wobei ich davon eh nicht viele Spiele spiele.
Das die tollen optischen DX12 Features auf meiner alten Karte nicht unterstützt werden, ist überhaupt kein Thema und völlig nachvollziehbar.

Allerdings sollten die Karten der VLIW DX 11 Generation 5000er,6000er Serie DX12 FeatureLevel 11_0 unterstützen, und somit vom geringen CPU Overhead profitieren könnten, zumindest theoretisch wenn AMD es supporten würde. Laut Microsoft gehts mit jeder DX11 tauglichen Karten. Und das ist es was mich ein wenig ärgert. Ebenso soll es mit DX12 ein neues Renderverfahren für Multi-GPU-Systeme geben, bei welchem der Speicher der beiden Karten sich addiert. Auch das wäre nice to have. Natürlich ist es kein Weltuntergang dass dies nicht der Fall ist, aber dennoch wäre es schön gewesen.


Kasmopaya schrieb:
Definitiv nicht, das ist die Gruppe die am meisten profitiert, da sie Core 2 Quads, Phenoms etc. drin hat. Die Leute die nicht immer alles auf max zocken, genau das sind die die vorerst am meisten von CPU Overherad reduzieren von DX 12 profitieren. Und laut Steam heben solche CPUs noch eine menge Leute drin.

GTX 480 v. HD 5870
GTX 580 v. HD 6970
GTX 680 v. HD 7970

AMD lässt 2 GPU Generationen nämlich die HD 5000 und HD 6000 ausfallen. Man kann es nennen wie man will, aber es sind 2. Bei NV haben die Fermis die gleiche Architektur, bei AMD hat die 6970 aber mehr Tessalltations Power bekommen. Drunter gab es wieder Rebrands. Es gibt keinen gemeinsamen Namen für die 2 Generationen von AMD, die haben beide DX 11, aber das wars dann auch schon.

Meine aktuelle 580 3GB schafft viele Spiele noch auf max. Details flüssig, also komplett unbrauchbar wird die Karte so schnell nicht. Da macht ein DX 12 Support für eine gewisse Gruppe schon Sinn. Und die profitieren zufällig prozentual am meisten von DX 12.
Sehr gut auf den Punkt gebracht!
 
Suxxess schrieb:
ich sage voraus, dass die neusten Spiele die DirektX 12 supporten am Feature-Level 11.0 stehen bleiben werden
Eher bei 12_0, da die Konsolen entscheiden welche Features unterstützt werden. Leider.
 
Sharky99 schrieb:
Stimmt, AMD ist jetzt hinterher und meinen nun das was sie nicht haben ist total unwichtig.

Und etwas mit neuen Produkten zu ignorieren das seit Jahren am Markt ist ist bei weitem nicht so wild wie etwas mit zum Teil seit Jahren erhältlichen Produkten nicht zu unterstützen das noch nicht einmal am Markt gestartet ist? Interessante Auslegung. :freaky:
Ergänzung ()

tic-tac-toe-x-o schrieb:
Dank Nvidia GameWorks werden wir vielleicht auch 12_1 sehen.

Ja aber wann wird es relevant und sind bis dahin auch entsprechende Produkte der Konkurrenz verfügbar? Kommen diese Spiele erst in 1-2 Jahren raus haben wohl viele Jener die jetzt auf den Putz hauen eh was anderes im Rechner.
Zudem ist die Frage wieviel Rechenleistung dann wieder erforderlich ist und ob die Aktuellen Karten für die entsprechenden Effekte bei den Spielen dann wieder zu langsam sind.
Ergänzung ()

Kasmopaya schrieb:
Definitiv nicht, das ist die Gruppe die am meisten profitiert, da sie Core 2 Quads, Phenoms etc. drin hat. Die Leute die nicht immer alles auf max zocken, genau das sind die die vorerst am meisten von CPU Overherad reduzieren von DX 12 profitieren. Und laut Steam heben solche CPUs noch eine menge Leute drin.

GTX 480 v. HD 5870
GTX 580 v. HD 6970
GTX 680 v. HD 7970

AMD lässt 2 GPU Generationen nämlich die HD 5000 und HD 6000 ausfallen. Man kann es nennen wie man will, aber es sind 2. Bei NV haben die Fermis die gleiche Architektur, bei AMD hat die 6970 aber mehr Tesselltation Power bekommen. Darunter gab es wieder Rebrands. Es gibt keinen gemeinsamen Namen für die 2 Generationen von AMD, die haben beide DX 11, aber das wars dann auch schon.

Meine aktuelle 580 3GB schafft viele Spiele noch auf max. Details flüssig, also komplett unbrauchbar wird die Karte so schnell nicht. Da macht ein DX 12 Support für eine gewisse Gruppe schon Sinn. Und die profitieren zufällig prozentual am meisten von DX 12.

Das Hauptproblem dürfte sein das die HD5000 und HD6000 Serie auf einer komplett anderen Shader Architektur aufbauen und somit komplett anders ticken als die aktuelle GCN Architektur. Bei nvidia hat sich hier hingegen nicht sooo viel verändert, wodurch sich die Arbeiten für einen entsprechenden DX12 Treiber überschaubar sein dürften. Dazu kommt dann noch die Frage ob die Karten dann nicht ohnehin schon zu langsam wären um von den primären Vorteilen wie der CPU Entlastung ernsthaft zu profitieren denn die greift ohnehin erst bei DX12 Spielen.
Wenn sich AMD diese Arbeit für längst ausgelaufene Produkte ersparen will halte ich das angesichts ihrer Wirtschaftslage für durchaus annehmbar.
Da sollen die ihrer Ressourcen lieber auf Gebiete einsetzen die auch wirklich was bringen.
 
Zuletzt bearbeitet von einem Moderator:
Das ist ja das "Problem".

- Reicht meine 970 für die nächsten 3-5 Jahre, weil die Optimierung durch DX12 einiges rausholt, sprich ich hätte in 3 Jahren mit DX11 25 FPS und mit DX12 45 FPS auf "high?
- Wirds Ende 2016 / Anfang 2017 so den Push seitens der Entwickler geben, dass man minimum 6 Kerne benötigt und 8GB+ VRAM?

Weiß halt keiner, aber was solls. Bringt nichts, sich da jetzt verrückt zu machen. :D
 
Wadenbeisser schrieb:
Dazu kommt dann noch die Frage ob die Karten dann nicht ohnehin schon zu langsam wären um von den primären Vorteilen wie der CPU Entlastung ernsthaft zu profitieren denn die greift ohnehin erst bei DX12 Spielen.

Wieso nicht? So ne 6970 oder 580 ist heute noch recht potent. Und wie gesagt, die meisten Leute haben das noch in Kombination mit ner Core 2 Quad oder Phenom II X4. Wenn man die CPU Last dadurch auf andere Kerne verlegen kann, lohnt sich das so gut wie immer, selbst mit ne 6770 oder 550Ti würd ich meinen.
 
luda schrieb:
Das ist ja das "Problem".

- Reicht meine 970 für die nächsten 3-5 Jahre, weil die Optimierung durch DX12 einiges rausholt, sprich ich hätte in 3 Jahren mit DX11 25 FPS und mit DX12 45 FPS auf "high?
- Wirds Ende 2016 / Anfang 2017 so den Push seitens der Entwickler geben, dass man minimum 6 Kerne benötigt und 8GB+ VRAM?

Weiß halt keiner, aber was solls. Bringt nichts, sich da jetzt verrückt zu machen. :D
Firmen wie EA usw wollen ihren Gewinn maximieren, wenn in 3 Jahren über 50% mit sechskernern Rumlaufen sind die 1. Günstig und 2. Dann auch notwendig :)

PS: Kann sogar gut sein, wenn Zen was wird sind Mainstream 6-Kern i7 Prozessoren nicht so unwahrscheinlich ^^
 
Zuletzt bearbeitet:
@Locuza

Danke für die umfangreichen Einblicke in die DX-Geschichte und deren Aufbau. Hat bisher keiner so deutlich rüber gebracht wie Du, merci.

@Topic
Da AMD sich ja bereits zu den bisherigen GCN Generationen geäußert hat, weshalb dann nicht auch zu Fury? Wäre es technisch möglich, diese kurzfristig noch auf das höchste Feature_Level zu heben oder will man es schlicht nicht sagen? Der einzige Unterschied zu Tesselation damals wäre vielleicht die Marktverhältnisse von ca. 25 zu 75%, weshalb Entwickler die Möglichkeiten von FL12_1 früher (optional ala Hairworks) verwenden könnten (Achtung Spekulation, ob dies softwaretechnisch überhaupt machbar ist und selbst wenn, obs der Markt so richtet!)

Allgemein denke ich dass Vielen der Spekulationen, der häufigen Gerüchte - positiv wie negativ - und Glaskugelprognosen überdrüssig sind, woran AMD aber selbst durchaus mit Schuld ist (bewusst oder unbewusst mal beiseite gelassen). Die Redaktionen hätten mMn durchaus gerne handfesteres zu AMDs kommenden Produkten berichtet als Gegenpart zum Nvidia-Feuerwerk, konnten aber wegen NDA oder schlicht in Ermangelung von Infos nicht anders als bei wccf oder videocards zu wildern. Oder wie hier AMD nicht zu einer Aussage zu Fury zu bringen ;).
Heraus kommen wohl weltweit diese Hin- und Herargumentierereien mit hätte hätte Fahrradkette, Wünsche, Befürchtungen; sprich das gefundene Fressen für Propellerjungs allerorten.

Persönlich mach ich drei Kreuze, wenn AMD endlich die Hosen runterlässt und am 16. Juni (hoffentlich) endgültig Klarheit schafft zu den Beschaffenheiten der 3xxer Serie, der Fury-Reihe mit allen technischen Details wie auch zukünftigem Fahrplan, wann man mit welchen Produkten im Handel rechnen kann. Erstens, weils wohl jeden der auf den hier einschlägigen Seiten verkehrt interessiert und zweitens Konkurrenz immer Antrieb zum Fortschritt war, ist und bleiben wird.

So, jetz gehts zum Badesee :)
 
tic-tac-toe-x-o schrieb:
Wieso nicht? So ne 6970 oder 580 ist heute noch recht potent. Und wie gesagt, die meisten Leute haben das noch in Kombination mit ner Core 2 Quad oder Phenom II X4. Wenn man die CPU Last dadurch auf andere Kerne verlegen kann, lohnt sich das so gut wie immer, selbst mit ne 6770 oder 550Ti würd ich meinen.

Geht so, die GTX 580 ist vielleicht noch am ehesten mit der GTX 660Ti bzw. der HD7870 vergleichbar, die HD6970 liegt irgendwo zwischen der GTX 660 und der 660Ti. Ich glaube kaum das diese bei entsprechenden Spielen ernsthaft ins CPU Limit geraten, zumal das OS ja auch Verbesserungen beim Multithreading mitbringen soll und bereits aktuelle Spiele die 4 Kerne deutlich besser auslasten können als die damaligen, welche im Schnitt vielleicht nur 2 Kernen rumgurkten. Allein dadurch würde sich die verfügbare CPU Leistung bereist verdoppeln.
 
Kasmopaya schrieb:
GTX 480 v. HD 5870
GTX 580 v. HD 6970
GTX 680 v. HD 7970
GTX 700 v. R9 200
GTX 900 v. R9 300

Ich habe deine Tabelle etwas aktualisiert. AMD Unterstützt Karten nicht, die ab Lunch von Windows 10 ca vor 3 Generationen, also noch vor 28nm gefertigt wurden.
Wie schnell sind denn diese "Grafikkarten" ? Die 6970 dürfte im schnellsten Fall ca eine 7850 entsprechen. So jetzt stelle ich dir die Frage, wieviele Leute haben einen PC mit einer "schwachen" CPU, die eine 7850 nicht auslasten können. Zur ergänzung, die 7850 ist kaum schneller als die 750 TI.
Aber gut, DX 12 ist bei der 500 und 400 GTX vorhanden und das ist sicherlich eine tolle Sache für jene User, die diese Karten haben. Im Endeffekt ein Glücksfall, nur weil diese Karten eben im Grunde ähnlich sind, wie Nachfolger. Hätte AMD schon seit der HD 5000 auf GCN gesetzt hätte man jetzt auch für HD 5000 und HD 6000 ein DX 12 Feature.
Aber wir wissen eh, dass es dir um nichts anderes geht, als um deine 580 GTX mit 3 GB. Glückwunsch, dass deine CPU bei der Grafikkarte jetzt weniger werkeln muss.
Am Ende bin ich aber gespannt, wie gut die Umsetzung, bzw "Software-Lösung" bei der Karte ist.

Mantle => Hat in erster Linie eigentlich nur für die R9 290X und R9 260 X funktioniert. Genau jene Karten die FL_12 unterstützten. Bei der R9 280X hatten ja viele einen vollen Speicher. Wer weiß ob das nicht daran lag, dass die GPU nur FL_11.1 unterstützt und deshalb eventuell einen höheren Speicherverbrauch hat. Dann wird es plötzlich für die ganze GTX 400 und 500 Serie sehr eng.
Aber darüber machen wir uns erst in 2 oder mehr Wochen Gedanken ^^

(Natürlich lässt sich das gesagte auch Anzweifeln, wenn man die R9 285 + Mantle BF4 ansieht, trotzdem bleibt es interessant, wie gut die emulierung ist und wie sich Fermi damit rumschlagt. Ob es da genaue Optimierungen gibt, oder eher nur durch Architektur Ähnlichkeiten eine "Kompatibilität" bekommt.)


Ich sage mal was anders. Kann genauso sein dass AMD noch einige Features unterstützt die noch nicht zu DX zählen, MS aber einige Features übernommen hat, die NV angeboten hat, die aber eben zu FL_12.1 passen.
Am Ende fehlt mir aber der Überblick. Tatsache bleibt, NV unterstützt mit Maxwell 2.0 zwei Features mehr als AMD.
 
Zuletzt bearbeitet:
Zurück
Oben