Test DirectX 12: Vollgas für AMD in der Beta von Ashes of the Singularity

Conceptions schrieb:
Bei nvidia und den Asynchronous Shadern wird dies nicht gemacht.
Es ist ja nicht so, als ob dieser Thread nicht genau das Gegenteil beweisen würde.

Wadenbeisser schrieb:
@Locuza
Es ist aber auch kein Grund das Thema klein zu reden denn wenn Pascal das Feature sinnvoll unterstützt dann erblüht es Maxwell und Co im laufe der Zeit genau so wie seinen Vorgängern. Er fällt mit zunehmender Nutzung bei DX12 Titeln übermäßig zurück. Das Thema hat also direkte Auswirkungen auf die Leistung und damit Nutzungsdauer.
Es künstlich klein zu reden ist also fatal.
Sinnvoll muss man auch hier erst einmal ausführen.
Es ist nicht so, dass unabhängige Hardware-Scheduler und die Fähigkeit Rendering + Compute gleichzeitig zu berechnen ein must have sind.
Hier spielt viel mehr in die Betrachtung hinein, als die klassischen Community-Grabenkämpfe.

Wie hoch ist die durchschnittliche Auslastung einer Architektur, wie viele idle-units gibt es etc.
Selbst wenn Nvidia und Intel wie AMD Rendering + Compute gleichzeitig ausführen könnten, der Profit davon wäre sicherlich geringer als bei AMDs GCN aktuell.

Es kommt darauf an, wie eine Architektur aufgebaut ist und welcher Zusatz vom Aufwand und Nutzen her Sinn macht.
Ich persönlich erwarte übrigens nicht, dass Pascal bezüglich dessen etwas grundlegend anders machen wird, als Maxwell.
Für gute Performance ist es auch nicht nötig.

Das Thema soll nicht künstlich klein geredet werden, aus AMD-Sicht ist es interessant und natürlich insgesamt, ob sich am klassischen Ranking zwischen beiden etwas nennenswertes verändern wird.
Es braucht nur ebenso wenig das Drama, dass Nvidia nicht davon profitiert und dann jedes gekaufte Produkt von Grün für die Tonne ist.
 
Zuletzt bearbeitet:
@Conceptions: Sind denn beide Probleme und deren Folgen 1:1 miteinander vergleichbar?

Die beiden Kritikpunkte beim fehlenden HDMI 2.0 waren doch, soweit ich mich erinnere, dass einerseits die Bandbreite bei HDMI 1.x zu gering für 4k@60 FPS an Fernsehern ist, und andererseits der Kopierschutz für HD-Blurays nicht vorhanden ist.

Bei Async Compute ist der Kritikpunkt dass es keine Hardwareeinheiten auf nVidia-GPUs gibt die das verarbeiten können (was genaugenommen nicht stimmt, weil es schon Einheiten gibt, die aber relativ schnell limitieren, aber sei's drum).

Was sind jetzt die jeweiligen Konsequenzen?

Wenn ich mir mit einer kleinen AMD-Karte einen Multimediarechner aufbaue, dann habe ich zwar die Leistung für 4k@60FPS, aber weder den HDMI-Standard der die Auflösung unterstützt, noch den Kopierschutz der HD-BluRays zulässt.
Konsequenz: Ich kann weder in 4K@60FPS spielen, noch HD-BluRay Filme anschauen, es sei denn ich kauf mir nen aktiven DP<->HDMI 2.0 Adapter, oder mein Fernseher verfügt über DP.

Sollte ein Spiel DX12 unterstützen und Async Compute verwenden und in einer Intensität, die die limitierten Möglichkeiten von nVidia-GPUs übersteigen, dann muss ich mit anderen Konsequenzen leben.
Konsequenz: Weniger FPS-Zuwächse als bei AMD, eventuell etwas weniger FPS als bei DX11, Spiel läuft aber trotzdem. Ich muss eventuell Details runterdrehen.

Was sind jetzt die ärgerlicheren Konsequenzen? Muss jeder für sich rausfinden, und weil das so ist gibt es auch immer Diskussionen und einen Streit wer nun im Besitz der einzigen Wahrheit ist.
 
@Locuza
Großartig was auszüführen ist da nicht. Wenn ein Feature das durch das Füllen von Auslastungslücken mehr Leistung bringen soll statt dessen Leistung kostet dann ist es ganz sicher nicht sinnvoll umgesetzt.
 
1. Ein Feature ist es nur, wenn es die Hardware kann.
2. Wenn es die Hardware nicht kann, vor welche Probleme stellt es sie denn im konkreten, wenn sie unterschiedlich definierte Queues betrachtet?

Der zweite Punkt ist der wesentliche, weil es für mögliche Leistungseinbußen keine Zahlen gibt.
 
Wadenbeisser schrieb:
@Locuza
Großartig was auszüführen ist da nicht. Wenn ein Feature das durch das Füllen von Auslastungslücken mehr Leistung bringen soll statt dessen Leistung kostet dann ist es ganz sicher nicht sinnvoll umgesetzt.

Ich glaub das man sich erwartet dass die Performance bei Nvidia genau so zunimmt wie bei AMD, was einfach ein falscher Schluss ist weil das was Asynch Compute macht bereits die Treiber bzw. die CPU macht und von Softwareprogrammierern bereits umgesetzt wurde , daher kann man sich nicht erwarten dass die 980 Ti nochmal 20% drauf packt

außerdem wen interessiert 1%, das die Performance unterschiedlich ist auf der selben Hardware mit verschiedenen APIs ist ja nichts neues, jede API hat ihre Stärken als auch Schwächen
 
Seit dem ersten Test ist es bekannt das AMD in der Sache miit Asynchron Shader etwas mehr Weitblick hatte . Alle GCN basierte Karten unterstützen dies in Hardware was man aktuell in keiner NV Gpu tut . Da die beide mit Amd Technik bestückten Konsolen dies auch können wirds dort sicher auch von immer mehr Spielen unterstützt werden .

Inwieweit die Spielehersteller das bei PC Varianten einsetzten wird sich erst noch zeigen . Da kann NV mit wohl noch so guter Treiberarbeit kommen den Nachteil werden sie erst völlig ausgleichen können wenn es ihre erste Gpu auch in Hardware kann . Bis dahin hat AMD in DX 11 sicherlich weiter das Nachsehen . Aber umso schneller und häufiger neue Titel erscheinen die davon Gebrauch machen umso häufiger haben AMD Karten dadurch unter DX 12 falls Implementiert einen massiven Vorteil wie es scheint .

@ Doc Windows
Die beiden Kritikpunkte beim fehlenden HDMI 2.0 waren doch, soweit ich mich erinnere, dass einerseits die Bandbreite bei HDMI 1.x zu gering für 4k@60 FPS an Fernsehern ist, und andererseits der Kopierschutz für HD-Blurays nicht vorhanden ist.

Bei NV gibts da mit ihrem G-Sync ein Hausgemachten Nachteil . G-Sync läuft nur unter für HD-Blurays nicht geeignete Standards . Ich bin z.B nicht so überzeugt das Hersteller bei G-Sync Monis in naher Zukunft dies ändern werden . Was dann heißt entweder G-Sync oder HD-Blurays . Sein eigenes Süppchen kochen könnte NV da noch Kopfschmerzen verursachen .
 
Zuletzt bearbeitet von einem Moderator:
@DocWindows
Und was nützt dir HDMI 2.0 wenn nur eine einzige Karte, die GTX 960, von nvidia HDCP 2.2 kann?
Zumal jetzt erst die Ultra HD Blu Ray ins Rollen kommt, und nicht unbedingt als erstes die absoluten Kracherfilme starten.
Standalone Player sind für die USA mit März benannt, für Deutschland "dieses Jahr".
Bei vielen Menschen ist nicht mal die BR eingezogen.

Man kann wohl davon ausgehen das die allerwenigsten Menschen sich für UHDBR extra eine GPU holen, und wenn können sie nur die GTX960 nehmen, was in Verbindung mit Asynchronous Shadern wieder für den Spielepart ein Nachteil sein könnte.

Die meisten Menschen nutzen eine Spiele GPU zum zocken, alles andere ist nettes Beiwerk.

Da in den aktuellen Konsolen AMD GPUs werkeln, und dort auch schon Asynchronous Shader intensiv genutzt werden, kann man davon ausgehen das zukünftige Spiele auch darauf setzen werden.
 
Wow, was für eine Korinthenkackerei.
1. AS sind Bestandteil, sprich ein Feature von DX12, aber kein Muss.
2. AMD kann es nativ, Nvidia auch (wie von Nai damals bereits erörtert), aber nicht im gleichen Maße wie AMD. Deshalb schrieb Oxide auch von einer Katastrophe auf Nivida Karten, nicht davon dass es nicht möglich sei.

mfg,
Max
 
@Locuza
Ein Feature ist es sobald es Direct3D zur Nutzung angeboten wird.
Ob es dafür in Hardware gegossen sein muss oder auch per Software Emulation umgesetzt werden darf legt letztendlich MS fest.

Um dafür Zahlen zu liefern müsste es erst einmal einen entsprechenden Test geben bei dem man dieses Feature auch abschalten kann aber das ist letztendlich auch völlig unerheblich denn bei einem Test äußerten sich ja bereits Entwickler zu dem Thema und meinten das die getestete Geforce mit Aktivierung zum Teil erhebliche Leistungseinbrüche hatte und deshalb ne extra Wurst mit deaktiviertem Async Compute bekam. Ich bin mir jetzt nur nicht sicher ob das bei den ersten test Ergebnissen von Ashes of the Singularity der Fall war.
 
Wie schon einmal erwähnt, verwendet auch Fable Legends Multiengine und für Nvidia scheint es dort keine extra Wurst zu geben, falls es sie bei Ashes of the Singularity noch gibt:
What we do find, however, is that the Titan X is likely allowing the benchmarks request for async compute to go through, but instead those workloads are placed directly into the 3D render queue. So Async is still on, and NVIDIA’s driver is aware of it
http://wccftech.com/asynchronous-compute-investigated-in-fable-legends-dx12-benchmark/2/
 
tic-tac-toe-x-o schrieb:
Die 6970, so wie eigentlich alle Karten ab 5000 bis vor GCN, haben zusammen mit den GCN Karten den gleichen Treiber (16.1.1) erhalten, am gleichen Tag, zur gleichen Stunde (jedoch separat, versteht sich).

Offiziell solls zwar fertig sein, aber hin und wieder dürften wohl doch noch paar fixes kommen.
Mit 4000 und darunter (bis 2000 runter) ist es halt ENTGÜLTIG fertig. Zurecht. Die 5000/6000 sterben langsam ab, auch zurecht.
Sieht bei Nvidia genau gleich aus. Eigentlich regt mich es ja sogar auf, dass man jede Entscheidung und jede Schritte mit der Konkurrenz vergleichen muss. Muss das wirklich sein?! Sind wir nicht alle schon aus dem Kindergartenalter raus?
Du willst damit also sagen, dass eine 6970 eine lahm Krücke ist die man eh nicht mehr gebrauchen kann? Und dass Features wie DSR total unnötig sind?
Dass die 4870/90 von der Leistung her heute nahezu unbrauchbar ist, darüber müssen wir nicht diskutieren. Aber war sie das bereits Anfang 2012? Ich meine nein.
Wie auch immer, bei AMD hält eine Karte offenbar auch nicht länger. Und Fakt ist nun einmal, dass Nvidia ältere Generationen länger unterstützt. Und das trägt zur Lebensdauer bei.

CCIBS schrieb:
Da brauchst dir keine sorgen zu machen. WIN 10 verbreitet sich auch so gut ;) Ist immerhin auch ein gutes OS.
Ich weiß zwar nicht wie du jetzt auf dieses Thema kommst, aber die Zahlen sprechen eine ganz andere Sprache.

Conceptions schrieb:
Und ehrlich gesagt glaube ich einem Oxide Entwickler mehr als bspw der Firma nvidia, welche nun in den letzten Jahren nicht der Fan von Ehrlichkeit war.
Einem unfähigen Entwickler - wenn ich mir mal Grafik und Performance/Anforderungen in Relation ansehe, vom Spieldesign oder der Aussage dass es für Crossplay nicht mehr gereicht hat aber für 5(?) APIs ganz zu schweigen - würde ich persönlich auch nicht trauen.
 
Wenn ich etwas emuliere geht dies immer zu lasten anderer Resourcen in diesem Fall trifft es die CPU . Dazu kommt die benötigte Software beides zusammen ist gegen etwas das nativ in Hardware läuft ineffizent und Störungsanfälliger und sicherlich auch um ein vielfaches langsamer .
 
@ Dark-Silent
Es ist in dem Sinne nicht, so wie ich hier oft lesen musste, so emuliert, so dass die CPU die Compute Aufgaben berechnen müsste. Das einzige was die CPU bei Async-Compute unter NVIDIA afaik machen muss ist Synchronisationspunkte in den Schlangen einfügen, bevor die CPU die Schlangen zur GPU schickt. Synchronisieren tut sich die GPU dann automatisch. Und Synchronsiationspunkte in Schlangen einzufügen *sollte* nicht sehr aufwändig sein.
 
Dark-Silent schrieb:
Bei NV gibts da mit ihrem G-Sync ein Hausgemachten Nachteil . G-Sync läuft nur unter für HD-Blurays nicht geeignete Standards . Ich bin z.B nicht so überzeugt das Hersteller bei G-Sync Monis in naher Zukunft dies ändern werden . Was dann heißt entweder G-Sync oder HD-Blurays . Sein eigenes Süppchen kochen könnte NV da noch Kopfschmerzen verursachen .

Ich möchte nicht jeden Nachteil des einen durch einen Nachteil des anderen relativeren, sondern einfach mal bei einem Punkt bleiben. Ich sprach von Fernsehern. Die gibts eh nicht mit G-Sync.

Conceptions schrieb:
Und was nützt dir HDMI 2.0 wenn nur eine einzige Karte, die GTX 960, von nvidia HDCP 2.2 kann?
Zumal jetzt erst die Ultra HD Blu Ray ins Rollen kommt, und nicht unbedingt als erstes die absoluten Kracherfilme starten.
Standalone Player sind für die USA mit März benannt, für Deutschland "dieses Jahr".
Bei vielen Menschen ist nicht mal die BR eingezogen.

Man kann alle Probleme immer mit anderer Hardware oder Zusatzhardware erschlagen und mit anderen Argumenten relativeren.
Ich kann mir auch locker mehrere HTPCs hinstellen. Für jeden Zweck einen. Wenn nötig sogar noch einen BluRay Player dazu. Irgendwann wirds aber albern. Viele wollen doch genau eine Medienzentrale die möglichst viel kann.
 
Zuletzt bearbeitet:
Der Landvogt schrieb:
Und Fakt ist nun einmal, dass Nvidia ältere Generationen länger unterstützt. Und das trägt zur Lebensdauer bei.
Das sieht man ja an Kepler vs Maxwell wie gut die Unterstützung ist, wohin gegen die AMD GPUs auch später noch entsprechende Leistung bringen.

Einem unfähigen Entwickler - wenn ich mir mal Grafik und Performance/Anforderungen in Relation ansehe, vom Spieldesign oder der Aussage dass es für Crossplay nicht mehr gereicht hat aber für 5(?) APIs ganz zu schweigen - würde ich persönlich auch nicht trauen.
Du unterstellst einem Entwickler Unfähigkeit anhand der Grafik und der Spieleperformance?

Oh man, wenn man bedenkt das hunderte Einheiten sepperat berechnet werden müssen, inkl. Physik, Schäden, Wegberechnung, KI, und und und...
 
Conceptions schrieb:
Das sieht man ja an Kepler vs Maxwell wie gut die Unterstützung ist, wohin gegen die AMD GPUs auch später noch entsprechende Leistung bringen.
Ich möchte mal sehen wo die plötzlich hoffnungslos einbrechen. Und zwar nicht in selektierten Spielen sondern allgemein.
Und aktuelle Treiber werden nicht nur für Spiele benötigt.

Conceptions schrieb:
Oh man, wenn man bedenkt das hunderte Einheiten sepperat berechnet werden müssen, inkl. Physik, Schäden, Wegberechnung, KI, und und und...
Ich frage mich an dieser Stelle schon wie man das bei Spielen wie Supreme Commander geschafft hat oder bei alten RTS Spielen wie Total Annihilation. Sicher, es gab vielleicht etwas weniger Einheiten und die KI war nicht so gut, aber TA setzte nur einen P133 voraus, SC1 einen 1,8GHz P4.

Wenn man für ein Spiel mit bestenfalls durchschnittlicher Grafik einen Highend-PC braucht findest du etwa, dass die Programmierer einen guten Job gemacht haben?
 
Zuletzt bearbeitet:
Oh man, wenn man bedenkt das hunderte Einheiten sepperat berechnet werden müssen, inkl. Physik, Schäden, Wegberechnung, KI, und und und...
Zumindest ist es mir bei dem Spiel etwas komisch aufgefallen, dass sie jede Einheit einzeln mit einem Draw-Call zeichnen. Jedoch sind die Einheiten alle gleich. Gerade dafür beherrschen moderne GPUs Instancing, womit sie mit einem Draw-Call 1000 mal das selbe Objekt zeichnen können.
 
Der Landvogt schrieb:
Ich möchte mal sehen wo die plötzlich hoffnungslos einbrechen. Und zwar nicht in selektierten Spielen sondern allgemein.
Hoffnungslos einbrechen habe ich wo gesagt? Es geht um die Unterstützung, und nvidia vernachlässigt Kepler, was man in Benchmarks sieht.
 
Nai schrieb:
Zumindest ist es mir bei dem Spiel etwas komisch aufgefallen, dass sie jede Einheit einzeln mit einem Draw-Call zeichnen. Jedoch sind die Einheiten alle gleich. Gerade dafür beherrschen moderne GPUs Instancing, womit sie mit einem Draw-Call 1000 mal das selbe Objekt zeichnen können.

Die Abstraktion die hierfür nötig ist würde alle Vorteile die aus Instancing entstehen wieder zu Nichte machen. Glaube nicht dass man dafür objektrelational denken sollte.

mfg,
Max
 
Conceptions schrieb:
Hoffnungslos einbrechen habe ich wo gesagt? Es geht um die Unterstützung, und nvidia vernachlässigt Kepler, was man in Benchmarks sieht.
Wenn eine Karte in neuen(!) Spielen im Vergleich zur Konkurrenz im Schnitt sagen wir 3% verliert ggü. dem Releasezeitpunkt der Karten, so juckt mich das reichlich wenig. Dann müsste ich alle paar Monate eine neue Karte kaufen. Das muss schon gravierender ausfallen, und zwar allgemein und nicht in selektierten Spielen. Wenn ich selektiere dann kann ich mir Vorteile für jeden Hersteller rauspicken.
 
Zurück
Oben