News DirectX 12: Disput zwischen Oxide und Nvidia geht weiter

SymA schrieb:
@foofoobar:
Guck dir die Skalierung jenseits von 4 Kernen auf dem Desktop in Spielen an - da hast du den gleichen Effekt, irgendwann ist der Vorteil durch Parallelisierung einfach nicht mehr da, oder verringert sich sogar. Alternativ kann der Aufwand die Daten korrekt zusammen zu führen, viel zu hoch sein, dass man auf die 1-2 FPS pfeift und stattdessen auf weniger Threads / Prozessen arbeitet.

Nebenläufiges programmieren war noch nie einfach, selbst irgendwas mit Interrupts auf einem Core ist bereits tückisch. Offen bleibt die Frage ob die schlechte Skalierung >n Cores in 3D Spielen auch einen Grund darin hat das man das ganzen Kram nur über einen Core an die GPU losgeworden ist, insbesondere da es nicht nur um den Durchsatz geht sondern auch um flüssige Darstellung. (Min FPS vs. Average FPS)

SymA schrieb:
Natürlich ist das bei Grafikberechnungen viel krasser von der Informations & Verarbeitungsmenge, jedoch kann es durch so sein, dass es bei Nvidia die Entscheidung gab, vorerst "seriell" zu bleiben, weil man sowieso schnell genug ist :)

Und da ist es wieder das Geschäftsmodell von Nvidia, mit viel Aufwand handoptimierten Code unter die Leute bringen. Wird es mit DX12 und Vulcan noch weiter funktionieren?
Ergänzung ()

Moon_Knight schrieb:
@foofoobar
Man nimmt gar nichts für "lau" mit.

Ich habe das "quasi" extra fettgeschrieben.
 
Du kannst es quasi fett tätowieren: es wird nicht richtiger. ;)

Ja, es wird alles weiter so funktionieren. Das ist der Sinn hinter "optional". Was mit Vulcan ist, muss sich auch erst zeigen. Viel Hype bisher. Wie bei so vielem.
 
Iscaran schrieb:
AS bedeutet in dem Kontext offenbar die zeitgleiche / parallele Abarbeitung von "Graphics" und "Compute" Befehlen.

Nvidia muß das für Applikation seperat anpassen (vulgo: "Treiberoptimierung) und bei DX12@AMD kann das der Applikationsersteller selbst machen. Das hat natürlich auch Auswirkungen auf den "Time to Market".
 
Theoretisch könnte man doch auch bei Dx12 sofern ne iGPU vorhanden ist diese für Computing nutzen oder?

Es hängt auch alles vom Computing Anteil ab. Ich würde annehmen dass der im Normalfall verschwindend gering ist zum Graphics, außer man coded Games wie Oxide mit Draw Call Fokus vllt? Da bin ich ma gespannt wie sich zukünftig verhält und wie Nvidia das regelt.
 
@foofoobar

Nvidia muss/kann in so einem Fall gar nichts anpassen. Es wird mit großer Wahrscheinlichkeit geflagged und damit deaktiviert.
Bzw. im PC-Bereich wird wohl eher deaktiviertes AS vorerst Standard bleiben und bei Bedarf und Möglichkeit zugeschaltet. Je nach Standpunkt.

Diese Art der Optimierung obliegt aber dem Hersteller-Studio. Zur Erinnerung: Wir bewegen uns hier im low level. ;)

Krautmaster schrieb:
Theoretisch könnte man doch auch bei Dx12 sofern ne iGPU vorhanden ist diese für Computing nutzen oder?
Theoretisch bestimmt, nur faktisch zu kompliziert, als dass das wer freiwillig integriert.
 
Ich weiß gerade nicht, wer peinlicher ist Oxide oder Nvidia (wieso zeigt der Treiber nach außen, dass die Karte sowas kann - obwohl sie es nicht ganz kann?)
 
Der Treiber scheint eher in einer alpha zu sein als der Benchmark. Sorry aber da steht eindeutig, dass der Treiber (lt. Nvidia) das Problem ist.
 
Und? Hat das wer bezweifelt? Wurde doch die ganze Zeit so kommuniziert. Bist du der Meinung, AMD ist fertig mit der DX12 Implementierung?
Ich wüsste auch nicht, warum irgendein Hersteller für eine Alpha besonders Gas geben sollte.
 
Ich kann dir einfach nicht folgen. Ein Entwickler und ein anderer Benchmark zeigen, dass Async Shader im Moment nicht bei Nvidia funktionieren. Der Entwickler bestätigt das quasi jetzt noch einmal sagt aber, dass Nvidia daran arbeitet und du schreibst "Na seht ihr? ALPHA eben. Wird alles nicht so heiß gegessen, wie gekocht." Wo du die ganze Zeit gegen den AotS Benchmark mit genau dem Argument (welches nichts zur Sache tut) wetterst. Da beziehe ich dein zweifellos negativen Kommentar "ALPHA eben." auf den AotS Benchmark was zur Frage "Async Shader bei Nvidia?" wie gesagt gar nichts zur Sache tut.
 
Natürlich bezieht sich das auf den Benchmark. Treiberoptimierungen erscheinen normalerweise 2-3 Tage vor dem Release einer finalen Version. Bei ausgewählten Werken auch mal für einen öffentlichen Beta-Test. Ich habe die ganze Zeit gesagt, dass niemand aus irgendeinem Ergebnis dieses Benchmarks auch nur einen stichhaltigen Schluss ziehen kann.
Was überfordert dich jetzt schon wieder?
 
Noch einmal für dich in fett:
Der in einer Alpha befindliche Benchmark von Ashes of the Singularity zeigt nicht, dass Nvidia nicht in der Lage ist Async Shader zu nutzen! Die Ergebnisse dieses Benchmarks haben in der Hinsicht gar keine Aussagekraft! Das ist unabhängig vom alpha Satus des Spiels/Benchmarks!

Nvidia alleine hat es bis heute nicht auf die Reihe bekommen dieses Feature sinnvoll umzusetzen. Das hängt nicht vom alpha Status des Benchmarks ab (ich habs sogar noch einmal für dich geschrieben :))!

Deswegen verstehe ich nicht weshalb du weiter den Benchmark in der Hinsicht kritisierst.
 
Noch mal für dich: Windows 10 und die finale Version von DX12 sind jetzt wie lange erhältlich? Du geilst dich jetzt daran auf, dass Nvidia nicht alle Features im Treiber fertig verankert hat? Natürlich ist da der Alpha-Status des Benchmarks mitschuldig. Man hätte wissen können, dass zu einem so frühen Zeitpunkt noch einiges im Argen liegt. Man hätte besser miteinander reden können (beidseitig, Oxide trägt durchaus seinen Teil zum Chaos bei).
Der Zeitpunkt für diesen Benchmark war einfach denkbar schlecht, der Sinn dahinter wohl reines Marketing gepushe; dass wer verärgert werden könnte, absehbar.

Und wo kritisiere ich? Ich relativiere. Die ganze Aktion war im Endeffekt eine große, unnütze Blase voller Blabla.
 
Zuletzt bearbeitet: (Typo)
Zuletzt bearbeitet:
Nun ja, der Entwickler sagt man hat viel mit Nvidia zusammengearbeitet, mehr als mit AMD in letzter Zeit (trotz Partnerschaft mit dem Publisher und AMD). Der Benchmark hat noch immer nichts damit zu tun. Lediglich der Kommentar des Entwicklers hat offen gelegt, dass Nvidia noch Probleme mit Async Shadern hat.

Die ganze Aktion war übrigens kein "unnützes Blabla", die Aktion hat viele Leute zum Nachforschen angeregt und es sind dabei keineswegs unnütze Ergebnisse rausgekommen. Ich stelle mir gerade vor wie dieser denkbar schlechte Benchmark später rausgekommen wäre und alle Nvidia und AotS besitzer dank der Async Shader ein schlechtes Spielerlebnis gehabt hätten. Alleine die Tatsache, dass Nvidia jetzt vermutlich schneller entwickelt und ausbessert sollte dich doch besonders freuen.

Ich gebe an dieser Stelle jedoch nach und lasse dich weiter hier wüten, belehren klappt ja irgendwie nicht. Ich hoffe jemand anderes versucht es weiter.

Wenn ich neues zum Thema finde lasse ich es euch dennoch wissen.
 
Erzähl halt keinen fachlichen Unsinn, dann können wir uns auch vernünftig unterhalten. Nvidia wäre natürlich nur und ausschließlich bei einem so wichtigen und heiß erwarteten Titel aufgefallen, dass ihre Treiber noch nicht fertig sind. Da haben wir Oxide ziemlich viel zu verdanken (nicht).
Da wussten wohl die abgestellten Verbindungsleute einfach nicht, wie weit die Leute der Treibercrew sind oder waren falsch informiert.
Wenn du Entwicklungserfahrung hättest, wüsstest du, dass das durchaus vorkommt.
Hätten sie bis zum Beta-Status (wie es üblich ist) mit der Veröffentlichung gewartet, hätte vielleicht niemand überhaupt was zu beanstanden gehabt, weil der Treiber schon x-fach weiter gewesen wäre.

Hauptsächlich hat dieses Vorpreschen mit dem Benchmark eine Verunsicherung der Userschaft verursacht. Sonst nichts. Dafür hat man weder Lob noch irgendwas verdient.
Aber danke, dass du Ruhe gibst. Vielleicht verstehst du auch mal irgendwann etwas. :)
 
Zuletzt bearbeitet: (Typo / Tablet-Hass)
Igoo schrieb:
Mal was dazu:

http://www.overclock.net/t/1569897/...ingularity-dx12-benchmarks/2130#post_24379702

"We actually just chatted with Nvidia about Async Compute, indeed the driver hasn't fully implemented it yet, but it appeared like it was. We are working closely with them as they fully implement Async Compute. We'll keep everyone posted as we learn more."

Na mal schauen was da kommt :D

Vorrausgesetzt der Kollock sagt die Wahrheit:
(Wenn er es nicht tut, kann ja Nvidia aufschreien ;) )
Ganz ehrlich? Nebelkerze!

Wieso sollte Nvidia JETZT auf einmal feststellen, dass ihr Treiber das nicht vollständig implementiert hat?
Hört sich für mich nach weiteren Beschwichtigungsversuchen an, insbesondere da Nvidia kein offizielles Statement abgibt.
Gerade wo die Nvidia Treiber doch so ein gutes Image haben, würde ich an Nvidias stelle so etwas als allerletzte Nebelkerze machen...
Genauso wie Fermi fast kurz vor der Erscheinung war, beseitigen sie jetzt das Problem durch einen Treiber.
Ergänzung ()

Moon_Knight schrieb:
Hauptsächlich hat dieses Vorpreschen mit dem Benchmark eine Verunsicherung der Userschaft verursacht. Sonst nichts. Dafür hat man weder Lob noch irgendwas verdient.
Aber danke, dass du Ruhe gibst. Vielleicht verstehst du auch mal irgendwann etwas. :)

Noch hat Nvidia keine Wundertreiber gebracht und darf man ab jetzt erst Benchmarks veröffentlichen wenn Nvidia dem zugestimmt hat?
 
Klar kann man nun streiten darüber wer lügt und wer nicht - aber es klingt doch irgendwo realistisch dass Nvidia sich bisher nicht um das Spiel gekümmert hat (wir wissen ja dass Nvidia für Spielereleases genauso wie AMD hin optimiert) und nachdem bisher in absehbarer Zeit nichts kommt mit DX12, ist das irgendwo wirtschaftlich richtig so zu handeln. Ich will jetzt nichts durch die grüne Brille sagen, aber einfach mal abwarten. Ich glaube die Treiber holen da auch noch was raus. Außerdem hat man in anderen Benchmarks gesehen, dass DX12 vor allem mit schwachen CPUs und starken Karten deutlich besser skaliert.
 
Zurück
Oben