Test Ashes of the Singularity: Leistungsexplosion durch DirectX 12

ascer schrieb:
Nun, mit einem deutlich effizienterem und modernerem DirectX, sieht man was Bulldozer auch in Spielen zu leisten im Stande ist.

Dx12 belastet schlicht die Cpu weniger, also wird die Cpu nicht so schnell zum Flaschenhals. Ist jetzt keine Raketenwissenschaft und macht Bulldozer nicht besser. Wenn man so will: du hast Ein Moped und ein Motorrad und fährst beide bei Gegen und Rückenwind. Auf dem Motorrad ist dir das egal, auf dem Moped machst du 10kmh mehr mit Rückenwind. Das Moped ist auch mit Rückenwind nicht schneller als das Motorrad, aber es profitiert halt viel mehr davon als das Motorrad, prozentual gesehen jedenfalls.
 
TheMetalViking schrieb:
Musste so hart lachen als ich die 390x, aka 290x, mit ihrer jahre alten architektur an der 980ti vorbeigezogen ist.

GCN ist eine unfassbar gute Architektur. 2011 erschienen, und tritt heute noch Ärsche. Wundervoll.

Bin aber fast sicher, das kein größeres Spiel mehr Async nutzen wird.
Pascal, so munkelt man, soll es ja auch "nicht so gut" beherrschen:P

Siehe DX12 Patch bei ARK ... wer sorgt dafür, dass der nicht kommt? Rate mal.

Ich suche mal den Steam Foren Eintrag, bei dem sich ein nVidia Mitarbeiter dazu äußert, dass der DX12 Patch für ARK auf sich warten lässt, bis die "Probleme" behoben sind. Man geht vom Release mit Pascal aus.

Gelesen Ende letzten Jahres im Steam Forum mit diversen Links dazu ins offiz. NV-Forum.
 
Ich denke Pascal wird AsC unterstützen, sowas kann sich Nv nicht leisten diese Feature wegzulassen. Ich denke deren Ingenieure haben zur Zeit der Entwicklung von Pascal sicherlich daran gedacht dass AsC mal eine gewichtete Rolle spielen wird. Wieso man aber AsC bei Pascal nicht erwähnt bzw. Die Marketingtrommel anwirft? Würde ja bedeuten dass man zugibt dass Maxwell das Feature ja garnicht unterstützt. So läufts!
 
Faust2011 schrieb:
Eventuell hat das noch ganz viel Aussagekraft! Warum? Nvidias Nachfolgearchitektur, Pascal, wurde ja nicht erst seit Jahresbeginn am grünen Tisch entworfen. Nein, die Entwicklung startete bereits vor viel längerer Zeit. Deshalb kann es sein (und wurde bereits beim Aufkommen des AsyncShader-Diskussion letztes Jahr spekuliert), dass die neuen Chips von Nvidia bezüglich AsyncShader genauso schlecht dastehen wie die aktuelle Generation.

Der Post von kachiri war ja schon Käse. Pascal kommt nicht "in den nächsten Monaten". Es gibt bisher null Infos und auch noch nicht mal einen Prototypen der gezeigt worden wäre. Ich gehe davon aus, dass sich Pascal genau deshalb verzögern wird, weil noch viel nachgebessert werden muss um wieder mithalten zu können. GCN beherscht Async-Computing in Hardware, Nvidia gar nicht bisher. Das muss erst mal implementiert werden.
Wenn Nvidia nicht wieder 2/3 der Studios besticht, dann haben die 2016 einen sehr schweren Stand.
 
Naja es ist ein Experiment ja aber das muss nicht mit intelligenter und sinniger Programmierung einhergehen. AoS hat das gerade das Ziel zB die Drawcalls auszureizen, das gibt das sehr spezielle Genre ja auch her. Warum wohl ist es ein Abklatsch der Swarm Demo...

Die Frage ist doch eher ob ein typischer Egoshooter vielleicht an ganz ganz anderer Stelle limitiert, zb Tessellation. Kam / kommt auch oft vor und dann sieht das Blatt wieder genau anders rum raus.

Wenn man es wie hier drauf anlegt bestimmte API Schnittstellen auszureizen bekommt man das schon irgendwie hin.

Mal eine Frage: Sieht AoS derart bombastisch aus und wirft Dank DX12 alles in Schatten? Find ich jetzt nicht... Würde sogar behaupten dass man mit anderem technischen Ansatz grafisch besseres rausholen könnte, ganz ohne DX12 oder diesen Drawcall Overkill :)

Wie gesagt, in anderen Genres können ganz andere Dinge limitieren.
AMD wird mehr profitieren und das ist auch gut so. Wohl kaum aber so extrem wie in AoS.
 
Zuletzt bearbeitet:
Krasse Sache und schon wieder wird Nvidia vorgeführt. Das Async "Desaster" http://www.heise.de/newsticker/meld...karten-ein-vollkommenes-Desaster-2801497.html ist bei Nvida schon so lange bekannt und mit sogenannten "Treiberfreischaltungen" als Lösung versprochen wurden doch nix da. Weil das kein Treiber richten kann.
Was die Hardware nicht kann, kann auch nicht durch einen Treiber eingeschalten werden.
Die ganze VRam Lüge mit der GTX 970 .... doch trotzden wird die Karte weiter von "Fans- auch hier im CB" empfohlen. Hypothese: "Weil man sich selbst Rotz gekauft hat und es nicht selbst eingestehen kann müssen andere überzeugt werden ebendiesen Fehler auch zu begehen"

Und die Oberkrönung zum Theme die Großen aktuellen Versprechungen aus der Nvidia Welt: Prohiberer G-Sync der den den "Standard"Adaptive Sync ablösen wird????? Jedoch Nvidia eingestehen müsste, dass nur noch wenige Monitorhersteller auf den teuren Lizenszug aufspringen und stattdessen Adaptive Sync bzw. Free Sync als Gratis Zugabe bei den meisten neuen Geräten faktisch kostenlos an Board ist und als bitterer Beigeschmack auch noch mangelnde Qualität vom Rest des Gerätes ausgehet. Jedoch auch hier wie bei der GTX 970 "kräftig Empfehlungen" ausgesprochen werden :freak:

Es ist und bleibt spannend, wie lange wir uns noch vom grünen Lager verschauckeln lassen. Der Größte Verlierer ist die GTX 970 zugunsten der amd r9 390x 8GB. Bei direct x12 dicht gefolgt die GTX 980.
Und selbst meine GTX 980Ti scheint da gegen eine Fury X alt aus zu sehnen.
 
Zuletzt bearbeitet:
Also ich dachte mir schon die ganze Zeit bei den CPU Benches. "Jetzt ist der Tag gekommen, der Tag den jeder AMD Jünger prophezeit hat, der FX schlägt den I3"

*nichts gegen AMD*
Ist halt jetzt die Frage ob es so ist, dass Nvidia ihre Treiber halt schon so effizient für DX11 gemacht hat, dass DX12 kaum besser ist - oder aber, dass Nvidia einfach Nichts gewinnt da Hardwareunterstützung=0.

Ersteres würde heißen Nvidias Hardware ist generell schlechter und konnte nur dank Treibern oft gewinnen..
Letzteres würde heißen Nvidia setzt es einfach darauf an, dass ihre Kunden jedes Jahr neu kaufen.

Habe zwar ne Nvidia aber die werden immer unsymphatischer.
 
Good Job AMD von einem 980TI Besitzer. Will auf jeden Fall das AMD in Geschäft bleibt. Bin aufs 2016 Battle Polaris vs Pascal gespannt drücke aber AMD die Daumen.
 
Pizza! schrieb:
Hat nvidia schon was genaues zur Async. Shader Fähigkeit der Pascal gesagt? Wäre ja krass wenn die das auch nicht wirklich könnten.
Nein haben Sie nicht. Und das veranlasst mich persönlich davon auszugehen das auch Pascal kein Async compute kann.
Dazu kommen ja auch gerüchte das Pascal nur eine aufgebohrte Maxwell Architektur in kleinerer Fertigung ist. Dazu würde der einbau eines Features wie ACE's eher weniger passen, da dazu doch grössere änderungen am gesamten Chipdesign einhergehen dürften.
 
Dolph_Lundgren schrieb:
Ich finde es schon besonders, da den Bulldozern und ff. ja sämtliche Leistung abgesprochen wurde. AMD könnte mit DX12 einen zweiten Frühling erleben.

Ich weiß jetzt nicht was an meinem Post so schwer zu verstehen war: du brauchst unter Dx12 weniger CPU Leistung für bessere Frames. Sprich es fällt schlicht weniger ins Gewicht dass Bulldozer schlecht ist, das macht Bulldozer aber nicht besser, es zählt nur weniger dass Bulldozer schlecht ist.
 
Frage zum Mischverbund aus NVIDIA- und AMD-GPU:

Was ist eigentlich wenn das Spiel mehr als 4GB-VRAM benötigt? z.B. bei UHD? Bricht diese dann ein? Oder wie löst die Technik das Problem?
 
@rollkragen: FullACK

@Darkness: Genau so siehts aus: Mit DX12 wird die Hardware direkter angesprochen. Damit kann die Leistung besser ausgenutzt werden und diese bescheurten "Optimierungen" á la GameWorks werden sich hoffentlich in Luft auflösen. Die reine Hardwareleistung sollte zählen und nicht wer, für das oder das Spiel wieviel "Hilfe" aka Schmiergeld anbietet
 
Les ich das richtig: keine nochmal keeine Mikroruckler im SLI? Das wäre der grosse Knall. Dual Pascal oder Polaris für 4K 144hz Spass!!
 
mambokurt schrieb:
Dx12 belastet schlicht die Cpu weniger, also wird die Cpu nicht so schnell zum Flaschenhals. Ist jetzt keine Raketenwissenschaft und macht Bulldozer nicht besser .

Du hast Recht, das Potential des Bulldozer ist dieselbe, aber die Effizienz ist hier eine andere. Zeigt also, dass die FX rein von ihrem Potential (Rohleistung) immer nahe bei Intel war (zu mindestens zu ihrem erscheinen).

Sprich, das ganze lässt aktuelle Intel nicht gerade besser glänzen, außer, dass ein FX in der selben Fertigung wie Intel eventuell kleiner wäre :O
Der Grund wieso ich Freunden aktuell eher einen Intel oberhalb eines 500 Euro Budget empfehlen würde. Aber wer weiß, vllt bessert sich das mit Zen wieder etwas ^^

Das Beispiel ist übrigens nicht optimal. Ich würde es eher so vergleichen. Der AMD hatte Allrad antrieb und kann jetzt erst davon Gebrauch machen, all seine Reifen nützten zu können.
 
Zuletzt bearbeitet:
Die reine Hardwareleistung sollte zählen und nicht wer, für das oder das Spiel wieviel "Hilfe" aka Schmiergeld anbietet
Hardware ist aber nichts ohne Software ;)
 
Fruuky schrieb:
Good Job AMD von einem 980TI Besitzer. Will auf jeden Fall das AMD in Geschäft bleibt. Bin aufs 2016 Battle Polaris vs Pascal gespannt drücke aber AMD die Daumen.

Genau das ist ein wichtiger FAKT! "Das unterscheidet einen selbstkritischen Nutzer von einem nicht reflexionsfähigen FAN"
 
Rush schrieb:
Lasst dem AMD Usern diesen kurzen Rum, wenn echte DX12 Spiele auf dem Markt sind liegen sie wieder hinten 😂

Ein sehr hilfreicher Kommentar. Viel nützlicher Inhalt und Tiefgang. Vielen Dank dafür
 
Äußerst amüsant, wenn man bedenkt das der allgemeine Tenor ja gerne war, das AMD ihre "veraltete" Architektur doch mal überarbeiten müsste, um mit nvidia mithalten zu können.

Jetzt sieht man. AMD hat mit Weitsicht und zukunftsblickend entwickelt und ihre Architektur erscheint moderner als nvidia.

Dazu noch die Unkenrufe seitens nvidia bzgl. des Konsolendeals, es würde sich nicht lohnen.etc Wie man liest nutzen die Konsolen fleißig das AS Feature und weshalb sollte dies bei einer Portierung deaktiviert werden?
Aber vermutlich gibt es dann einem "The way its..." Titel dann wieder einen Patch der einen defekten Renderpfad deaktiviert... Hust Ubisoft, hust DX10.1...

Und nun noch ein großes Lob an Microsofts DX12 und die AotS Entwickler bzgl der Multi GPU Lösung, insbesondere der Mischbetrieb, während nvidia künstlich ihre PhysX Funktion auf ihren GPUs deaktiviert wenn eine AMD GPU mitrechnet.

Was haben hier doch manche den Oxcide Games Entwicklern Unfähigkeit unterstellt.
 
Rush schrieb:
Lasst dem AMD Usern diesen kurzen Rum, wenn echte DX12 Spiele auf dem Markt sind liegen sie wieder hinten 😂

Ist gut @Rollkragen, das juckt keinen aber trotzdem kommt in jeden Beitrag NVIDIA hate ! Richtig Arm !
In der Reihenfolge:
lesen-denken-schreiben ;)
 
Zurück
Oben