Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestHitman Benchmarks: DirectX 12 hebt das CPU-Limit massiv an
Jap es ist nicht klar ob es überhaupt unterstützt wird... was beunruhigend ist, dass NVIDIA nichts dazu sagt. Oder haben Sie sich irgend wo wieder zum Thema Async Computing geäussert seit letztem September?
hab den Thread leider nicht weiter durchgelesen, aber mich würde ein Phenom II X6 1090T dazu gestellt noch interessieren, frag mich ob hier die Anzahl der Kerne jetzt mal richtig zum Tragen kommt un dob ich in meinem zarten Alter doch noch auf einen Wohnzimmer Gaming PC aufrüsten sollte.
@kisser: NVidia-Karten beherrschen Async Compute eben NICHT hardwareseitig, dass wurde sogar von NVidia bestätigt und sollte so langsam auch bei dir angekommen sein...
Ja, und jeder Async Shader, der auf einer Nvidia GPU läuft, führt zum korrekten Rechenergebnis. Eine API macht keine Vorgaben wie die Hardware auszusehen hat, sonst wäre es ja keine hardwareunabhängige API. Den Sinn einer solchen API scheinen hier einige nicht zu verstehen.
@thuNDa
Witzigerweise zeigt das Bild in deiner Quelle, dass Nvidia kein Async compute kann. https://forum.beyond3d.com/threads/...and-analysis-thread.57188/page-9#post-1869058
Das Bild zeigt einfach (genau wie die verlinkten Nummern zu 960 und 980 Ti), dass Graphics+Compute genau so lange dauert wie Graphics+Compute im seriellen (also ohne async compute) Betrieb dauern würde.
nach den ersten 31 compute tasks erhöht sich die dauer um weitere 9-11ms im Schnitt [Edith: nach jeden weiteren 32 tasks], genau wie alle compute+graphics tasks ab #32
compute:
31. 9.07ms
32. 17.85ms
compute+graphics:
31. 50.48ms (33.23G pixels/s)
32. 59.18ms (28.35G pixels/s)
Aber das mit dem 512bit Speicher Interface wäre doch mal was , lange hatten die Karten 256-384Bit.
Zum 4096 Bit Speicher Interface , keiner kennt die Specs von HBM2 , nur eins ist jetzt schon klar , die Titan wird unbezahlbar werden
Ich hoffe sehr , das AMD mit den Nächsten Karten endlich mal Nvidia einen Arsch Tritt Verpasst , als Rache wegen der GTX970 und DX12 , oder ein ganz neuer Hersteller kommt noch dazu Wunder gibts vlt.
Patch 1.03 hat eine neue Einstellung hinzugefügt: bisher wurden bestimmte Grafikeinstellungen blockiert/man konnte nicht die maximalen Einstellungen wählen, wenn der Grafikkartenspeicher zu gering war.
In meinem Fall (HD 7950) konnte ich weder Supersampling aktivieren noch die höchste Textur-Qualität wählen. Das ist nun aber möglich.
Interessant dabei ist, dass maximal 2.5gb Speicher meiner HD 7950 belegt werden bei maximaler Texturqualität (Rest der Einstellungen auf Medium) unter DX12.
Ansonsten brachte der Patch noch etwas mehr FPS (~2 FPS gegenüber den alten Werten, mittlere Details, 50 FPS@DX11 vs 60 FPS@DX12 nun (vorher 50 zu 58).
Maximale Textturqualität kostet gegenüber der mittleren Einstellung ca. 3 FPS unter DX 12 (57 FPS@DX12, restliche Einstellungen auf Medium).
Wäre schön, wenn vllt. hier nochmal ein Nachtest kommen könnte (oder von anderen Nutzern), ob sich an der Performance noch andersweitig was getan hat.
Was ist das nur für ein Verein, ich ärgere mich wahnsinnig, dass ich mir eine Nvidia Karte zugelegt habe. DX12 Fake, Gsync Fake, GTX970 Fake!!! Danke Nvidia !
DX12 hilft nicht speziell AMD, sondern langsamen Prozessoren. Auch langsame Intel Prozessoren werden so enorm zulegen. Für den Moment bedeutet das, das schnellere Prozessoeren überflüssig sind.
In 1. Linie? Hast du eine Quelle dafür? Ist es nicht gerade die Auslastung der Kerne, die den mit Abstand größten Nutzen von Dx12 ausmacht?
-> http://winfuture.de/news,86363.html
Marcel55 schrieb:
Weil man bei der Benutzung von Free- und G-Sync kein V-Sync mehr braucht, was zu einem reduzierten Inputlag führt, trotz anhaltender Synchronisation.
Trotzdem nicht wirklich toll dieses Adaptive Sync: "In unserem Praxistest in Ausgabe 04/2014 haben wir mittels LED und 1.000-FpsKamera genau das getan und dabei festgestellt: Ein Einfluss auf die Eingabeverzögerung vom Mausklick bis zum sichtbaren Resultat auf dem Bildschirm ist durch adaptive Bildraten-Technologien nicht wirklich zu erreichen – höchstens gegenüber traditionellen Anti-Tearing-Maßnahmen wie V-Sync, die durch Buffering (das Zurückhalten von Frames, bis der Monitor für den nächsten Refresh-Zyklus bereit ist) zu erhöhtem Input-Lag führen können. Im Mittel lag die mit adaptiver Synchronisation gemessene Zeitspanne zwischen Schuss und Bild sogar etwas höher – allerdings im Bereich der Messungenauigkeit."
Q: PC Games Hardware 08/16