News DirectX 12: Nvidia-Treiber soll Async Compute nachreichen

Ist der Sinn hinter den ACEs nicht, dass das die Hardware von sich aus kann und somit das Context Switching automatisiert ab läuft um die Pipelines besser aus zu lasten? Dann wäre die Implementierung über den Treiber ja extrem schnarchig je nach Häufigkeit der Wechsel...
Der sinn ist nicht ein automatischer Kontext-wechsel, sondern dass Graphik und Compute ohne Kontextwechsel gleichzeitig parallel abgearbeitet werden können. Ich habe vor geraumer Zeit mal die Vorteile in der Hinsicht etwas genauer erklärt:
https://www.computerbase.de/forum/t...dia-geht-weiter.1509307/page-19#post-17831673
 
Es bleibt bei der reinen Software Lösung. AMD ist da wohl dick voraus.
 
@Moriendor:
Schön formuliert, nur leider
kann sich nicht jeder jedes Jahr die Highend-Karte leisten.

Es gibt tatsächlich Menschen, die sich eine der besseren Karten nur alle zwei bis drei Jahre kaufen,
dann aber doch ein wertiges Stück Hardware im PC haben wollen.

Ok, Hardware ist nie zukunftssicher.
Sobald sie eingebaut wurde, ist sie schon veraltet.

Aber WENN man sich schon eine Karte kauft, die DX12.1 angeblich unterstützt,
dann ist es einem *piep*-egal, ob es heute schon Spiele dafür gibt, oder erst in einem Jahr.

Im nächsten Jahr sind Spiele mit DX12 draussen, 2017 erst recht.
Und dann möchten die Käufer einer 700 Euro Karte nicht nachträglich hören,
dass diese mit DX 12.1 beworben wurde,
aber es nicht auf die Reihe bringt.

Und denen ist es egal, ob Pascal, Volta oder was auch immer dieses Feature endlich nachreicht.

Ich bin zwar "nur" aktuell AMD Nutzer zweiter/dritter Ordnung (7970GHz Edition/280X),
war aber jahrelang NVidia-Käufer.
Mir geht Fanboy-Gehabe auf den Geist, aber auch Firmenpolitik, die meint, den Käufer veräppeln zu können.
Solche Firmen gehören abgestraft.

Was jetzt läuft, wird sein:
Es werden Workarounds erarbeitet und in die Treiber eingepflegt,
es werden "Programmierrichtlinien" von NVidia an die Entwickler geschickt, wie man sowas wie Async Compute doch irgendwie nutzen kann.
Dann wird öffentlich verlautbart: Seht her, es war alles nur ein Irrtum der Entwickler des Spiels.
Und dann wächst Gras.

Ich möchte nicht wissen, was für einen Wagen der Entwickler, der gerade etwas zurückrudert, seit einigen Tagen fährt.
(oder negativ: welche Pistolen die NVidia-Anwälte ihm auf die Brust gesetzt haben...)
 
Zuletzt bearbeitet:
@ Strikerking

nach allem was so über diese Generation raus kommt könnte man das wirklich meinen.

Nicht falsch verstehen was Effizienz usw. sowie aktuelle Leitung angeht
sind die Karten wirklich gut.
Aber sobald man an die Zukunft denkt sind sie praktisch jetzt schon Überholt.
Durch den vRAM (ich nens jetzt mal) Bug und das fehlen eines Wichtigen Features
für DX12.
Und das obwohl die Karten gerade damit beworben wurden mit "mehr" VRAM und DX12.1 Support

EDIT:
@ Wishbringer +1! So siehts aus!
 
Zuletzt bearbeitet:
berkeley schrieb:
Vielleicht diejenigen, die sich gerade eine Nvidia GPU gegönnt haben oder es gerade vor haben? Meinst du in
einem Jahr wird dann die nächste gekauft, weil Nvidia sich momentan mit den Features "verkalkuliert" hat?:rolleyes::lol:

Ja, das meine ich, denn es sollte jedem klar sein, dass die nächste Generation (nVidia TSMC 16nm... AMD man weiß es noch nicht... entweder auch TSMC 16nm oder GloFo 14nm) ein wahrer Quantensprung wird. Wenn Pascal (und AMD Pendant) raus ist, wird man die "Steinzeitmodelle" Maxwell und Fury usw. nur noch milde belächeln.

Wer sich jetzt eine Maxwell kauft und glaubt damit die ultimative DirectX 12 Karte erworben zu haben, hat seine Hausaufgaben nicht gemacht. Maxwell wurde von nVidia ja auch nie in der Art beworben. Die Hersteller haben ihre letzten Karten ja eher mit "4K Gaming", "Overclocker's Dream" (und dann nach +20MHz abkack.exe :lol: @ Fury) und "King of the Hill" (wohl eher King of the Maulwurfshügel :lol: ) usw. angepriesen.

Wer ernsthaftes Interesse an DirectX 12 Gaming hat und ein wenig vorausschauend denkt, der hat schon Pascal auf dem Schirm und weiß auch ungefähr um die Praxisrelevanz von DirectX 12, die nämlich bis Ende diesen Jahres bei annähernd Null liegt, es sei denn man ist großer Gears of War, Fable oder Ashes of the Singularity Fan).
 
Moriendor schrieb:
Außer Ashes of the Singularity wird in absehbarer Zukunft nur noch die Gears of War Neuauflage (*gähn*) sowie dieses billige Fable MMO (*kotz*) DirectX 12 supporten.

+ Deus Ex + Hitman + Tomb Raider + Battlefront aber kennt man ja nicht anders:

Mantle kommt
grünes Männchen: Uninteressant haben ja bald DX 12
DX 12 kommt
grünes Männchen: uninteressant bis dahin hab ich schon Geforce 13xx TIBlacksuper ultra
Fortsetzung folgt ...

Maxwell wurde von nVidia ja auch nie in der Art beworben.

SRLSLY?

http://international.download.nvidi...tx-980-ti-directx-12-advanced-api-support.png

Advanced API support *hust* immer schön in die eigene Tasche lügen.

Und ob Psacal das feature überhaupt beherrscht steht in den Sternen denn die Entwicklung zu Pascal hat schon vor Jahren begonnen. Aber immer feste dran glauben...
 
Zuletzt bearbeitet:
Wolfsrabe schrieb:
Ich verstehe das auch irgendwie nicht. Das ist (für mich!) genauso diffus wie die Sache mit dem Overhead.

Was ist denn das für eine Zauberei, wenn es bei AMD um (hardwareseitig definierte) GCN-Version geht oder darum, daß DirectX-12 den Overhead verringert, während nvidia diese Dinge "einfach" mit einem Treiberupdate erledigt?

Ich glaub das ist mir zu hoch. :freak::(

Das Problem ist das Software immer langsamer ist als Hardware. Zudem werden die Befehle auf der CPU ausgeführt. Aber gerade diese sollte ja durch DX12 entlastet werden. Das geht aber nur wenn es in Hardware gegossen ist. AMD hat gut gespielt.

Moriendor schrieb:
Ja, das meine ich, denn es sollte jedem klar sein, dass die nächste Generation (nVidia TSMC 16nm... AMD man weiß es noch nicht... entweder auch TSMC 16nm oder GloFo 14nm) ein wahrer Quantensprung wird. Wenn Pascal (und AMD Pendant) raus ist, wird man die "Steinzeitmodelle" Maxwell und Fury usw. nur noch milde belächeln.

Mein Orakel sagt mir das die nächste Chipgeneration nur 20% mehr Leistung bringen wird. Schon alleine daran das beide Hersteller darauf achten müssen das die Steigerungen moderat ausfallen da Quantensprünge immer schwieriger zu erreichen sind. (Man will ja jedes Jahr eine neue Karte verkaufen) Zudem wird die Produktion dann erst mal mit kleinen Chips bis ca. 300mm² beginnen. Dem stehen dann 600mm² Fiji und Maxwell gegenüber. Also mit 20% gewinn wäre man da gut noch dabei wenn dann eher weniger. Ich verstehe nicht wie Menschen die Marktwirschaft auser acht lassen können?
 
Zuletzt bearbeitet:
Wolfsrabe schrieb:
aber ich fahre noch mit 40nm und bin damit sicher keine Ausnahme.

Auch dein Fermi wird mit dem DX12 Treiberrelease (AFAIK angekündigt für den R358 Treiber) Asnyc Compute unterstützen, weil jeder DX12 Treiber das können muss.
Ergänzung ()

Dai6oro schrieb:
Advanced API support *hust* immer schön in die eigene Tasche lügen.

Sagt genau was aus?
 
dai6oro schrieb:
+ deus ex + hitman + tomb raider + battlefront aber kennt man ja nicht anders:

Mantle kommt
grünes männchen: Uninteressant haben ja bald dx 12
dx 12 kommt
grünes männchen: Uninteressant bis dahin hab ich schon geforce 13xx tiblacksuper ultra
fortsetzung folgt ...

...

you made my day!! :-D
 
Sagt genau was aus?

Lesen! Mit der Folie wurde die GTX 980Ti beworben. Eventuell findest du auf der Folie auch was zu Async Compute ...ach ja das soll unterstützt werden ja nein doch ja wie :freak:
 
Dai6oro schrieb:
Mantle kommt
grünes Männchen: Uninteressant haben ja bald DX 12
DX 12 kommt
grünes Männchen: uninteressant bis dahin hab ich schon Geforce 13xx TIBlacksuper ultra
Fortsetzung folgt ...

Ach war das Cool bei Mantle,
Jaja Amd mit Mantle bald kommt DX12 da wird NV sowas von abgehen und die Amd stehen lassen.

Tja jetzt müssen die Grünen erstmal auf Pascal hoffen,
wobei ich mir dabei nicht so sicher wäre der Tapeout is doch schon n paar Monate her
 
Moriendor schrieb:
Ja, das meine ich, denn es sollte jedem klar sein, dass die nächste Generation (nVidia TSMC 16nm... AMD man weiß es noch nicht... entweder auch TSMC 16nm oder GloFo 14nm) ein wahrer Quantensprung wird. Wenn Pascal (und AMD Pendant) raus ist, wird man die "Steinzeitmodelle" Maxwell und Fury usw. nur noch milde belächeln.
Ähm, und das weißt du ganz sicher aus welcher Quelle? :lol: Du meinst auch sicher, diese Karten werden dann verschenkt, genau wie die Titan und Ti und Fury X usw. usw... oder landen die tatsächlich einfach unter dem Weihnachtsbaum?


Moriendor schrieb:
Wer ernsthaftes Interesse an DirectX 12 Gaming hat und ein wenig vorausschauend denkt, der hat schon Pascal auf dem Schirm und weiß auch ungefähr um die Praxisrelevanz von DirectX 12, die nämlich bis Ende diesen Jahres bei annähernd Null liegt, es sei denn man ist großer Gears of War, Fable oder Ashes of the Singularity Fan).
Du weißt aber schon, dass zumindest Pascal frühestens für Ende 2016 bzw. Anfang 2017 erwartet wird? Wer ernsthaftes Interesse an DirectX 12 Gaming hat und ein wenig vorausschauend denkt, hat sich längst eine AMD Grafikkarte mit GCN Architektur gekauft...

Und dann auch für dich nochmal die Liste mit möglichen DX12 Games, welche nicht erst in 20 Jahren erscheinen.
http://www.pcgameshardware.de/Direc...ste-Uebersicht-Ark-DayZ-Star-Citizen-1164994/
 
Zuletzt bearbeitet:
Wishbringer schrieb:
@Moriendor:
Schön formuliert, nur leider
kann sich nicht jeder jedes Jahr die Highend-Karte leisten.

Es gibt tatsächlich Menschen, die sich eine der besseren Karten nur alle zwei bis drei Jahre kaufen,
dann aber doch ein wertiges Stück Hardware im PC haben wollen.

Das Thema hatten wir ja schon öfter. Ich finde eine solche "Strategie" mit dem Festhalten an einer "wertigen" Karte unsinnig.

Beispiel:

Ich kaufe mir eine Highendkarte für €600 und ersetze diese innerhalb der nächsten drei Jahre jährlich durch eine neue €600 Karte und verkaufe die alte Karte auf eBay. Angenommen ich bekomme für die alte Karte jeweils €300 (realistisch und konservativ geschätzt... je nach Modell bekommt man vielleicht sogar €350 bis knapp €400 wieder rein). Dann habe ich in diesen drei Jahren effektiv €1200 ausgegeben (3x Neukauf für €600 und 2x Verkauf für €300) und habe während der gesamten Zeit stets die neueste Technik im Rechner stecken und zwar mit Gewährleistungsanspruch.
Wenn ich dagegen drei Jahre an einer Karte festhalte, dann ist die Karte nach den drei Jahren fast wertlos. Ich würde also 2x €600 = auch €1200 für die Neukäufe ausgeben und für die alte Karte nur noch Peanuts bekommen. Zudem trage ich im letzten Jahr das große Risiko eines Totalverlusts, da ich keine Gewährleistung mehr habe. Dazu kommt der Nachteil, dass man gegenüber dem jährlichen Aufrüster natürlich mit weniger Performance und weniger unterstützten Features leben muss.

Also meiner Meinung nach ist es total sinnlos diese "Käufe für die Ewigkeit" zu tätigen. Lieber jedes Jahr (bzw. natürlich je nach Erscheinen und Verfügbarkeit) eine Karte in der GTX 970/980 Kategorie kaufen und die alten Karten verkaufen. Da fährt man auf Dauer einfach besser mit und hat auch mehr (unbezahlbaren) Spaß beim Zocken, da die Hardware stets brandaktuell ist.
 
Mit 17, als man noch zur Schule ging, habe ich das auch so gemacht. Unendlich viel Zeit und Eifer. Irgendwann hatte ich keinen Bock mehr ständig zu warten, bis irgendeine neue Karte rauskommt, ich meine irgendwann auch mal losgeworden bin (für einen anständigen Preis), und auch mal Zeit hatte mich darum zu kümmern. Ich Spiele auch mal ein halbes Jahr überhaupt nicht.

Aber mit 17 sah das Leben auch anders aus.

Es ist nicht falsch was du sagst, jedoch auf jeden Fall mit Aufwand verbunden (ständig aktuell bleiben bzgl. Preisen, Architektur, Leistung und Benchmarks usw. usw.)
 
Zuletzt bearbeitet:
berkeley schrieb:
Du weißt aber schon, dass zumindest Pascal frühestens für Ende 2016 bzw. Anfang 2017 erwartet wird?

Aber Du weißt das natürlich sicher? Quelle?

Ich kann natürlich auch nur nach den üblichen Spekulatiusquellen gehen, aber ich muss Deine "Informationen" als hoffnungslos veraltet ansehen. In diesem Artikel hier wird zum Beispiel davon berichtet, dass nVidia bereits den Tape-Out bei TSMC in 16nm vollzogen hat (also im Juni, da dort im Juli von "last month" die Rede ist). Es ist also schon im Juni ein erster Pascal vom "Band" gelaufen. Und hier wird auch konkret das zweite Quartal 2016 als möglicher Erscheinungszeitraum benannt. Dazu wird dann noch hier berichtet, dass die Massenfertigung im 16nm FinFET Prozess bei TSMC begonnen hat, wobei wie mittlerweile üblich erst mal Apple an der Reihe ist und mit SoCs bedient wird. Es sollte aber Richtung Q3/Q4 auch die Massenfertigung der High Powered Chips beginnen, so dass Q2/2016 (zum Beispiel zur Computex im Mai) für Pascal durchaus realistisch erscheint.

Hier noch ein Zitat aus dem letzten Artikel...
TSMC and Nvidia have also confirmed on more than one occasion that the next generation (Pascal) GPUs will be produced on the 16nm FinFET+ node, with initial confirmation dating back approximately 9 months. AMD’s next generation Radeon graphics processor on the other hand, codenamed Arctic Islands, was not on the official list of products released by TSMC, so while their CEO have confirmed the use of a FinFET node (14/16) the exact specifics remain to be seen.
 
Moriendor schrieb:
Also meiner Meinung nach ist es total sinnlos diese "Käufe für die Ewigkeit" zu tätigen. Lieber jedes Jahr (bzw. natürlich je nach Erscheinen und Verfügbarkeit) eine Karte in der GTX 970/980 Kategorie kaufen und die alten Karten verkaufen. Da fährt man auf Dauer einfach besser mit und hat auch mehr (unbezahlbaren) Spaß beim Zocken, da die Hardware stets brandaktuell ist.

Also findest du es zu befürworten das GFX-Karten wie Smartphones, Tablets usw. jedes Jahr zu tauschen sind? Ich finde bei den Leistungsprüngen kann man locker 2-3 Jahre warten wenn man etwas "gescheites" kauft. Hier sollte aber die GFX-Karte nicht nur Strom sparen, sondern auch zukunftssicher sein.
Man kann natürlich wichtige Ressourcen verblasen durch Neukauf mit ein paar Prozent Mehrleistung, sowie den Kapitalisten das Geld spenden für ein Stück Hardware welche eine Standzeit hat die obsolet ist.
 
Mich hält die Diskussion vom Kauf einer NVidia-Karte ab.

Schon länger hatte ich mit einer Titan X wegen derer 12 GB geliebäugelt, das wird jetzt nichts.

AMD hat für mich momentan zwar auch nichts wirklich Kaufbares im Programm, Nvidia bekommt mein Geld aber ganz sicher nicht.

Also begnüge ich mich gezwungernermaßen erstmal mit dem, was ich habe.
 
kisser schrieb:
Auch dein Fermi wird mit dem DX12 Treiberrelease (AFAIK angekündigt für den R358 Treiber) Asnyc Compute unterstützen, weil jeder DX12 Treiber das können muss.

Nvidia hat bis heute dazu kein Statement abgegeben, das deutet stark darauf hin, dass sie es prinzipiell nicht unterstützen.
Daher hat Nvidia, wie schon bei der Lüge mit Directx11.1 diesmal gar keine Directx12 Karte am Markt, zumindest wenn man es genau nehmen will.
 
Moriendor schrieb:
Aber Du weißt das natürlich sicher? Quelle?

Hier noch ein Zitat aus dem letzten Artikel...

3 Mal WTF-Tech!? Sry aber unseriöser als die geht es eigentlich gar nicht. Die klauen zusammen was geht und ziehen irgendwelche Schlüsse die ihnen gerade passen. Mit Quellen hat das 0 zu tun.
 
Zurück
Oben