News DirectX 12: Nvidia-Treiber soll Async Compute nachreichen

Viel Interessanter finde ich wie es um 2016 rum mit Async Compute aussieht,
vorallem bei den Nutzern die eine NV GK hier im Forum um 300+ empfohlen bekommen


MMN: Wenn es unbedingt eine NV sein soll;
1.) mit der alten bis 2016 überbrücken
2.) eine günstige oder gebrauchte zur Überbrückúng kaufen
 
Zuletzt bearbeitet:
@iAtNeH,

Zukünftig als nächstes sind ja die VR-Brillen, die stehen ja fast vor der Türe (Q1 16), wo das dringend gebraucht wird.
Dafür ist momentan AMD erste Wahl für VR Entwickler, VR kommt jedenfalls ab nächstes Jahr mit Release der Oculus ins Gespräch und wie man die gescheit befeuert - die Latenz ist hierbei sehr wichtig.
Die Latenz muss NV in den Griff kriegen.
Leistung (FPS) dadurch ist doch nur das Abfallprodukt.
 
Zuletzt bearbeitet:
SavageSkull schrieb:
Bei solchen Aussagen kommt mir immer das Kotzen.
Jeder Hersteller von Geräten will ein Produkt verkaufen, was Geld einbringt und dazu muß es für den Kunden interessant werden.

Falsch :)

AMD teilt sogar HBM mit Nvidia - ohne Lizenzkosten.
Eine Eigenentwicklung der letzten 7 Jahre.

Auch haben sie den kompletten 64-bit Befehlssatz für Consumer mit Intel geteilt.
Der Grund weshalb wir nun unter Windoof mehr wie 3,4GB Ram benutzen können - Intels oder Microsofts Zug war das nicht! Die wollten x64 nur für Server rausdrücken, für horrende Preise.

AMD teilt Software, APIs, Entwicklungen - unentgeltlich. Von Mantle, Free-Sync und co. müssen wir gar nicht erst reden. Das nennt man Firmenphilosophie - und überraschenderweise stimmt es sogar mal.

mfg,
Max
 
Zuletzt bearbeitet:
Durch das Teilen der HBM-Technologie mit Nvidia hat AMD jedoch den großen Vorteil von immensen Skaleneffekten.
Also nicht ganz uneigennützig!
 
Tüllich steht da auch Eigennutz hinter. Muss ja nicht immer Geld sein.
Daher halte ich Fury als reinen Testballon, hinsichtlich des Einsatzes von HBM - Erfahrung sammeln etc.
 
Sehe ich auch so
Man wollte mit Fury erstmals HBM testen für die zukünftige Grafikkarten Generation (in 14nm?).

Erst die nächste Generation wird für mich Interessant und dann werde ich auch in eine neue Grafikkarte Investieren.
Mal schauen wer dann mein Geld bekommt. Wenn Nvidia so weiter macht wie in den letzten Jahren werden die auch weiterhin nicht an mir verdienen
 
So wird es einen 970mini vs. Fury Nano showdown im ITX von Computerbase geben?
Es wäre sehr interesant die rpm - temps - dBa und die tatsächlichen Taktraten nach minimal 30 minuten gameplay zu sehen.

IMHO es wäre nicht nur interesant sonder das ist das einziges was die Kaufer von ITX Karten interesiert...

*Es wäre auch nicht schelcht den test mit übertaktberkeit zu sehen
970mini OC vs. Fury nano OC

Das wäre einfach der Hammer
 
Nicht nur so ein test wäre interessant, sondern auch der sämtlichen R9 390er Modelle im Vergleich.

Solch einen großen Vergleich gibt es für Nvidia Karten bereits länger
 
CyberdyneSystem schrieb:
Nicht nur so ein test wäre interessant, sondern auch der sämtlichen R9 390er Modelle im Vergleich.

Solch einen großen Vergleich gibt es für Nvidia Karten bereits länger
Jp ich habs gemerkt, das die AMD karten reviews nicht so sehr gründlich gemacht worden sind, man weis ja nicht ob es eine referenc oder MSI oder Sapphire ist oder eine TRI-X

Was mir auch fehlt ist das es keinen vergleich zwischen 7870/7950/7970 und 270/280/290 und 370/380/390 gibt.
 
m0LN4r schrieb:
Was mir auch fehlt ist das es keinen vergleich zwischen 7870/7950/7970 und 270/280/290 und 370/380/390 gibt.

Es gibt nen Mega Test von CB über 3XX Karten - auch im Vergleich zur 2XX Serie. Einer der wenigen positiven AMD-Tests auf CB bisher ;)
Mir fast schon zu positiv ... "neutral" würde nach wie vor ausreichen.

mfg,
Max
 
Warum erwähnt hier niemand das Nvidea schon im neunen 3D Mark API-OVERHEAD-Test, deutlich schlechter abschneidet, als AMD Karten ? Da waren doch die Anzeichen schon zu sehen das da irgend etwas nicht stimmt bei Nvidea.
 
Knorpelpower schrieb:
Warum erwähnt hier niemand das Nvidia schon im neunen 3D Mark API-OVERHEAD-Test, deutlich schlechter abschneidet, als AMD Karten ? Da waren doch die Anzeichen schon zu sehen das da irgend etwas nicht stimmt bei Nvidea.

Ja Stimmt und denn Grund kenne wir ja jetzt ,das wissen ja alle hier. Aber wie geschrieben wir müssen anwarten bis der neue Treiber da ist und dann werden es die Benchmarks zeigen. Ob Nvidia uns wiedermal an der Nase herum geführt hat oder nicht . Ich kann verstehen das nach dem 970er Skandal alle hier das schlimmste annehmen . Aber vielleicht schaffte es Nvidia diesmal unser Vertrauen wider zu gewinne . Weil ich glaube schon das sich Nvidia bewusst ist was auf dem Spiel steht ihre Kunden . Mich habe sie gesehen wenn das wirklich stimmt .


LG
Andy
 
Außerdem sind Benchmark eh recht uninteressant, weil wer spielt schon Benchmarks? Selbst wenn das auch für Nvidia's Architektur ein Nachteil ist, dass bei dem Context Switch zwischen Draw und Compute ein Delay entsteht, muss man erst mal abwarten wie es sich in echten DX12 Spielen dann bemerkbar macht. Dann kann man immer noch auf Nvidia einschlagen.




Und soweit ich den Benchmark in Erinnerung habe zieht die Fury X ja nicht massiv an der 980Ti vorbei sondern eher gleich und holt die verlorene Performance in DX11 unter DX12 einfach auf.
 
Zuletzt bearbeitet:
Das hier hatte Anandtech im März 2015 zu Nvidia & AsyncShader geschrieben: "On a side note, part of the reason for AMD's presentation is to explain their architectural advantages over NVIDIA, so we checked with NVIDIA on queues. Fermi/Kepler/Maxwell 1 can only use a single graphics queue or their complement of compute queues, but not both at once – early implementations of HyperQ cannot be used in conjunction with graphics. Meanwhile Maxwell 2 has 32 queues, composed of 1 graphics queue and 31 compute queues (or 32 compute queues total in pure compute mode). So pre-Maxwell 2 GPUs have to either execute in serial or pre-empt to move tasks ahead of each other, which would indeed give AMD an advantage.."

Eigentlich müssten demnach alle GTX900er AsyncShader unterstützen. Ist das nun doch falsch oder meinte der Artikel was anderes?
 
Es geht hier schon lange nicht mehr um den Benchmark sondern darum, dass Maxwell Probleme mit Async Compute hat. Und wenn ein DX12 Spiel Async Compute benutzt, was nicht unwahrscheinlich ist, da die Konsolen es nutzen, die Unreal Engine, CryEngine und die Frostbite Engine dies wohl unterstützen und die meisten DX12 mit AMD als Partner entwickelt werden. Das bedeutet, dass Nvidia es schaffen muss ihren Treiber so zu programmieren, dass aktiviertes Async Compute für AMD Karten nicht ihre Karten verlangsamt. Ich denke nicht dass AMD Gaming Evolved Titel extra für Nvidia Karten umprogrammiert werden. Das bedeutet, dass AMD nicht nur Leistung hinzugewinnen könnte sonder das Nvidia auch Performance verlieren könnte womit der Performanceunterschied noch größer wird. Und so wie ich das mitbekommen habe wurde bei AotS nicht so viel Asnyc Compute genutzt. Natürlich kann man anhand eines Spiels nicht die Zukunft vorhersagen, aber zurzeit sieht es so aus als ob AMD Karten die bessere Wahl für die meisten DX12 Spiele sind. Es bedeutet auch nicht, dass Spiele mit Nvidia Karten unspielbar sind aber ich kann mir vorstellen, dass einige GTX 980 Ti Besitzer nun sauer sind vor allem weil dafür noch mit Async Compute geworben wurde. Außerdem schadet es dem Image von Nvidia nach dem VRAM Skandal ist das der 2. Skandal in einem Jahr. Ich Frag mich wie die GPU Verkaufszahlen des 3. und 4. Quartals aussehen werden.
 
Zurück
Oben