News DirectX 12: Nvidia-Treiber soll Async Compute nachreichen

@ Mextli & Moon_knight
Sehe ich ähnlich. M.E. geschieht das Freigeben nicht aus Altrurismus, sondern AMD hat mit seiner Marktmacht keine andere Chance als ihre Technologien freizugeben. Denn ansonsten hätten sie Forschungskosten und Entwicklungszeit in eine Technologie gesteckt, die kaum jemand verwendet, da für den geringen Marktanteil die Lizenzierung zu teuer oder die Implementierung zu aufwändig wäre. Durch das Freigeben haben sie immerhin den Vorteil, dass sie ihr Image verbessern können und indirekt über die Technologieunterstützung und ihr Image ihre Hardware etwas besser verkaufen können. Deswegen bezweifle ich auch, dass AMDs Verhalten gleichbleibend werden wird, wenn es mal wieder etwas mächtiger werden sollte.
 
Zuletzt bearbeitet:
AMD würde sich mit Sicherheit nicht anders verhalten, wenn sie in einer anderen Position wären. Ich kann mich noch an die Mondpreise, den sie für ihre ersten FX CPUs verlangt haben. Damals konnten sie das, weil ihnen Intel zu der Zeit leistungstechnisch nicht viel entgegenzusetzen hatten. Auch wenn das nur für kurze Zeit war.
 
Wir machen mal eine pro und contra liste:
AMD pro:
1. wichtige Dx12 feature in Hardware gegossen
2. dank async compute wahrscheinlich schneller in dx12 als Konkurrenz
3. Mitbegründer von mantle
4. adaptiv sync kostenlos
5. Hardware für VR gut geeignet
6. Quellcodes für features relative offen
7. Technologie Vorreiter
8. Alte Hardware zukunftfähig. Halten selbst bei Nvidias neuer Generation mit
AMD contra:
5. Treiber update kommen etwas verspätet (oft aber auch wegen Gameworks)
6. Dx11 schwäche da Hardware nicht dafür konzipiert (Hält aber ganz gut mit)
7. schwäche beim Verbrauch

Nvidia pro:
1. Gut unter dx11
2. regelmäßigen Treibersupport
3. sehr gute Effizienz der Hardware was Energieverbrauch betrifft
4. mehr features in dx12
Nvidia contra:
1. viel proprietärer Murx wie Gameworks
2. Behindert lieber Konkurrenz als neue schnellere Features zu bringen
4. Fehlverhalten bei eigenen Fehlern
5. Treiber töten ab und an die Hardware
6. wichtige features werden nur per Software unterstützt
7. Hardware Nicht gut für VR geeignet
8. Alte Hardware unterliegt oft der Konkurrenz (vermutet wird das sogar künstlich die alten Karten langsamer gemacht werden das neue Karten besser dastehen
 
Zuletzt bearbeitet:
Danke @ampre für die schöne Auflistung! Bestätigt meine Entscheidung NVidia gekauft zu haben.
 
@ampre

Bitte nicht übersehen dass bei AMD Karten der Verbrauch immer in Relation zum gebotenen steht (Speicher Interface etc.), was i.d.R. wesentlich mehr ist als bei der Konkurrenz.

Es ist immer leicht Furmark drüber laufen zu lassen um alles auf 100% zu jagen.
Da wo mehr gearbeitet wird, fallen eben mehr Späne.
Deshalb eine komplette Architektur als ineffizient zu bezeichnen ist schlichtweg falsch.

mfg,
Max
 
oldmanhunting schrieb:
Danke @ampre für die schöne Auflistung! Bestätigt meine Entscheidung NVidia gekauft zu haben.
Fehlte da das Ironie Tag?

Nvidia definitiv ein +, OGL und Linux Treiber. Was auch zu einem - bei AMD führt. Für viele sicherlich relevanter als manch anderer Punkt auf der Liste (VR Eignung anyone?).

Irgendwann mache ich tatsächlich mal eine objektive Liste. :evillol:
 
Mextli schrieb:
Keine Frage, ich finde es toll wie AMD agiert und absolut scheiße wie Nvidia sich bei manchen Sachen verhält (PhysX offen wäre ja für alle toll), aber wissen wir ob AMD anders wäre, wenn sie im Lead wären und den Markt dominieren würden?

Im Zweifel für den Angeklagten ;)

Immerhin haben sie selbst eine Selbstverpflichtung abgegeben, dass sie das nicht tun.
http://www.amd.com/de-de/markets/game/raptr/gaming-evolved
Wenn sie es tun würden wäre das ein absoluter Marketing GAU, bei Nvidia ist das Normal und "gehört dazu"

Moon_Knight schrieb:
Freesync ist nur der kostenspaarende Konter Der freie Standard ist noch immer adaptive sync und nicht freesync.
Adaptive Sync IST freesync :rolleyes:
http://www.golem.de/news/gaming-mon...ve-sync-teil-von-displayport-1405-106435.html

Moon_Knight schrieb:
HBM ist auch nicht uneigennützig.
Was meinst du damit?

Sinthuria schrieb:
AMD würde sich mit Sicherheit nicht anders verhalten, wenn sie in einer anderen Position wären. Ich kann mich noch an die Mondpreise, den sie für ihre ersten FX CPUs verlangt haben. Damals konnten sie das, weil ihnen Intel zu der Zeit leistungstechnisch nicht viel entgegenzusetzen hatten. Auch wenn das nur für kurze Zeit war.

Es ist nichts verkehrt daran viel Geld zu verlangen. Es wird nicht gern gesehen und ich als Kunde kann mir überlegen ob es mir das Wert ist, aber das ist was ganz anderes, als bei Firmen dafür zu sorgen, dass sie den Konkurrenten behindern

Mextli schrieb:
Ich weiß nicht, was ihr mit euren Nvidia Linux Treiber immer habt.
Mein Vater hat ne FX5600 und nicht nur ein Problem unter Linux kam genau wegen den Treibern.
Und Gerade Nvidias Grafikkartensparte ist im Linux Bereich das letzte Arschloch!
http://heise.de/-1845054

Bei AMD ist das wegen den offenen Spezifikationen völlig egal.
Man nimmt einfach den OpenSource Treiber mehr und muss sich keine sorgen mehr machen.
Properitäre Treiber sind fürn Arsch!
 
Zuletzt bearbeitet: (links hinzugefügt)
derGrimm schrieb:
Ganz sicher nicht. :rolleyes:
http://support.amd.com/en-us/search/faq/214
DisplayPort Adaptive-Sync is an ingredient DisplayPort feature that enables real-time adjustment of monitor refresh rates required by technologies like AMD FreeSync™ technology. AMD FreeSync™ technology is a unique AMD hardware/software solution that utilizes DisplayPort Adaptive-Sync protocols to enable user-facing benefits

Magst dich das nächste Mal vorher informieren, bevor du mit den Augen rollst und Quark erzählst? Danke. :)
Freesync ist proprietäre Software von AMD, die auf adaptive sync aufbaut.
 
Zuletzt bearbeitet: (Typo)
Moon_Knight schrieb:
Magst dich das nächste Mal vorher informieren, bevor du mit den Augen rollst und Quark erzählst? Danke. :)
Freesync ist proprietäre Software von AMD, die auf adaptive sync aufbaut.
Jap, Puff Adaptive Sync ist aufgetaucht und endlich hatte auch Free Sync ne Basis :rolleyes:.
http://www.forbes.com/sites/jasonevangelho/2014/05/12/amds-project-freesync-gets-momentum-as-adaptive-sync-gets-added-to-displayport-spec/ schrieb:
The DisplayPort™ Adaptive-Sync specification was ported from the Embedded DisplayPort™ specification through a proposal to the VESA group by AMD.
Wie Apple besonders gut gezeigt hat, ist manchmal auch eine sinnvolle Adaption von vorhandenes Genial. Insbesondere wenn man damit mehrere 100€ spart ;)
 
Ja? Die Technik ist alt und gibt es seit Jahren im Notebooksektor (im E-DP). AMD hat die genommen, bei VESA um Aufnahme in den DP-Standard gebeten, man hat es als Erweiterung zugelassen und dann wurde freesync draufgeschustert. AMD ist nicht der Erfinder von adaptive sync.
Wieder: informier dich, bevor du mit den Augen rollst. :rolleyes:

http://support.amd.com/en-us/search/faq/215
The DisplayPort Adaptive-Sync specification was ported from the Embedded DisplayPort specification through a proposal to the VESA group by AMD. DisplayPort Adaptive-Sync is an ingredient feature of a DisplayPort link and an industry standard that enables technologies like AMD FreeSync™ technology.​

Edit: was für "mehrere hundert Euro"? Jetzt geht es ja los... sick0008.gif
 
Zuletzt bearbeitet: (Typo + Quote)
Moon_Knight schrieb:
Ja? Die Technik ist alt und gibt es seit Jahren im Notebooksektor (im E-DP). AMD hat die genommen, bei VESA um Aufnahme in den DP-Standard gebeten, man hat es als Erweiterung zugelassen und dann wurde freesync draufgeschuhstert. AMD ist nicht der Erfinder von adaptive sync.
Wieder: informier dich, bevor du mit den Augen rollst. :rolleyes:
Hab ich das je behauptet?
Das Produkte wie Apple iPhone oder WoW waren nicht deswegen genial, weil sie was Bahnbrechend neues brachten. Sondern weil sie verschiedene Techniken zu etwas sinnvollen kombinierte.
Aus dem stromsparfeature wurde auf einmal ein Gamer-Feature.

Aber du kannst mir sicher sagen warum Nvidia einen Chip für mehr als 100€ in den Monitor einbauen lies anstatt für einen freien Standard zu sorgen.
Auch sie haben im Prinzip nur die vorhandene eDP Technik Adaptiert. Auch sie haben nichts "erfunden" in deinem "Sinn" von "erfinden".
Physx ist übrigens auch keine "Erfindung". Physikberechnung (in Spielen) gab es schon viel früher.
Cuda ist übrigens auch keine "Erfindung". Programmiersprachen gab es schon bevor Nvidia überhaupt existiert hat.
Auch Gameworks ist keine Erfindung. Manipulation hat Intel viel früher viel besser gemacht *SCNR*
usw.

Nach deiner Auslegung kann ich mir nicht vorstellen, dass es noch "Erfindungen" gibt.
Irgendwas zu "erfinden", was nicht auf einer "Erfindung" basiert sollte heutsotage ziemlich schwierig sein ;)
 
derGrimm schrieb:
Physx ist übrigens auch keine "Erfindung". Physikberechnung (in Spielen) gab es schon viel früher.

PhysX wurde von NVidia nicht einmal selbst erschaffen. Wurde halt von Ageia übernommen. NV hat wohl damals sich gedacht, dass Physik in Spielen mal der Renner wird, war ja immerhin die Zeit in der Physik in Spielen mehr und mehr vorkam, nachdem man in HL2 ja einige nette Spielereien damit anstellen konnte, grafisch wie spielerisch.
NV hat daraus leider nur grafisch etwas gemacht und den Weg von Ageia, PhysX propietäres Konstrukt zu handhaben, weiter geführt.

Aber du kannst mir sicher sagen warum Nvidia einen Chip für mehr als 100€ in den Monitor einbauen lies anstatt für einen freien Standard zu sorgen.

Wohl, weil man schneller sein wollte (immerhin dauert(e) die Umsetzung des freien Standards noch etwas) und vllt. darauf gehofft hat, sein eigenes System konkurenzlos auf dem Markt zu etablieren so dass der freie Standard am Ende einen schwereren Stand haben wird.
 
Freesync ist lediglich der Softwarename für die Unterstützung von Adaptive Sync...

Vielleicht kommt Nvidia mal zur Besinnung und lässt Adaptive Sync auch ohne ihr Modul zu. Das wäre für alle Kunden wohl das beste
 
Zuletzt bearbeitet:
oldmanhunting schrieb:
Danke @ampre für die schöne Auflistung! Bestätigt meine Entscheidung NVidia gekauft zu haben.

Deine Karte ist dann aber nach einem 1/2 Jahr - Jahr dann aber veraltet oder vielleicht Tot da der Treiber sie geschrottet hat. Das sind 2 Punkte die gehen mal gar nicht! Wer kauft sich denn eine Grafikkarte für ein 1/2 Jahr - 1 Jahr? Die Meisten haben Ihre Karte 2-4 Jahre im Rechner.

P.S. Falls AMD nochmals einen Schub von wirklich 20-30% in DX12 bekommt da Ihre vielen Shader endlich mal benutzt werden, dank Async Compute, was dies dann bedeuten würde. Man überlege eine 2 Jahre alte 290x gut 10% dann vor einer GTX 980. Das würde Nvidia mehr als hart treffen.

Um mal wieder etwas zurück zum Thema zu kommen. Das AMD MANTLE gebracht hat war eigentlich abzusehen.
Warum?: Ich gehe auch mal so weit zu behaupten das Async Compute kein Feature ist sondern eine Kernkomponente von AMDs Grafikkarten, da ohne Async Compute viele Teile auf AMDs Chip brach liegen. AMD wollte dies wahrscheinlich schon Früher richtig in DX11 integriert haben nur hat das Microsoft nicht gejuckt. AMD schleppt ja schon lange die ACEs mit. Das Nvidia dann in Mantel nicht einsteigen wollte war klar, da Ihre Architektur nicht auf ACE aufbaut und sie keinen Nutzen daraus ziehen.

Interessant finde ich die Tatsache das trotzt Teilausgelastetem Chip AMD unter DX11 Nvidia trozdem die Hölle heiß machen kann. Die 390x ist relative nahe an der GTX980. In vielen Spielen (in denen z.B. kein Gameworks drinnen ist) sogar etwas besser als die GTX980. Das ist dann doch schon erstaunlich.
 
Zuletzt bearbeitet:
ampre schrieb:
Deine Karte ist dann aber nach einem 1/2 Jahr - Jahr dann aber veraltet oder vielleicht Tot da der Treiber sie geschrottet hat. Das sind 2 Punkte die gehen mal gar nicht! Wer kauft sich denn eine Grafikkarte für ein 1/2 Jahr - 1 Jahr? Die Meisten haben Ihre Karte 2-4 Jahre im Rechner.

Naja komm, das ist bisher einmalig passiert bei NV, soweit ich weiß. Eine unschöne Sache und auch eine Überlegung wert, keine NV Karte zu kaufen, weil sicher ist sicher. Aber dass das wirklich nochmal passiert, das denke ich nicht.

Was veraltet angeht: ja, da steht AMD momentan recht gut da, mit ihren Karten.
Die HD 7950 lag am Anfang auf dem Niveau der GTX 580, später musste sie sich mit der 660TI, 760 und neuerdings mit der 960 (in Form der R9-280) messen und konnte dabei jeweils mit ihnen mithalten und/oder sich mit der Zeit vor diese setzen.
Gleiches gilt auch für die 290er Reihe.

Ob das zukünftig so bleibt, das muss man abwarten.
 
@Moon_Night woher hat er denn deine Privaten Informationen? Warst du mit Ihm mal befreundet?

Nai schrieb:
@ Mextli & Moon_knight
Sehe ich ähnlich. M.E. geschieht das Freigeben nicht aus Altrurismus, sondern AMD hat mit seiner Marktmacht keine andere Chance als ihre Technologien freizugeben. Denn ansonsten hätten sie Forschungskosten und Entwicklungszeit in eine Technologie gesteckt, die kaum jemand verwendet, da für den geringen Marktanteil die Lizenzierung zu teuer oder die Implementierung zu aufwändig wäre. Durch das Freigeben haben sie immerhin den Vorteil, dass sie ihr Image verbessern können und indirekt über die Technologieunterstützung und ihr Image ihre Hardware etwas besser verkaufen können. Deswegen bezweifle ich auch, dass AMDs Verhalten gleichbleibend werden wird, wenn es mal wieder etwas mächtiger werden sollte.

@Nai aber auch Firmen haben interne Philosophien und Richtlinien nach denen sie Arbeiten und das was bei Nvidia zuletzt zu Tage gekommen ist lässt mich an der Philosophie von Nvidia zweifeln. Das sind Fehler am Laufenden Band! Wann hatte AMD mal so eine Serie an Fehlern. Nicht nur das es Fehler sind nein auch der Umgang mit selbigen lässt tief Blicken. Wenn jemand wie Linus Trovalds den Stinkefinger Nvidia entgegenstreckt was sagt das wohl gegenüber Nvidia aus?

Man schaue sich nur den Chefs auf den Presentationen von Nvidia an. Lederjacke macht immer einen auf Cool. Das ist der Typus Mensch der dann abends im 100 Stock einer Worldtradcenter Bar hockt und sich über uns dumme Verbraucher lustig macht das wir Ihm wieder 1000 Euro hinterher werfen. Dazu passt auch das Proletenmarketing. Aber auf sowas fahren Kids ja ab. Sieht man ja an HipHop. Der der die größte Klappe hat gewinnt. Meisten ist aber was hinter der Klappe steckt ohne Stubstanz!
 
Zuletzt bearbeitet:
Na, das war zu dem ersten Teil deines Posts, der an mich gerichtet war. Dein Edit habe ich gerade erst gesehen und noch gar nicht gelesen.^^

Edit zu deinem edit: Linus ist ein ganz schöner Choleriker, das ist dir aber bekannt? Der gute Herr ist selbst ziemlich stressig. :D
Behauptet ja auch keiner, dass Nvidia von Engeln geführt wird. Ich mag das auch überhaupt nicht.
Dabei wäre es gar nicht so schlimm, wenn sie offen mit den Macken ihrer Produkte wären.
Wir erinnern uns: die 660Ti wurde auch mit solch krummen Speicheranbindung auf den Markt geworfen. Nur wurde dort alles klar gesagt:

http://www.pcgameshardware.de/Grafi...Tests/Test-Nvidia-Geforce-GTX-660-Ti-1017214/
Die Geforce GTX 670 kann auf 256 Datenleitungen zurückgreifen, die Geforce GTX 660 Ti nur auf deren 192. Das "krumme" Interface samt "gerader" Speichermenge setzt sich laut Nvidia folgendermaßen zusammen:

4 pieces 64Mx32: 1024MB @ 128-bit
4 pieces 64Mx32 in x16 mode: 1024MB @ 64-bit

Jeder der acht Speicherbausteine verfügt demnach über eine Kapazität von 512 MiByte (8 x 512 = 2.048 MiB), doch der Interface-Einschnitt erlaubt es nicht, jeden einzelnen an einen 32-Bit-Kanal zu klemmen (8 x 32 = 256 Bit). Nvidia entschied sich bei der GTX 660 Ti dazu, die Hälfte des Speichers, 1.024 MiB, mit insgesamt 128 Bit anzubinden, während die andere Hälfte mit 16 Bit pro RAM-Baustein auskommen muss (64 Bit gesamt).

Wenn es schon ein interner Kommunikationsfehler war, so wäre eine deutliche Entschuldigung zumindest angebracht gewesen.
Was mit AC nun ist... ich lass mich überraschen.
 
Zuletzt bearbeitet:
@ ampre
Tut mir leid, aber deine Antwort hat nur noch extrem wenig mit meinem Zitat zu tun. Zudem sind Aussagen auf dem Niveau "Mir persönlich liegt die Art des CEOs nicht, aber mit denen von AMD würde ich gerne Bier trinken gehen" (letzteres mittlerweile wegeditiert), keine sachliche Argumentation mehr. Auch ist es meines Erachtens sehr vorurteilig, einen kompletten Menschen zu beurteilen, wie sich der Mensch in ein paar Präsentationen gibt, und zudem daraus mehr über den Charakter des Menschen zu schlussfolgern. Eine komplette Firma nach den Vorträgen des CEOs zu beurteilen ist noch "vorurteiliger" (gibt es die Steigerung überhaupt?).
 
Zuletzt bearbeitet:
@nai ein Mensch der der einer großen Gruppe von Jugendlichen vormacht das Fehler zu vertuschen besser ist als sie zuzugeben ist bei mir unten Durch! Der Herr an der Spitze von Nvidia hat Verantwortung gegenüber seinen Mitarbeitern und seinen Kunden. Gerade wenn die Kunden oft minderjährig sind hat man dort eine sehr große Verantwortung!

Ich verurteile ja auch nicht die einzelnen Mitarbeiter sondern die Führungs und Leitkultur von Nvidia! Doch sowas ist sehr sachlich! Hier geht es darum wie wir in Zukunft miteinander umgehen wollen und was legitim ist und da spielt der Menschliche Faktor in der Führungsriege eine ganz große Rolle. Ihm sind Boni wichtiger als ein gerechtes Statment! Zudem gefärdet er damit das Ansehen der Firma und damit langfristig Arbeitsplätze!
„Beurteile einen Menschen lieber nach seinen Handlungen als nach seinen Worten; denn viele handeln schlecht und sprechen vortrefflich.“
Claudius matthias

Am schlimmsten an dieser Sache finde ich das Leute hier versuchen dieses Fehlverhalten von Nvidia anhand wirtschaftlicher Intressen zu legitimieren! Sowas geht garnicht aber Ethik interessiert hier ja keinen mehr!

P.s. Ja ich habe es Wegedditiert da die Aussage zu Platt war und wer holt es wieder hoch um damit einen Gewinn zu erzielen! Kannst du gerne machen sportlich ist das aber nicht wenn es jemand "gleich" wieder gelöscht hat!
 
Zuletzt bearbeitet:
Zurück
Oben