B
Blueline56
Gast
Und was kann Nvidia dafür das AMD DX11 nicht richtig gebacken bekommt, letztendlich liegt es doch an AMD selbst, das sie da schwächer sind als Nvidia und weniger an Gameworks oder sonstige Optimierungen.....
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Das entscheidet Nvidia ganz sicher nicht, dafür ist der ISV verantwortlich und der muss Gründe für/gegen eine DX12/Vulkan-Implementierung sehen.Baal Netbeck schrieb:Ziemlich oft tun sie das....Die Gameworks Spiele werden von Nvidia betreut und natürlich entscheidet Nvidia dann, das es kein DX12 gibt...oder das der DX12 render Pfad mies wird.
Da Nvidia kürlich verlauten ließ, dass sie jetzt low level APIs unterstützen wollen, gehe ich davon aus, dass die nächste oder zumindest übernächste GPU Generation von ihnen auch auf einen Hardwarescheduler setzen werden.
Das würde Maxwell und Pascal behindern....aber dann gibt es bessere Gründe für die Leute neue Nvidia GPUs zu kaufen....klingt also logisch^^
Locuza schrieb:Ob DX11 oder DX12 verwendet wird entscheidet aber nicht Nvidia.
Ich würde auch eine 180Ti neu für 500 Euro kaufen, aber das wird wohl nicht passieren.BestinCase schrieb:Den Laut WccfTech werden die Karten in 3 Leistungstufen eingeteilt 120, 150 und 180 Watt und mit Preise und Ram Bestückung. Keine Ahnung was Dran ist. Zu dem Soll die 1080 und 1080 ti um 50 und 100$ Gesenkt werden
Chismon schrieb:Des Weiteren ist der Schritt von DX11 zu 12 für die meisten Entwickler unbequem, da letzteres deutlich aufwendiger/schwieriger einsetzbar ist und mehr Knowhow erfordert als das alteingesessene DX11 und bisher ist bei DX12 noch nicht viel (ausser Entlastung alter CPUs) herumgekommen, evt. auch weil nicht fundamental DX12 bei der Entwicklung genutzt sondern nur nachträglich hinzugefügt wird.
Sehe ich nur bedingt so.Luxmanl525 schrieb:Noch dazu ist, im Gegensatz zu früheren Jahren, mittlerweile genug CPU-Power in jedem Spiele-Rechner. Beide maßgeblichen CPU-Hersteller haben jetzt durch die Bank mehr als ausreichend Potente CPU`s im Programm.
Die 1080 Ti ist so viel schneller als die Vega 64 bei gleichem Preis, dass es michBestinCase schrieb:Bin gespannt wann die GTX1180Ti erscheinen wird, wohl eher dann wenn AMD es schafft ihr HighEnd zu präsentieren.
Neue Maßstäbe wird so oder so erst die 1180Ti setzen. Da stehen aber 300W TDP im Raum und selbst 250W der aktuellen 1080ti sind gerade im Sommer alles andere als schön.^^
Irgendwo muss es ja auch rational ablaufen.Chismon schrieb:Vielleicht nicht immer, aber beim derzeitigen Gaming GPU Anteil richten sich alle Entwickler danach (tanzen nach nVidias Pfeife, insbesondere, wenn dann Gameworks- oder/und Bundle-Sponsoring noch dazu kommt) und selbst Bethesda als Vorzeige-Partner für AMDs/RTGs Grafikkarten(-architektur), ist auf nVidia angewiesen (um als Großpublisher relevant zu bleiben).
Aller nVidia-Allmachtsphantasien zum Trotz haben bzgl. GPP zum Glück Dell, HP und Intel (sowieso) dagegen aufbegehrt und es zu Fall gebracht, auch wenn man die 3 großen/bei GPUs zweigleisig fahrenden Mainstream-Boardpartner (ASUS, MSI und Gigabyte) wohl schon im Sack hatte.
Des Weiteren ist der Schritt von DX11 zu 12 für die meisten Entwickler unbequem, da letzteres deutlich aufwendiger/schwieriger einsetzbar ist und mehr Knowhow erfordert als das alteingesessene DX11 und bisher ist bei DX12 noch nicht viel (ausser Entlastung alter CPUs) herumgekommen, evt. auch weil nicht fundamental DX12 bei der Entwicklung genutzt sondern nur nachträglich hinzugefügt wird.
Vulkan ist leider immer noch fast Bethesdas Exklusivnische und wenig relevant und ob Microsoft irgendwann ein einfacher zu handhabendes DX13 mit weiteren Vorteilen gegenüber DX11/12 nachschieben wird (ohne nennenswerten Mantle/Vulkan Druck) steht in den Sternen.
Es gibt zig unterschiedliche Hardware-Scheduler und die ganze Thematik wird meist falsch dargestellt.Baal Netbeck schrieb:Natürlich ist es AMDs Schuld, dass sie auf den Hardware Scheduler gesetzt haben in dem Moment als Nvidia erkannt hat, dass die Zeit noch nicht reif ist und damit zurück gerudert ist.
Sie hätten den auch besser überarbeiten können, denn sie hatten ja jetzt einige GPU Generationen Zeit.
Nur über den Treiber geht es wohl nicht...da ist das Problem in der Hardware.
Und so sieht man bei vielen DX11 Spielen wie die AMD GPUs in ein single thread limit laufen und Nvidia es über den Treiber umgeht.
Es gibt natürlich auch Spiele, die für AMD ran gegangen sind und den Hauptthread von Last befreit haben (Total War Warhammer z.B ).
Das ist aber eher die Ausnahme....in der Regel kranken AMD GPUs unter DX11 und solange die Umsetzung nur lieblos gemacht wurde auch unter DX12.
Das sich Spiele Entwickler, die Nvidia mit ins Boot holen um Hairworks usw zu implementieren nicht unbeliebt machen wollen (DX12 pushen) sollte klar sein.
Und das Nvidia bis jetzt kein Interesse daran hatte das zu ändern ist auch klar.
Unter DX11 gewinnen sie ja regelmäßig gegen die direkten Kontrahenten und unter DX12 holt AMD regelmäßig mehr Leistung raus.
Nur ewig kann Nvidia auch nicht auf DX11 sitzen bleiben. Sie wollen ja mehr Features und immer schnellere GPUs....igendwann müssen auch sie den Treiber Hokuspokus aufgeben und eine Lösung mit besserer Multicore Unterstützung und direkteren Wegen(jeder Thread macht seine eigenen Drawcalls und sendet sie direkt zur GPU) wählen.
Die Limitierungen von DX11 sind gegenüber DX12/Vulkan aber immer gegeben, entsprechend bleiben auch die Argumente für so eine Umsetzung, im Gegenteil spricht über die Zeit dennoch immer mehr für DX12/Vulkan.Luxmanl525 schrieb:Du hast den Nagel ziemlich auf den Kopf getroffen. Vor allem müssen Spiele von Grund auf für Direct X 12 entwickelt werden, um davon wirklich Profitieren zu können. Und dazu ist eben ein höherer Aufwand nötig, Respektive damit einhergehend, höheren Kosten. Dies Scheuen die Firmen, zumal mit Direct X 11 eine ausgereifte Schnittstelle vorhanden ist, wo man alle Macken kennt, mehr oder weniger.
Noch dazu ist, im Gegensatz zu früheren Jahren, mittlerweile genug CPU-Power in jedem Spiele-Rechner. Beide maßgeblichen CPU-Hersteller haben jetzt durch die Bank mehr als ausreichend Potente CPU`s im Programm. Aus meiner Sicht kommt da eines zum anderen. Die Notwendigkeit ist nicht mehr so gegeben wie noch vor 2-3 Jahren.
Man muss doch letztendlich nur auf Nvidias Marge gucken, welche die letzten Jahre nur gestiegen ist, dabei stellt der Gaming-Sektor den mit Abstand größten Umsatzanteil dar und es ist nicht davon auszugehen, dass Nvidas Marge nur wegen besseren Einkünften aus dem Server-Umfeld so stark gestiegen ist.Galatian schrieb:Das was durch kleine Fertigung eingespart wurde, gleicht gestiegene Kosten durch immer teurere Fertigung und Inflation so ziemlich aus
Galatian schrieb:
Im übrigen - und das geht auch raus an [USER=540563]@Shrimpy - hatte die 680 zur 580 ebenfalls 500 Millionen Transistoren mehr. Sie blieb also total im Gefüge; letztlich hat NVIDIA oben nur noch eins drauf gesetzt und halt noch größere Karten auf den Markt gebracht. Warum sich darüber immer aufgeregt wird ist mir schleierhaft. Die x80 Chips sind damit eben nicht kleiner geworden und eigentlich auch nicht teurer.
Preiskampf bei AMD ist gut und schön, aber es kauft halt auch keiner einer Oberklassewaagen, bei einem Hersteller, der sonst nur mit kleinen kompakten Autos zu trumpfen weiß. VW hat den Phaeton ja 2016 auch eingestellt, nicht etwa weil der Waagen per se schlecht war, sondern weil der Kunde erstmal überzeugt werden musste, dass VW auch anders kann. Wenn AMD halt von einer Generation auf die nächste 200$ mehr verlangt ist das schlicht und ergreifend ne Ansage, weil man dann auch schauen kann was bietet mir die Konkurrenz, die seit jeher auf dem Preisniveau agiert, für Leistung.