Kai85 schrieb:Natürlich läuft es auf dem 2400. In letzter Zeit gab es bei vielen AAA Spielen völlig überhöhte Anforderungen aus Marketinggründen.![]()
Das will ich doch hoffen, DANKE!
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Kai85 schrieb:Natürlich läuft es auf dem 2400. In letzter Zeit gab es bei vielen AAA Spielen völlig überhöhte Anforderungen aus Marketinggründen.![]()
Tronx schrieb:Auch wenn ich nicht von CB bin, vermute ich das die Rohleistung pro watt gestiegen ist, somit wird der Verbrauch nicht mehr sein, eventuell sogar weniger. Wenn eine GPU vorher schon bei 100% Auslastung 400 Watt verbraucht hat, dann wird sie es auch bei 100% Auslastung unter DX12 die gleiche Watt verbrauchen aber mit einem Unterschied von mehr FPS!
Die R9 390 ist 1 Jahr älter als der GM204 Chip der 970/980 GTX.Allerdings sollte man nicht vergessen dass der Release der 900er Reihe schon 1,5 Jahre zurück liegt und die DX12 Spezifikation noch garnicht final war.
kisser schrieb:Ein ordentlicher Dx11 Treiber seitens AMD hätte übrigens den gleichen Effekt. Haben die nur in den letzten 5 Jahren nicht hinbekommen.
nschlichtmann schrieb:Die Leistungszuwächse bei der AMD-Prozessoren sind insofern Augenwischerei, als dass unter DirectX 12 die CPU deutlich weniger beansprucht wird und die Rechenleistung viel eher auf die GPU wandert, ergo die CPU viel weniger zu leisten hat. In CPU-geforderten synthetischen- oder anwendungsbasierten Benchmarks haben wir nach wie vor dieselbe Ausgangslage. Versteht mich nicht falsch, ich begrüße die Fortschritte seitens der APU, aber durch DirectX 12 den AMD-Prozessoren ein "Auf-Augenhöhe-Stehen" mit den Intel CPUs zu bescheinigen ist falsch.
Wenn man nicht alle Grafikkarten mit unterschiedlichen Taktraten auf Lager hat, ist ein Test mit Referenzkarten aussagekräftig genug. Zumal die Testplattformen auch nicht immer der Hardware zu Hause entsprechen, nicht jeder hat den neusten i7 auf 4,5GHz oder ein System mit Sockel 2011(-3). Man kann halt nicht alles abdecken in einem Test, das Budget der Testseiten ist nun mal begrenzt.zymoticspade schrieb:Die http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/DirectX-12-Benchmark-Test-1188758/ Ergebnisse sehen "leicht" anders aus? Offene Frage: ist es denn praxisrelevant mit Referenzkarten zu testen?![]()
Wobei es bei den Test von toms um eine MSI handelte, welche ein hohes powerlimit besitzt und für OC gedacht ist. Ich kenne mich hier nicht so gut aus, weil Grafikkarten OC wenig interessiert aber das wurde in einem anderen Thread bereits schon mal erwähnt. Müsste nachschauen, wo das noch mal gepostet wurde.So gesehen kann die Karte locker 100 W mehr ziehen da man das durch die Preisdifferenz locker wegmacht. Denke über 4 Jahre je 50€ für Strom zu haben da kann man schon einige Stunden pro Woche spielen.
Sontin schrieb:Jeder Effekt in Hitman ist auf AMD Hardware optimiert. Ansonsten wären sie nicht so dermaßen viel schneller. Man muss also überhaupt keine "AMD-Effekte" verwenden. EIne 390 ist 30%+ über der GTX970. In The Division, vor ein paar Tagen getestet, liegt die Karte mit HBAO+ nur 3 bzw. 7% vorne.
Ein Gears of War ist auch auf nVidia-Hardware schneller, wenn AO deaktiviert wird. Trotzdem reden Leute davon, dass Gameworks einzig und allein Schuld wäre.
Du hast mit einem offensichtlichen Benachteiligen von nVidia keine Probleme, bewertest die selbe Sache aber bei einer Situation zu ungunsten von AMD komplett anders.
burnbabyburn2 schrieb:warum bringt Nvidia nicht mal einen DX12 gesponserten Titel ?
borizb schrieb:Langsam frage ich mich, ob es möglich ist, ein DX12 Spiel so zu programmieren, dass
die Leistungsunterschiede der Karten zueinander so sind wie bei DX11 auch, oder ob
jetzt jeder nur noch Async macht und nie wieder was anderes.