Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAshes of the Singularity: Neue DirectX‑12-Benchmarks mit AMD und Nvidia
@zeedy
Ich für meinen Teil bestreite es nicht aber will Belege für den angeblich höheren Overhead und dafür ist die gleichzeitige Betrachtung der CPU Auslastung zwingend erforderlich.
Ok, und was genau wird 2016 als Voraussetzung für DX12 verkauft? Neues Windows, neue Spiele oder neue Hardware?
Oder wird man gezwungen irgendwas zu kaufen, weil DX12 sonst nicht funktioniert? (Außer die Spiele, versteht sich. Die gab es unter DX11 noch gratis)
Das ist quasi das erste DirectX, wo es nicht unmittelbar oder ausschließlich um Kohle geht und breitflächig mehrere GPU Generationen unterstützt werden + kostenloses Windows. Selbst da fangen die Leute an zu meckern und haben keinen Bock, dass es vorwärts geht. Kein Wunder, dass wir noch bei DX11 hängen.
Ich seh hier nur wieder eins, die AMD-Karten sind unterirdisch schlecht unter DX11. Wenn man bedenkt wie gut sich die Nvidias noch übertakten lassen brauch kein Mensch dort AC.
Ich seh hier nur wieder eins, die AMD-Karten sind unterirdisch schlecht unter DX11. Wenn man bedenkt wie gut sich die Nvidias noch übertakten lassen brauch kein Mensch dort AC.
Tss und ich seh nur was für ein Schrott alle Nvidia's unter 980ti sind, werden mit DX12 eher langsamer als schneller. Wenn man bedenkt, dass AC in AotS minimal zum Einsatz kommt, kannste deine Meckswells übertakten bis die Transistoren schmelzen, damit die einigermaßen mithalten
Man kann es auch übertreiben, denn wie man an den Benchmarks mit AMD unter Directx11 sieht, ist das im Schnitt völlig irrelevant.
Schau dir doch mal die Leistungsindexe hier auf Computerbase an.
Selbst mit einem 2500k ist eine r9 390 immernoch in Full HD gleichauf mit einer 970.
Und wer spielt mit Karten über 600 Euro schon auf Full HD, das wäre ja ne Beleidigung für die Karte selbst.
Ergänzung ()
sTOrM41 schrieb:
ich habe überhaupt nicht geschrieben das amds dx11 performance allgemein mies ist,
ich habe (nun bestimmt schon das fünfte mal?) geschrieben das die performance im dx11 cpu limit mies ist.
Bin auf jeden Fall froh, daß ich mir ne NVidia geholt habe.
Und ich finde es geradezu skandalös, daß dieser Faktor so selten beleuchtet wird.
Gerade wenn man nebenher noch encoden möchte für Twitch/Youtube, ist eine AMD-Karte ja offensichtlich glatter Selbstmord.
Eigentlich sollte man bei allen Grafikkarten Tests zusätzlich noch die CPU-Last messen und mit angeben.
Da braucht man dann auch nicht mit zich verschiedenen Prozessoren zu benchen. Es reicht eine vernünftige Messung.
in ac unity gehen dir mit der fx8370 (was etwa deiner und meiner cpu entspricht) + 290x, verglichen mit der änlich schnellen nvidia karte in 1080p, dank des hohen overheads, mal eben 36% der fps flöten
In Unity wurde das schon seit Monaten gefixed.AMD ist jetzt dort im CPU Limit schneller....
Ergänzung ()
Lübke82 schrieb:
Ich seh hier nur wieder eins, die AMD-Karten sind unterirdisch schlecht unter DX11. Wenn man bedenkt wie gut sich die Nvidias noch übertakten lassen brauch kein Mensch dort AC.
Verstehe ich nicht. Der Directx11 Pfad ist bei diesem Spiel völlig irrelevant, warum sollte man es also als Gradmesser benutzen?
Schau dir doch lieber die Directx11 Benchmarks auf CB an, unter anderem mit einem 2500k, da siehst du dass AMD in Directx11 keineswegs so schlecht ist, wie hier von einigen Realtätsverweigerern beschworen wird.
Und was hat eine Übertaktung mit Asyncronen Shadern zu tun? Gar nichts.
Außerdem wird AC eh kaum verwendet.
Zudem ist der Test hier sowieso völlig belanglos.
Keine Angabe der Settings, weglassen von MSAA, keine höheren Aufösungen und keine einzige Stellungnahme zu den hunderten Nachfragen hier im Kommentarbereich.
Absolut schwach und nur auf Klicks aus.
Bin auf jeden Fall froh, daß ich mir ne NVidia geholt habe.
Und ich finde es geradezu skandalös, daß dieser Faktor so selten beleuchtet wird.
Gerade wenn man nebenher noch encoden möchte für Twitch/Youtube, ist eine AMD-Karte ja offensichtlich glatter Selbstmord.
Ja, deswegen gibt es ja tests mit einem alten stock 2500k, weil das nie beachtet wird, was für ein Skandal.
Wenn man selbst nicht in der Lage ist, Twitch/Youtube richtig zu streamen, ( was natürlich völloig problemlos mit AMD funktioniert) fragt man sich ob du überhaupt qualifiziert bist, hier Kommentare abzugeben.
Und warum gibts keine 390X und 980 in dem test und 780Ti ?
Sind die Kepler noch nicht DX12 fähig?
Lars_SHG schrieb:
....ich verstehe es nicht? Ihr gebt die Treiber in den Benches an, die vielleicht 1-2% Leistung bringen, aber Ihr gebt nicht an mit wie viel MHz die Graka im Test gelaufen ist - obwohl dies Unterschiede von bis zu 25% macht bei einer Referenz-Graka im Vergleich zu einer Custom-Graka!
Warum könnt Ihr das nicht mal hinterlegen wie andere auch.....?
Ich stimme zu.
Der unterscied zwichen einer KFA core 1230mhz die biliger ist als eine blower core 1130 Karte ist groser als der Treiber untershied.
Und absolut jede 970/980 lauft auf 1300core manuell und mit 120% power limit verbraucht genaus so viel strom wie eine 390/X.
Wann werden wir auf CB einen:
MSI 390X vs. MSI 980 sehen ? Inclusive verbrauch und lautstarke stock vs. stock und OC vs. OC
Das wurde viel mehr uber die karten und deren Architektur sagen.
Wer wissen das sie preislich ausernander sind, aber beim lautstarke, temperatur und OC verten kann mans nur mit dem selben kühler vergleichen um zu sehen was besser abgekült und laufähig ist.
Drei lufter, zweilufter und blower karten mit einander zu vergleichen ist schwachsinn und sagt nicht sehr viel.
Richtig aber davon abgesehen wird ein richtiger Twitsch Streamer niemals via Shadowplay oder Raptr streamen sondern z.b. via OBS weil man halt Follower Alert etc anzeigen lassen möchte
Bin auf jeden Fall froh, daß ich mir ne NVidia geholt habe.
Und ich finde es geradezu skandalös, daß dieser Faktor so selten beleuchtet wird.
Gerade wenn man nebenher noch encoden möchte für Twitch/Youtube, ist eine AMD-Karte ja offensichtlich glatter Selbstmord.
Wovon die selbsternannten Fachleute hier reden, ist weniger Overhead, sondern mehr dass Nvidia den DX11 Treiber (bzw. dessen Overhead) schlicht besser gethreadet hat – kann also mit mehr CPU Kernen umgehen als der von AMD. Encoding ist zumindest mit x264 perfekt gethreadet, da ist es also egal, wo und wie viele Kerne frei sind, Hauptsache addiert ergeben die Kerne dasselbe. Die Spieleengines sind da weniger flexibel und hängen einfach auf einem Kern fest. Übrigens ähnliches Spiel für OpenGL, __GL_THREADED_OPTIMIZATIONS=1 und schon laufen eine Menge Spiele deutlich besser. Auf diese Variable reagiert aber nur Nvidia, Mesa und Catalyst unterstützen das nicht.
Problem bei Spielen und Grafik ist nicht, dass Leistung ins magische Nirgendwo verschwindet, sondern dass sich Teile der Hardware langweilen und Däumchen drehen, die Hardware also nicht optimal genutzt wird. Wenn du diese brach liegende Leistung mit einem anderen Programm nutzen willst, kannst du das zumindest auf der CPU sehr einfach tun.