News Ashes of the Singularity: Neue DirectX‑12-Benchmarks mit AMD und Nvidia

@zeedy
Ich für meinen Teil bestreite es nicht aber will Belege für den angeblich höheren Overhead und dafür ist die gleichzeitige Betrachtung der CPU Auslastung zwingend erforderlich.
 
oldmanhunting schrieb:
Ihr seit alle voll dem DX12 Marketing verfallen. Die große Kasse mit DX12 wird 2016 gemacht und einige Hersteller reiben sich schon die Hände.

Ok, und was genau wird 2016 als Voraussetzung für DX12 verkauft? Neues Windows, neue Spiele oder neue Hardware?

Oder wird man gezwungen irgendwas zu kaufen, weil DX12 sonst nicht funktioniert? (Außer die Spiele, versteht sich. Die gab es unter DX11 noch gratis)

Das ist quasi das erste DirectX, wo es nicht unmittelbar oder ausschließlich um Kohle geht und breitflächig mehrere GPU Generationen unterstützt werden + kostenloses Windows. Selbst da fangen die Leute an zu meckern und haben keinen Bock, dass es vorwärts geht. Kein Wunder, dass wir noch bei DX11 hängen.
 
Zuletzt bearbeitet:
oldmanhunting schrieb:
Ihr seit alle voll dem DX12 Marketing verfallen. Die große Kasse mit DX12 wird 2016 gemacht und einige Hersteller reiben sich schon die Hände.

sehe ich ganz genauso. dx12 ist keiner rede wert noch :rolleyes:
 
Ich seh hier nur wieder eins, die AMD-Karten sind unterirdisch schlecht unter DX11. Wenn man bedenkt wie gut sich die Nvidias noch übertakten lassen brauch kein Mensch dort AC.
 
Lübke82 schrieb:
Ich seh hier nur wieder eins, die AMD-Karten sind unterirdisch schlecht unter DX11. Wenn man bedenkt wie gut sich die Nvidias noch übertakten lassen brauch kein Mensch dort AC.

Tss und ich seh nur was für ein Schrott alle Nvidia's unter 980ti sind, werden mit DX12 eher langsamer als schneller. Wenn man bedenkt, dass AC in AotS minimal zum Einsatz kommt, kannste deine Meckswells übertakten bis die Transistoren schmelzen, damit die einigermaßen mithalten :rolleyes:
 
sTOrM41 schrieb:
auch du hast leider immer noch nicht verstanden was der dx11 cpu overhead bei amd bewirkt.

Man kann es auch übertreiben, denn wie man an den Benchmarks mit AMD unter Directx11 sieht, ist das im Schnitt völlig irrelevant.
Schau dir doch mal die Leistungsindexe hier auf Computerbase an.
Selbst mit einem 2500k ist eine r9 390 immernoch in Full HD gleichauf mit einer 970.
Und wer spielt mit Karten über 600 Euro schon auf Full HD, das wäre ja ne Beleidigung für die Karte selbst.
Ergänzung ()

sTOrM41 schrieb:
ich habe überhaupt nicht geschrieben das amds dx11 performance allgemein mies ist,
ich habe (nun bestimmt schon das fünfte mal?) geschrieben das die performance im dx11 cpu limit mies ist.

Das ist sie auch nicht, nur bei wenigen Beispielen. Also bitte auch die Warheit sagen und nicht immer nur einen Teil.
 
sTOrM41 schrieb:
mit der roten karte brauchst du in diesem spiel grob doppelt so viel cpu power um etwa die selben fps wie mit der grünen zu erreichen.
Bin auf jeden Fall froh, daß ich mir ne NVidia geholt habe.
Und ich finde es geradezu skandalös, daß dieser Faktor so selten beleuchtet wird.
Gerade wenn man nebenher noch encoden möchte für Twitch/Youtube, ist eine AMD-Karte ja offensichtlich glatter Selbstmord.

Eigentlich sollte man bei allen Grafikkarten Tests zusätzlich noch die CPU-Last messen und mit angeben.
Da braucht man dann auch nicht mit zich verschiedenen Prozessoren zu benchen. Es reicht eine vernünftige Messung.
 
sTOrM41 schrieb:
das problem tritt auch nicht selten in deutlich höheren auflösungen als 1280*800 auf
https://www.computerbase.de/2015-05/project-cars-guide-grafikkarte-prozessor-vergleich/

in ac unity gehen dir mit der fx8370 (was etwa deiner und meiner cpu entspricht) + 290x, verglichen mit der änlich schnellen nvidia karte in 1080p, dank des hohen overheads, mal eben 36% der fps flöten
d2yeiunjyy1rfsj7z.gif

https://www.computerbase.de/2014-11/assassins-creed-unity-benchmarks-grafikkarten-vergleich/

In Unity wurde das schon seit Monaten gefixed.AMD ist jetzt dort im CPU Limit schneller....
Ergänzung ()

Lübke82 schrieb:
Ich seh hier nur wieder eins, die AMD-Karten sind unterirdisch schlecht unter DX11. Wenn man bedenkt wie gut sich die Nvidias noch übertakten lassen brauch kein Mensch dort AC.

Verstehe ich nicht. Der Directx11 Pfad ist bei diesem Spiel völlig irrelevant, warum sollte man es also als Gradmesser benutzen?
Schau dir doch lieber die Directx11 Benchmarks auf CB an, unter anderem mit einem 2500k, da siehst du dass AMD in Directx11 keineswegs so schlecht ist, wie hier von einigen Realtätsverweigerern beschworen wird.

Und was hat eine Übertaktung mit Asyncronen Shadern zu tun? Gar nichts.
Außerdem wird AC eh kaum verwendet.

Zudem ist der Test hier sowieso völlig belanglos.

Keine Angabe der Settings, weglassen von MSAA, keine höheren Aufösungen und keine einzige Stellungnahme zu den hunderten Nachfragen hier im Kommentarbereich.
Absolut schwach und nur auf Klicks aus.
 
Gerade wenn man nebenher noch encoden möchte für Twitch/Youtube, ist eine AMD-Karte ja offensichtlich glatter Selbstmord.
Hmm dann mache ich wohl was falsch, denn ich Streame/encode seit gut fünf Jahren mit einem AMD System problemlos^^
 
UltraWurst schrieb:
Bin auf jeden Fall froh, daß ich mir ne NVidia geholt habe.
Und ich finde es geradezu skandalös, daß dieser Faktor so selten beleuchtet wird.
Gerade wenn man nebenher noch encoden möchte für Twitch/Youtube, ist eine AMD-Karte ja offensichtlich glatter Selbstmord.

Ja, deswegen gibt es ja tests mit einem alten stock 2500k, weil das nie beachtet wird, was für ein Skandal.
Wenn man selbst nicht in der Lage ist, Twitch/Youtube richtig zu streamen, ( was natürlich völloig problemlos mit AMD funktioniert) fragt man sich ob du überhaupt qualifiziert bist, hier Kommentare abzugeben.
 
Und warum gibts keine 390X und 980 in dem test und 780Ti ?
Sind die Kepler noch nicht DX12 fähig?

Lars_SHG schrieb:
....ich verstehe es nicht? Ihr gebt die Treiber in den Benches an, die vielleicht 1-2% Leistung bringen, aber Ihr gebt nicht an mit wie viel MHz die Graka im Test gelaufen ist - obwohl dies Unterschiede von bis zu 25% macht bei einer Referenz-Graka im Vergleich zu einer Custom-Graka!

Warum könnt Ihr das nicht mal hinterlegen wie andere auch.....?

Ich stimme zu.
Der unterscied zwichen einer KFA core 1230mhz die biliger ist als eine blower core 1130 Karte ist groser als der Treiber untershied.
Und absolut jede 970/980 lauft auf 1300core manuell und mit 120% power limit verbraucht genaus so viel strom wie eine 390/X.

Wann werden wir auf CB einen:
MSI 390X vs. MSI 980 sehen ? Inclusive verbrauch und lautstarke stock vs. stock und OC vs. OC
Das wurde viel mehr uber die karten und deren Architektur sagen.

Wer wissen das sie preislich ausernander sind, aber beim lautstarke, temperatur und OC verten kann mans nur mit dem selben kühler vergleichen um zu sehen was besser abgekült und laufähig ist.

Drei lufter, zweilufter und blower karten mit einander zu vergleichen ist schwachsinn und sagt nicht sehr viel.
 
hrafnagaldr schrieb:
Twitch Streaming ist direkt in die Raptr Software integriert.
Richtig aber davon abgesehen wird ein richtiger Twitsch Streamer niemals via Shadowplay oder Raptr streamen sondern z.b. via OBS weil man halt Follower Alert etc anzeigen lassen möchte
 
OBS hat QuickSync und NV Cuvid unterstützung und kein performance drop.
Mit anderen worten... no AMD HW support.
 
UltraWurst schrieb:
Bin auf jeden Fall froh, daß ich mir ne NVidia geholt habe.
Und ich finde es geradezu skandalös, daß dieser Faktor so selten beleuchtet wird.
Gerade wenn man nebenher noch encoden möchte für Twitch/Youtube, ist eine AMD-Karte ja offensichtlich glatter Selbstmord.

Wovon die selbsternannten Fachleute hier reden, ist weniger Overhead, sondern mehr dass Nvidia den DX11 Treiber (bzw. dessen Overhead) schlicht besser gethreadet hat – kann also mit mehr CPU Kernen umgehen als der von AMD. Encoding ist zumindest mit x264 perfekt gethreadet, da ist es also egal, wo und wie viele Kerne frei sind, Hauptsache addiert ergeben die Kerne dasselbe. Die Spieleengines sind da weniger flexibel und hängen einfach auf einem Kern fest. Übrigens ähnliches Spiel für OpenGL, __GL_THREADED_OPTIMIZATIONS=1 und schon laufen eine Menge Spiele deutlich besser. Auf diese Variable reagiert aber nur Nvidia, Mesa und Catalyst unterstützen das nicht.


Problem bei Spielen und Grafik ist nicht, dass Leistung ins magische Nirgendwo verschwindet, sondern dass sich Teile der Hardware langweilen und Däumchen drehen, die Hardware also nicht optimal genutzt wird. Wenn du diese brach liegende Leistung mit einem anderen Programm nutzen willst, kannst du das zumindest auf der CPU sehr einfach tun.
 
Zuletzt bearbeitet:
Zurück
Oben