Test 3DMark API Overhead: DirectX 12 im Test vor Mantle und AMD vor Nvidia

@pipip

Nur das die Kerne einfach zu niedrig getaktet sind. Bei der PS4 macht sich das schon bei dem UI bemerkbar. Alles was wir wissen ist nur was man uns glauben lassen will. Wenn ich also schon Probleme bei den Konsolen sehe wo die Performance schon am Limit ist, was kann man dann zusätzlich durch DirectX12 erreichen. Oder wandern wir grafisch zurück zu 9? Das kann man kleinen Kindern erzählen was man derzeit versucht, uns weiß machen zu wollen DirectX12 würde Leistung freigeben. Wie denn, es sind grafisch mehr Anwendungen möglich oder nicht? Wie kann dann eine limitierte Konsole mit all den bekannten Specs eine weitere Anwendung stemmen?

Edit: Megatexturen sollen möglich sein unter DirectX12 usw.

Aber hier mal ein interessantes Statement.
http://gamingbolt.com/dx12-wont-change-xbox-ones-1080p-issue-but-devs-will-be-able-to-push-more-triangles-witcher-3-dev
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@DumbTruck

rechne mal mit 10% in Game. Das wäre schon viel.

Kommt aufs Spiel an. Klar, du wirst nicht einfach DX12 auf ein existierendes Spiel draufwerfen und 500% schneller sein, aber wie gesagt, es gibt viele Dinge, die heute Spiele gar nicht machen können, weil sie sonst mit 1fps, wenn überhaupt, dahindackeln würden.

Ein Benchmark unterscheidet sich nicht großartig von einem Spiel, er fokussiert sich meist nur auf ein gewisses Worst Case Szenario, und natürlich kannst du auch ein Spiel so designen, dass es einen ähnlichen Effekt hat. Nur macht das niemand, weil es schlicht blöd wäre, etwas zu produzieren, das die meisten Kunden nicht laufen lassen können. Wenn <neues Feature xy> dann verbreitet ist und die Benchmarks dazu auch keinen mehr interessieren, dann landet es in Spielen.
Der Worst Case in diesem Fall ist etwas ziemlich simples: Viel CPU zu brauchen. Mit zukünftigen CPUs mit viel mehr Kernen könntest du mit Sicherheit auch mehr als 500% Verbesserung in Spielen erreichen. Das liegt nicht daran, dass die neue API so gut ist, sondern daran, dass die alte so schlecht war. Aber wenn die meisten Spiele noch für die alten Konsolen oder Dual Cores geschrieben werden, interessiert das auch nicht sonderlich, deshalb wurde so lange nichts dran gemacht.
 
Der unterschied (im benchmark) ist aber enorm, die werte sprechen für sich :)

Hardware: Signatur
Treiber: Amd 14.12 Omega
3DMark Professional 1.5.884

5fo3bmgv.png
 
DumbTruck schrieb:
@pipip

Nur das die Kerne einfach zu niedrig getaktet sind. Bei der PS4 macht sich das schon bei dem UI bemerkbar.

Solange ist die Konsole noch nicht auf den Markt. Schau dir mal die WiiU zu Beginn an und wie das OS jetzt läuft. X-fach schneller und einen Absturz hatte sich seit Monaten nicht mehr. Das sind eben völlig neue OS und die diversen Entwickler müssen das erst alles zum Laufen bringen. Das kann man nicht mit zum Beispiel Windows vergleichen.

Wie denn, es sind grafisch mehr Anwendungen möglich oder nicht? Wie kann dann eine limitierte Konsole mit all den bekannten Specs eine weitere Anwendung stemmen?
Wieso konnte man mit Mantle mehr FPS rauskitzeln ? Ganz einfach, indem man mehr aus der Hardware holt.
Das bedeutet die Hardware sehr gut zu kennen und zu wissen wie man wo was rausholt. Schau dir doch mal die ersten Spiele der PS360 an und dann die letzten.
Wie schon gesagt, solche Sachen wie Compute-Shader wurde ja noch nicht mal genutzt und das ist nun mal völliges Neuland.

Aber allgemein, verstehe ich auch nicht ganz, was du willst. Hier geht es um PC-Hardware und du kommst mit XBOX ONE Hardware ^^
Vergleich doch mal einen PC mit Hardware um 350 Euro mit der XBOX ONE und dann zeig mir, dass du in paar Jahren die selben Games zocken kannst. Die Grafik wird für die Konsole eben angepasst. Je nach Performance werden auch speziell Szenarien für die Konsole angepasst.
Da MS selbst schon die Erwartungen gedämpft hat, was DX12 und XBOX ONE angeht, verstehe ich nicht, was da noch viel zu diskutieren gibt, besonders weil MS verstärkt wieder Windows und das eben durch DX12 verstärkt Aufmerksamkeit schenken möchte.

@1080p XBox One
Who Cares ? Ist trotzdem besser als die Grafik der PS360. Und im Vergleich kann man auch wesentlich mehr in die Spiele integrieren als bei der Vorgänger Generation.
Das interessiert doch nur Fanboys, die einfach gern vergleichen wollen und meinen die bessere Konsole durch Grafik ausfindig machen zu können, oder PC Besitzer die sich besser vorkommen, weil sie selbst einen PC zusammenschrauben können/wollen.
The Witcher 3 wird durch 720p oder 1080p spieltechnisch nicht besser.
 
Zuletzt bearbeitet:
Zehkul schrieb:
..., nein, echtes Multithreading ist das noch lange nicht.

Spiele können andere CPU Aufgaben auf Threads auslagern, aber es spricht immer nur ein Kern mit der Grafikkarte.
Du hast eine sehr seltsame Definition von Multithreading.

Dann sag doch gleich, daß du vom Multithreading für diese eine spezifische Aufgabe redest.
 
@pipip

Ich weiß wo wir hier sind... Das mit der Xbox 1 habe ich infrage gestellt, weil es mich interessiert und vor allem ob es überhaupt möglich wäre. Welche Schnittstellen sind denn für DirectX12 erforderlich? Wenn nämlich alles so einfach wäre, warum nicht bei älteren Grafikkarten emulieren.

Meinst Du echt man müsste zwingend neue Hardware brauchen, um Jahre mit den Konsolen mithalten zu können?

https://www.computerbase.de/2015-03/geforce-gtx-460-560-660-760-960-vergleich/

http://m.neogaf.com/showthread.php?t=1017844

Ich denke nicht... Grafisch gesehen wird ab DX12 vieles aufwendiger und es ist nicht so, dass Konsolen hier wieder ausbremsen. Denn DX11 reicht eigentlich, nur man kann aufrüsten, Vorteile gibt es ja wie hier auch aufgeführt wird.

Mir geht das nur nicht in den Kopf, dass immer noch so getan wird, als seien die Konsolen das beste was momentan überhaupt möglich ist...

Allein The Witcher 3 drängt die Konsolen schon ans Limit. Hier wird dann deutlich wo die Reise letztlich aufhört. Dabei ist ein PC mit ähnlicher Hardware immer im Vorteil. Mag sein dass man hier tiefer in die Tasche fliegen muss, aber ganz ehrlich, ich garantiere mir doch Selbst etwas und fall nicht auf das Marketing rein was Sony oder MS gerne verkaufen wollen.

Zigfache Downgrades gab es schon auf Konsole und das in der kurzen Zeit und dem kurzen Zyklus. Jetzt soll DX12 der Heilsbringer sein...

Edit: Es ist ja so, dass unter DX12 mehr berechnet werden kann, vorausgesetzt man hat die Schnittstelle... Was für eine Grafikeinheit verwenden denn Konsolen?

Hier wird mal deutlich worauf DX12 zielt und was möglich sein wird.

https://youtu.be/A8WJ4A6amSE

Wenn mehr berechnet werden soll, die Konsolen bereits jetzt schon am Limit sind, kann es doch unmöglich sein diese dem auszusetzen, die PS4 pfeift doch jetzt schon aus dem letzten Loch genauso X1 die ja noch mehr leisten muss guckt man sich die Entwicklung an...
 
Zuletzt bearbeitet:
DumbTruck schrieb:
Ja eben wenn überhaupt... Aber es wird so getan als sei DirectX12 der Heilige Gral für die Xbox 1 und zwar ausschließlich!

gerade bei der XBOne bringt es so gut wie garnichts. Davon kann man ausgehen. Wenn was besser aussieht dann weil die Engine optimiert werden, weniger wegen DX und so Krams. Die API is da bereits sehr hardware nah und dürfte mit X11 wenig am Hut haben. Die Konsolen werden von der API gar hardware nähe und effizienter sein als bei Windows mit DX12.

Das ist mehr Marketinggeblubber.

Fakt ist ja, die Kernleistung beider Konsolen is unter aller Sau.
 
bin etwas verwirrt,
hab den benchmark gestern laufen lassen.

mein fx8320@4,3ghz machte da 12 millionen draws calls im mantle run,
heute nur noch 10 millionen oO

wurde da über nacht irgendwas an der berechnung verändert?
 
Zuletzt bearbeitet:
Tommy64 schrieb:
Unsere schöne freie Marktwirtschaft

In welchem Land lebst du? Deutschland? => Soziale Marktwirtschaft(=! freie Marktwirtschaft).
(Planwirtschaft = vom Staat)

Ansonsten kann ich dir irgendwie zustimmen. :D
 
Bisher gab man dem Sportschützen also 10 Ziele pro Minute und er hatte alle nach 30 Sekunden getroffen. In Zukunft kann man ihm dann 100 Ziele pro Minute geben, deshalb trifft er die aber nicht auch in 30 Sekunden sondern schafft irgendwas um 20 Ziele in der Minute.

Draw Calls alleine heißen nicht, dass die Grafikkarten um das besser werden was dieser Benchmark hier so schön im Diagramm ausgibt sondern, dass man um diesen Wert mehr an Draw Calls rüber bringt. Ob AMD Prozessoren bzw. Grafikkarten auf Grund von mehr Draw Calls bzw. besserer Parallelisierung auch real an Nvidia bzw. Intel vorbei ziehen bleibt abzuwarten. Aber ist eigentlich auch alles egal, ein Flaschenhals weg, auf zum nächsten.
 
Ich selbst nutze nicht ein einziges DirektX 10 Game, kein DirektX 11, und werde vermutlich auch kein DirektX 12 Game spielen. Die Masse der Games die ich nach wie vor seit Jahren spiele sind alle DirektX 9 oder Flash Games.

Vielleicht sieht das bei der Masse der User hier anders aus?

Damit ist aber auch für mich klar, dass ich eine CPU mit möglichst hoher IPC brauche. Selbst meinen 4770K habe ich mit einen Facebook-Game schon an seine Grenzen gebracht. Fast 100% Auslastung auf 8 Kernen mit aktivierten SMT.
 
Also hier sollte man echt mal aufhören immer das selbe zu schreiben - dadurch wird das nicht intelligenter. Lest doch mal den Text des Artikel. Oder wenigstens die bisherigen Beiträge im Forum ^^
Das Testergebnis ist die Anzahl pro Sekunde initiierter Drawcalls in der letzten Szene, die noch mit mindestens 30 FPS darstellbar war.
Hier werden 30 FPS ausgegeben in einer Spieleumgebung. Die Anzahl der Drawcall bestimmt wie viele Objekte innerhalb von 30 FPS dargestellt werden können. Sprich die Zahlen zeigen ein realistisches Szenario und messen nicht nur wie viele Drawcalls überhaupt möglich sind, sondern bei 30 Bildern pro Sekunde.
 
TrueAzrael schrieb:
Ob AMD Prozessoren bzw. Grafikkarten auf Grund von mehr Draw Calls bzw. besserer Parallelisierung auch real an Nvidia bzw. Intel vorbei ziehen bleibt abzuwarten.

Der Grund, dass AMD Karten vorbeiziehen, ist schlicht der, dass sie besser sind. Und das sind sie auch schon heute, wenn du das CPU/API/was auch immer du es nennen willst-Limit rausnimmst. Schau dir zB. 4k Benchmarks an.

Nvidia hat einfach die viel besseren Treiber, die werden aber mit den neuen APIs deutlich irrelevanter.

matty2580 schrieb:
Ich selbst nutze nicht ein einziges DirektX 10 Game, kein DirektX 11, und werde vermutlich auch kein DirektX 12 Game spielen. Die Masse der Games die ich nach wie vor seit Jahren spiele sind alle DirektX 9

Da verschätzt du dich gewaltig, da Unity die neuen APIs unterstützen wird, wirst auch du auch eine Menge Casual-Spiele damit zu Gesicht bekommen.

matty2580 schrieb:
Fast 100% Auslastung auf 8 Kernen mit aktivierten SMT.

Hehe. Nein.

Außerdem: Lol Flash
 
matty2580 schrieb:
Die Masse der Games die ich nach wie vor seit Jahren spiele sind alle DirektX 9 oder Flash Games.

Vielleicht sieht das bei der Masse der User hier anders aus?

Damit ist aber auch für mich klar, dass ich eine CPU mit möglichst hoher IPC brauche. Selbst meinen 4770K habe ich mit einen Facebook-Game schon an seine Grenzen gebracht. Fast 100% Auslastung auf 8 Kernen mit aktivierten SMT.

Kauf dir eine halbwegs aktuelle GPU mit Hardware Beschleunigung für Flash und du kannst dir einen billigen Quadcore in den PC bauen für deine Spiele.
disable_hw_acceleration.jpg
 
Da habe ich ein Thema los getreten. ^^

Natürlich ist die Hardwarebeschleunigung aktiviert.
Das FB Game war Dragon City. Dort wird jeder einzelne Drache nur über die CPU berechnet. Das Game hat auch angeblich eine Millionen hohe Userbasis. Und es nicht das einzigste Game auf FB, was so schlechte Performance hat. Eher ist es die Masse der Flash-Games. Es sind aber nicht nur Flash-Games die eine hohe IPC brauchen. Bei Guild Wars 2 z.B. empfehlen selbst die Mods einen modernen Intel i5.
 
Zuletzt bearbeitet von einem Moderator:
Zehkul schrieb:
Der Grund, dass AMD Karten vorbeiziehen, ist schlicht der, dass sie besser sind. Und das sind sie auch schon heute, wenn du das CPU/API/was auch immer du es nennen willst-Limit rausnimmst. Schau dir zB. 4k Benchmarks an.

Bleibt trotzdem die Frage ob das CPU/API-Limit sich im Schnitt der Spiele so extrem auswirkt, dass man ohne dieses einen derartigen Sprung erlebt. Klar gibt es Titel die massiv davon profitieren, andere wiederum gar nicht. Bleibt also abzuwarten wie es im Schnitt bei dem üblichen Spielewarenkorb aussieht der heute für Benchmarks herangezogen wird. Für jeden einzelnen heißt es dann: "Ist bei den Titeln die ich spiele die CPU(auf Grund schlechter API) oder die GPU der Flaschenhals gewesen und profitiere ich von den neuen APIs?"

Ein AMD ist nun für alles und jeden klar besser wird es nicht geben. Dieses Bild suggeriert der Benchmark rein auf Draw Calls aber vermutlich den meisten.
 
Das hat mit IPC überhaupt nichts zu tun. Hohe IPC lindert nur das mies programmierte Problem das solche Games im Browser durch unsauberen Code verursachen. Einem kollegen ist dauernd sein C2D Bürorechner abgestürzt, nach Austausch diverser Komponenten bin ich dahinter gekommen, dass der Online Fussball Manger das verursacht hat - obwohl nichts passiert auf dem Bidschirm läuft die CPU immer heisser je länger das Spiel im Hintergrund geöffnet ist. Bis das System abschaltet.

Man kann auch die Anzahl der Webworkers reduzieren, damit das eigene System nicht so belastet ist oder eben Webworkers komplett ausschalten. Das ist ein HTML5 feature.
Ergänzung ()

TrueAzrael schrieb:
Bleibt trotzdem die Frage ob das CPU/API-Limit sich im Schnitt der Spiele so extrem auswirkt, dass man ohne dieses einen derartigen Sprung erlebt

Die Frage stellt sich nicht, da die Entwickler schon lange jammern, dass sie nicht mehr draw calls verwenden können und damit limítiert sind bei der Entwicklung.
 
TrueAzrael schrieb:
Bleibt trotzdem die Frage ob das CPU/API-Limit sich im Schnitt der Spiele so extrem auswirkt, dass man ohne dieses einen derartigen Sprung erlebt.

Nein, wird man nicht. Siehe mein Post weiter oben. Entwickler produzieren Spiele, die auch gespielt können werden sollen. Dinge, die heute absolut suboptimal laufen, werden einfach nicht in Spiele eingebaut. Wäre Unfug. Alte Spiele werden nicht 500% schneller laufen, sehr wohl aber wirst du in zukünftigen Spielen Dinge sehen, die es auf heutiger Hard- und Software 500% langsamer laufen lassen würden.
 
Zurück
Oben