Test 3DMark API Overhead: DirectX 12 im Test vor Mantle und AMD vor Nvidia

Ein Spiel kann kein CPU-Limit darstellen. Es ist Code für die GPU und die CPU kann auch in DX 12 nicht alle ihre Ressourcen nutzen. Schau dir doch das mal an und rechne aus wieviel CPU-Zeit jeder Kern noch zur Verfügung hat bis der letzte Rest zur Ausgabe des Frames fertig berechnet ist einmal unter DX11 und einmal unter DX12:

100f.jpg


100h.jpg


Und selbst unter DX12 ist der letzte Thread für das Bild nach 15ms fertig, doch die anderen 7 deutlich früher nciht mehr ausgelastet - hier gibt es dann kein CPU-Limit. Mach ein solches Schaubild bei Luxmark und du hast alle Kerne gleich lange am vollen Anschlag. Mach irgendetwas das ein Bild ausgeben muss und eine CPU kann niemals das Limit sein. Es ist die Software und die GPU. Würde jetzt ein Dualcore beide Kerne voll auslasten, dann wäre er im CPU Limit. Doch selbst das bezwweifle ich, da Spiele niemals in der Lage sind eine Mulitcore-CPU voll auszulasten.
 
Hopsekäse schrieb:
Wenn man mal in der realen Welt schaut, was AMDs Grafikkarten mit Mantle zulegen, wo laut diesem Test hier ja mitunter 1500% mehr drawcalls möglich sind, dann sieht man, dass das ja nun real keine großartigen Leistungssprünge sind.

Da man auch in Zukunft noch DX11 auf Win7/8 berücksichtigen muss wird es noch viele Jahre dauern, bis die Anzahl an Draw-Calls in Games stark zunimmt. Auch ändert die Verschiebung des Draw-call Limits nach oben nichts an der Leistungsfähigkeit einer GPU (theoretische Pixel-/Texturfüllrate und Rechenleistung (Flops)) und dem Zusammenspiel der Recheneinheiten in einer GPU (GPU-Architektur).
 
Finde es immer noch sehr schön was AMD mit Mantle so losgetreten hat :)
Weiter so!
 
Tommy64 schrieb:
Da hast Du ein altes Problem unserer momentanen Wirtschaftsordnung angesprochen.
Es finden mit fortschreitender Zeit immer größere Markt-Vermachtungen statt. Eine „ungesunde“
Konzentration von Kapital und wirtschaftlicher Kapazität in immer weniger Unternehmen, also in immer weniger Hände.

Darunter leiden Fortschritt, Qualität und Kreativität. Man spürt regelrecht das etwas nicht stimmt, das etwas grundlegendes falsch läuft. Unsere schöne freie Marktwirtschaft scheint an einer schleichenden "Monopol-Pest" zu leiden. Diese Entwicklung zu Ende gedacht, bedeutet Planwirtschaft.

danke für diesen Beitrag Nr. 64 und auch die vielen anderen kritischen Meinungen. Wenn bei den vielen Meldungen in den letzten Monaten über Fortschritt und Problemen die Leser und Schreiber sich auch mal jeden Beitrag durchlesen würden, würde sich viel im Verständnis Tun.
Es erfreut mich , wie alle hier hier sehr, was sich endlich tut, aber ich zähle 1 und 1 zusammen:

directX nur mit win10. Microsoft schafft plötzlich , was Intel, AMD u nievidea , obwohl deren Experten genau wissen, wie deren Hardware funktioniert, seit JAHREN nicht schafften, außer bugs und Probleme. Alle produzieren irgendwie zusammen, Patente und alle möglichen Konsortien tun sich zusammen und forschen an gemeinsamer Technik : Planwirtschaft . Niemand ist hier gut oder böse - alles wird genau so am Markt platziert , wie es der Umsatz fordert.

ich freu mich auf Windows 10 ? Wird es denn wirklich kostenlos ? Wenn ja, was wird aus den Schwachstellen bei UEFI? Und den ganzen BackDors?

freude kommt bei mir nur mit gemischten Gefühlen auf und ich weiß um so mehr : was verändern kann ich nur durch KONSUMVERZICHT .
auch, wenn ich auf Skylake, dx12 und AMD-Zen u 380wieauchimmer wie ein kleines Kind warte.
 
Krautmaster schrieb:
@ BlauX
Ich weiß nicht was für ein Problem du hast?


Wieso mischst du dich da ein, wenn die Frage gar nicht dir galt?
Wo ist dein Problem einfach mal nicht in etwas einzumischen, was dir nicht galt?

Ich fragte WER war das. Und dann kommst du mit nem Thema der da 0 mit zutun hat.
Hör einfach auf, ja?
 
Krautmaster schrieb:
Bei der CPU Leistung geht es aus ganz anderen Gründen nicht voran.

Jein.....letztendlich kommt es aufs gleiche raus.
Mangelhafte bis fehlende Software Unterstützung für leistungssteigernde Funktionen wie FMA, AVX und Co. Und da kommen die ganzen GPGPU Funktionen noch nicht einmal mit eingerechnet.
 
thompson004 schrieb:
Wieso erzeugt der i3 in allen Szenarien mehr Draw Calls als der i5?

Welche Szenarien ? Also so wie ich das sehe, ist der aktuelle i3 nur bei den IGP Werten schneller als der alte i5 2500k, liegt aber eben an der schnelleren IGP des i3. Bei den DX12 und Mantle Werten der R9 290X und 980GTX ist der i5 schneller.

Und zur Ergänzung, der i3 hat eine etwas höhere IPC als Sandybridge, einen Takt von 3,8 Ghz. Im Vergleich hat der i5 einen Base-Takt von 3,3 Ghz.

Da sind die Werte des A10 7850k eben interessant, der hat trotz niedrigere IPC, 3,7 Ghz Base Takt, höhere Werte als der i3. Unter Direct DX11 sieht das eindeutig anders aus.
 
Zuletzt bearbeitet:
deathscythemk2 schrieb:
Das hätten wir schon vor 4 Jahren haben können.

Das hatten wir schon vor knapp 20 Jahren mal; Glide war - soweit ich mich erinnere - ebenfalls eine Low-level API. Danach habens die giftgrünen aka nvidia gekauft und eingestampft, da man dort D3D von Microsoft unterstützte und so (die deutlich bessere) Konkurrenz ausschaltete.

Auf Konsolen sind Low-level APIs Standard - Microsoft hätte schon längst jene von der Schrottbox für ihr Desktop Windows anpassen können... - das D3D das in DX12 verwendet wird, stammt vermutlich auch vom Böxlein - wenn sie denn wollten. Aber du hast sonst Recht, es musste erst AMD kommen, damit hier wieder Bewegung ins Spiel kam. Also hoffen wir mal das alle Beteiligten in Zukunft etwas schlauer agieren.
 
Zuletzt bearbeitet:
pipip schrieb:
Welche Szenarien ? Also so wie ich das sehe, ist der aktuelle i3 nur bei den IGP Werten schneller als der alte i5 2500k, liegt aber eben an der schnelleren IGP des i3. Bei den DX12 und Mantle Werten der R9 290X und 980GTX ist der i5 schneller.

Und zur Ergänzung, der i3 hat eine etwas höhere IPC als Sandybridge, einen Takt von 3,8 Ghz. Im Vergleich hat der i5 einen Base-Takt von 3,3 Ghz.

Da sind die Werte des A10 7850k eben interessant, der hat trotz niedrigere IPC, 3,7 Ghz Base Takt, höhere Werte als der i3. Unter Direct DX11 sieht das eindeutig anders aus.

Denkfehler deinerseits?
Der i3 mag eine höhere IPC haben und mit 3,8 GHz höher takten aber der i5 hat noch nen Turbo der die Taktfrequenz auf 3,7 GHz hoch schrauben kann.
Vor allem beim Single Threading Test ist der Basistakt des i5 vollkommen irrelevant.
Das der Kaveri im DX12/Mantle Test schneller als der i3 Test ist und es im DX11 Test noch anders herum ausschaut verwundert auch herzlich wenig denn der i3 hat die höhere Einzelkern Leistung und DX11 ne Singlethread Ratte.
Eine Schwachstelle die bei DX12/Mantle angegangen wurde und schon legt der A10 aufgrund deutlich besserer Modul Skalierung (im Vergleich zum HTT) entsprechend zu. Das zeigte sich ja schon bei anderen Multithreading Tests.
Der Skalierungsfaktor beschleunigt dann auch den alten i5 im Vergleich zum neueren i3.
 
Daedal schrieb:
Ein Spiel kann kein CPU-Limit darstellen. Es ist Code für die GPU und die CPU kann auch in DX 12 nicht alle ihre Ressourcen nutzen. Schau dir doch das mal an und rechne aus wieviel CPU-Zeit jeder Kern noch zur Verfügung hat bis der letzte Rest zur Ausgabe des Frames fertig berechnet ist einmal unter DX11 und einmal unter DX12:

100f.jpg


100h.jpg


Und selbst unter DX12 ist der letzte Thread für das Bild nach 15ms fertig, doch die anderen 7 deutlich früher nciht mehr ausgelastet - hier gibt es dann kein CPU-Limit. Mach ein solches Schaubild bei Luxmark und du hast alle Kerne gleich lange am vollen Anschlag. Mach irgendetwas das ein Bild ausgeben muss und eine CPU kann niemals das Limit sein. Es ist die Software und die GPU. Würde jetzt ein Dualcore beide Kerne voll auslasten, dann wäre er im CPU Limit. Doch selbst das bezwweifle ich, da Spiele niemals in der Lage sind eine Mulitcore-CPU voll auszulasten.

Eben! Jetzt erklär mir bitte wie Microsoft das bei der Xbox 1 umsetzen möchte. Hier werden Parolen von Microsoft gesungen a la "bringt bis zu 500% mehr Leistung" kein Witz wurde so gesagt.


http://www.xboxdynasty.de/Xbox-One/...Leistungsschub-ausfallen-wird,news,43071.html

Das kann doch so nicht stimmen! Was sollen die Zahlenspiele überhaupt im Vorfeld, wo die CPU der Xbox 1 limitiert ist, ganz zu schweigen von der Grafikeinheit! Ein mehr an Leistung ohne jedes Zutun? Wo bin ich hier eigentlich? Warum dann nicht gleich bei der Xbox 360 anwenden und emulieren, wenn es wie aus dem Fingerschnipp so einfach ist.

Was kann man den erwarten von grafischen Anwendungen bei DirectX12 gegenüber 11? Das mehr kann man doch nicht einfach so an einer limitierten Konsole weitergeben oder irre ich mich da? Aber das Marketing funktioniert mal wieder tadellos!
 
Das steht doch so gar nicht dort:
Mehr Kerne bedeuten einfach mehr Speed für den PC, aber die Xbox One wird sicher nicht im gleichen Maße von DirectX 12 profitieren. Microsoft wird dazu die API vom eSRAM der Xbox One neu aufsetzen und mit neuen Optimierungstools ausrüsten, hieß es weiter. Brad sagte außerdem, dass am Ende die Xbox One in jedem Fall von DirectX 12 profitieren wird, aber noch niemand könne das Ausmaß abschätzen.
 
Hier wird vermutet, dass es auch etwas weniger sein "kann" egal ob 250 oder nur 200 oder doch 300%.

Ich finde es daher sehr fahrlässig überhaupt so zu argumentieren wenn nix fest steht. Ich sage auch nicht "ich kauf mir morgen nen Porsche die Wahrscheinlichkeit im Lotto ist da"
 
Lesen kann man das dort aber nicht. Das ist reine Interpretation.
Phil Spencer hielt schon immer den DirectX 12 Ball flacht und sagte bereits vor Monaten, dass DirectX 12 keinen riesigen „Performance Boost“ für Xbox One auslösen wird. Er ist vielmehr der Meinung, dass die Entwickler mit ihren angepassten Engines zeigen müssen, was möglich ist.
 
Wadenbeisser schrieb:
Denkfehler deinerseits?
Der i3 mag eine höhere IPC haben und mit 3,8 GHz höher takten aber der i5 hat noch nen Turbo der die Taktfrequenz auf 3,7 GHz hoch schrauben kann.

Mein Denkfehler war eher der, dass ich nicht bedacht habe, dass der i3 keinen Turbo hat. Das vergesse ich nämlich ab und zu.

Aber mal sehen, was dann die Spiele zeigen. Im optimalsten Fall müsste man dann nur die Grafikkarte aktualisieren, wenn man einen halbwegs schnellen Prozessor hat.
 
Was?

"Außerdem deutete er noch einmal an, dass am PC bei gleicher Hardware von DirectX 11 zu DirectX 12 eine Benchmark-Leistungssteigerung von 500% erreicht werden konnte. Mehr Kerne bedeuten einfach mehr Speed für den PC, aber die Xbox One wird sicher nicht im gleichen Maße von DirectX 12 profitieren."
 
@Daedal

ich denke es ist jedem hier vollkommen klar was gemeint ist. Interessant ist ja viel eher wie diese Omega Stage 1 / Stage 2 und Nvidia 337 Optimierung heute realisiert wird oder realisiert wurde. Wie schon geschrieben wurde bietet DX11 ja genauso Optimierungsspielraumraum, die Möglichkeit Flaschenhälse durch "Tricks" und geschicktes Treibermanagement zu reduzieren.
Wie du schon richtig sagst kann man weder mit DX11 noch mit DX12 100% der CPU nutzen. Auf allen Kernen komplett durch die Bank. Das ist klar. Über den Gamecode steigt die CPU Last natürlich insgesamt an. Der kann ja schlechter, aber auch deutlich besser verteilt werden als in diesen Präsentationsfolien.

@DumbTruck

rechne mal mit 10% in Game. Das wäre schon viel.
 
Ja eben wenn überhaupt... Aber es wird so getan als sei DirectX12 der Heilige Gral für die Xbox 1 und zwar ausschließlich!
 
DumbTruck

Die XBOX ONE hat 6 Cores für Games und kann bei Bedarf auch (ich weiß nicht ob nur ein Teil oder den kompletten) 7 Core zusätzlich für Games nützten, mehr wird es nicht spielen ^^

Wie MS und Sony noch mehr Performance aus der Konsole holen wollen, könnte man dadurch erreichen, wenn man dann noch Compute Shader nützt. Also werden neuere Engine zeigen, ob die Konsolen mehr aus der Hardware holen können. Für Leute die nur auf Konsolen zocken, ist das ein Quantensprung und wenn man an die Kosten der Steam Machinen oder OEM Gaming PCs, sind die Konsolen sicherlich auch grafisch in Relation zum Preis bei weiten kein schlechter Deal.
Bei der PS360 war man da schon am Ende angekommen, das maximale rauszuholen und das dürfte nicht nur an der Rohleistung liegen, sondern auch an die Features der verbauten GPUs.
Ordentliche GPGPU Feature war da ja zum Beispiel undenkbar.

Was DX12 und XBOX ONE angeht, war das doch klar, dass es nicht viel bringen wird. Es kann durchaus sein, dass man mit DX12 auch ein etwas verbessertes SKD für die XBOX ONE releaset, dass vllt auch etwas schlanker ist als bisher, aber bei Konsolen spricht man oft von low-level APIs.
Es gab ja auch eine Aussage von MS.
http://www.pcgameshardware.de/Xbox-...2-Microsofts-daempft-die-Erwartungen-1138786/

Doch habe ich auch schon mal gelesen, dass Sony meinte, dass im Vergleich zu MS, dessen API Ballaste haben, die Sony nicht hat. Könnte durchaus sein, dass MS da trotzdem etwas optimiert hat.
Daedal hat aber schon erwähnt, dass man an einer effektivere Nutzung des ESRAM arbeitet.
 
Zuletzt bearbeitet:
Zurück
Oben