Test 3DMark API Overhead: DirectX 12 im Test vor Mantle und AMD vor Nvidia

@Laggy.NET
Der Witz daran ist ja auch das durch das hochgeschraubte CPU Limit auch eine langsamere Geforce das gleiche Ergebnis liefern könnte.
Je schneller die Grafikkarte ist die im CPU Limit hängt desto geringer fällt ihre Auslastung aus.
Verschiebt sich das CPU Limit durch verbessertes Multithreading nach oben steigt damit auch die CPU- und die GPU Auslastung, die Framerate sowieso.

Oder um mal ein kleines Rechenbespiel zu liefern.....
Hängt der Quadcore bei 50% Auslastung und die Grafikkarte bei 50% Auslastung miut 40 FPS im CPU Limit fest dann bewirkt eine 50%ige Verbesserung der Performance durch eine bessere CPU Auslastung das die Framerate auf 60 FPS steigt und sich die CPU und GPU Last auf 75% erhöht
Kommt dann eine ca. 50% schnellere Grafikkarte rein fällt die GPU Auslastung wieder auf ca. 50% aber die Framerate bleibt praktisch gleich.
 
Zuletzt bearbeitet von einem Moderator:
pipip schrieb:
Interssant bleibt es trotzdem, dass du meinem Satz aus dem Kontext ziehst, weil dir Gaming oder der andere Scheiß nicht interessiert und meine Aussage auf allgemeine Basis kritisierst.
Denn würdest du dich fürs Gamen interessieren, würdest du wissen, wie oft in CB Threads ein Dual Core oder Quadcore empfohlen wird, weil die "Single-Thread" Performance bei Spielen alles ist.
Jetzt erklärt man uns, dass mit DX12 die Cores wesentlich besser auf viele Threads ausgelastet werden können, was bei DX 11 nicht der Fall war, weil alles auf einem Core abgestimmt war.
Somit, verliert die Single Thread Performance, wenn es ums Gaming geht, an Relevanz.

Das wird eben ersichtlich, wenn jemand mit einem Pentium auf 4,7 Ghz und ein andere auf einem Athlon II x4 680k auf 4,2 Ghz (die Tests findet man im Internet) mit einer Grafikkarte spielt. Da hat der Pentium einen langen Balken im Benchmark, kommt aber im Vergleich zum Athlon im 64 Player Multiplayer ins ruckeln. Das wird im Vergleich mit einem I3 im Base-Takt auch nicht anders laufen.

Mir geht es nur um die physikalischen/theoretischen/mathematischen Ansatz und der besagt klar das Single-Performance nie an Relevanz verliert und das anhand der gegeben Gesetze egal ob das Game, PI berechnen oder Echo ist. Darauf wollte ich dich aufmerksam machen, denn diese Annahme von dir war falsch. Welche CPU du wen empfiehlst oder welche CPU bei welchem Game verwendet wird ist mir total egal. Nur die Aussage ist eben nicht korrekt, dass durch die API oder sonst etwas die Relevanz der Single-Performance erübrigt.

Parallelisierung ist schön und gut, jetzt. Aber irgendwann kommt der Punkt da geht eine Parallelisierung nicht mehr, dann bringt nur die Single-Performance wieder etwas. Und das ist so sicher wie der Weltuntergang, außer wir verwenden irgendwann eine komplett andere Rechnerarchitektur.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
@Laggy.NET
Der Witz daran ist ja auch das durch das hochgeschraubte CPU Limit auch eine langsamere Geforce das gleiche Ergebnis liefern könnte.
Je schneller die Grafikkarte ist die im CPU Limit hängt desto geringer fällt ihre Auslastung aus.
Verschiebt sich das CPU Limit durch verbessertes Multithreading nach oben steigt damit auch die CPU- und die GPU Auslastung, die Framerate sowieso.

Oder um mal ein kleines Rechenbespiel zu liefern.....
Hängt der Quadcore bei 50% Auslastung und die Grafikkarte bei 50% Auslastung miut 40 FPS im CPU Limit fest dann bewirkt eine 50%ige Verbesserung der Perfürmance durch eine bessere CPU Auslastung das die Framerate auf 60 FPS steigt und sich die CPU und GPU Last auf 75% erhöht
Kommt dann eine ca. 50% schnellere Grafikkarte rein fällt die GPU Auslastung wieder auf ca. 50% aber die Framerate bleibt praktisch gleich.

Richtig, genau so ist es ja auch.

Die performance der GPU ist weitestgehend egal.
Solange immer ein CPU Limit herrscht bleiben die FPS unbeinflusst von der Leistungsfähigkeit der Grafikkarte. Einzig die Auslastung der Grafikkarte verändert sich. Würde man die eingebaute Karte durch eine immer schwächere ersetzen, würde sich das CPU limit erst aufheben und die FPS erst verändern, wenn die GPU so schwach ist, dass sie bei 100% Last liegt. Ab da ist die GPU dann der limitierende Faktor.
 
Hmm... Schon interessant. Mal sehen, wie das sich dann in der Realität niederschlägt.
So gefühlt freut man sich ja auf den ersten Blick für AMD. Nach ein wenig Nachdenken, stellt sich bei mir aber dann doch etwas Ernüchterung ein.
Wenn man mal in der realen Welt schaut, was AMDs Grafikkarten mit Mantle zulegen, wo laut diesem Test hier ja mitunter 1500% mehr drawcalls möglich sind, dann sieht man, dass das ja nun real keine großartigen Leistungssprünge sind. Sie legen ein nettes Stück zu, klar, aber in den meisten Spielen liegen sie noch immer hinter Nvidia. So viel bringen die zusätzlichen drawcalls also hier nicht, obwohl zwischen DX und Mantle ENORME Unterschiede in dem Bereich zu sehen sind. Der Vorsprung von AMD in DX12 ist zwar bei den drawcalls da, aber sehr viel kleiner als der aktuelle Vorsprung im Vergleich zwischen DX11 und Mantle. So rein logisch könnte man, wenn überhaupt irgendetwas, aus den Ergebnissen hier am ehesten noch schlussfolgern, dass Nvidia dadurch deutlicher zulegt als AMD, da der Sprung von DX11 auf DX12 bei Nvidia ja erheblich viel größer ist, als der von Mantle auf DX12 bei AMD. Aber auch das ist natürlich rein spekulativ. So wirklich schlauer als vorher bin ich dadurch jetzt nicht. Spekulieren kann man hier genau so viel wie vorher und wissen tut man es erst, wenn es denn wirklich mal angekommen ist.

Was die CPUs angeht ist das ja auch ganz nett, dass die Modulbauweise doch mal etwas zu taugen scheint, aber sein wir mal realistisch. Bis DX12 weit verbreitet ist, hat doch AMD hoffentlich schon die Zen-Architektur am Start, die dann allerdings nicht mehr auf die Modulbauweise setzt.
 
Laggy.NET schrieb:
Ich sage "Wahrheit", weil hier gerne verschweigen wurde bzw. es einfach nicht akzeptiert wurde, dass AMD nunmal die langsameren Treiber im CPU limit hat, obwohl ich immer wieder darauf aufmerksam machen wollte, da es mir nunmal schlicht und einfach aufgefallen ist. Besonders deutlich eben nach dem Wechsel AMD -> nVidia.

Aber das Thema hatten wir zwei schonmal und die Diskussion hat zu nichts als Missverständnissen und "aneinander vorbei reden" geführt, also lassen wir das.
Dann vergiss bei deiner Wahrheit bitte auch nicht das nvidia erst ihren "Wundertreiber" veröffentlicht haben, nachdem AMD Mantle ins Spiel brachte.
Erst dann optimierte nvidia ihren Treiber für DX11 deutlich.
Diese Wahrheit wird wohl auch gerne vergessen / verschwiegen...
 
strex

Ich gebe dir ja recht, dass Single-Thread Performance nie an Relevanz verlieren wird. Aber das habe ich auch nie behauptet.
Meine Behauptung war lediglich, dass die "Relevanz" durch die neue APIs abgeschwächt wird.
Es gibt auch Beispiele an Games, die unter 4 Threads nicht mal mehr starten lassen, obwohl zwischen einem Penitum und einem i3 nicht viel unterschied ist.

Also wenn ich damit beruhigen kann, dann forme ich meine Aussage um.

"Parallelisierung wird in Games durch DX12 mehr Relevanz haben."
 
@Laggy.NET
Ganz so hart ist die Limit Grenze nicht weil die Framerate schon etwas fällt bevor man das CPU Limit durchbrochen hat aber was bleibt ist die brach liegende Rechenleistung durch die genutzte API.

An der Stelle frage ich mich dann warum so viele wegen der besseren Multicore Leistung der Geforce Treiber im CPU Limit bald austicken aber hinnehmen das durch DirectX 11 selbst ein vielfaches der möglichen Rechenleistung den Bach runter geht.
 
Hängt der Quadcore bei 50% Auslastung und die Grafikkarte bei 50% Auslastung miut 40 FPS im CPU Limit fest dann bewirkt eine 50%ige Verbesserung der Perfürmance durch eine bessere CPU Auslastung das die Framerate auf 60 FPS steigt und sich die CPU und GPU Last auf 75% erhöht
Die Parfümance dieses Rechenbeispiels stinkt ;).
 
Stelle einfach mal mein Ergebnis zur Schau: http://www.3dmark.com/3dm/6378513
EDIT: Hatte erzwungene Einstellungen noch im Treiber -> neuer Benchmark mit Default Settings.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
@Laggy.NET
Ganz so hart ist die Limit Grenze nicht weil die Framerate schon etwas fällt bevor man das CPU Limit durchbrochen hat aber was bleibt ist die brach liegende Rechenleistung durch die genutzte API.

An der Stelle frage ich mich dann warum so viele wegen der besseren Multicore Leistung der Geforce Treiber im CPU Limit bald austicken aber hinnehmen das durch DirectX 11 selbst ein vielfaches der möglichen Rechenleistung den Bach runter geht.

Ja, die grenze ist in der Praxis eher bis zu einem gewissen Punkt fließend, da sich CPU und GPU last in Spielen innerhalb von Sekundenbruchteilen ändern. Es gibt einen Übergangsbereich in dem sich CPU und GPU limit ständig abwechseln.

Aber spätestens wenn die GPU last z.B. dauerhaft unter 90% sinkt kann man sicher sein, dass die CPU vollständig limitiert.


Warum das Thema mit den optimierten Treibern wichtig ist, obwohl DX11 der eigentlich Übeltäter ist?

Nun, DX11 wird uns noch einige Zeit erhalten bleiben, da DX12 noch nichtmal auf dem markt ist und jeder von uns wohl ne ganzen Sammlung an DX11 Spielen hat. Da finde ich es durchaus wichtig, oft sogar kaufentscheidend, wenn ich durch den geringeren Overhead der nVidia Treiber mit meinem i5 die Performance erreiche, die ich mit einer AMD Karte nur mit nem i7 oder nen i5 @ 4,5 GHz erreiche. Das ist dann nunmal ein sehr Starkes Argument und spart mir im Endeffekt sogar nen CPU/Mainbaord/RAM wechsel...

Fakt ist, dass in einigen Spielen, in denen ich mit meiner HD7950 im vollständigen CPU limit performance probleme hatt mit der nVidia Karte keine Probleme mehr habe. Hätte ich z.B. zu einer R9 290X gegriffen wäre die Performance unverändert geblieben, da AMD bisher eben weniger Aufwand betrieben hat, um DX11 zu optimieren.
Wie gesagt, ich finde das Thema ist nicht zu unterschätzen.
 
MaLow17 schrieb:
Die Parfümance dieses Rechenbeispiels stinkt ;).

nanu nanö....beim Tippen daneben gekloppt!
Schnell weg mal editieren.. ;)
Ergänzung ()

@Laggy.NET
Das kann man jetzt sehen wie man will. Anstatt die Symptome zu bekämpfen ist AMD mit der Mantle API (u.A.) die Ursache angegangen.
Kurzfristig prfitiert man natürlich eher von nvidias Weg, mittel bis langfristig profitieren jetzt alle von AMDs Lösungsweg mit dem sie z.B. Microsoft in Zugzwang gebracht hatten weil durch Mantle für jeden sichtbar war wieviel Leistung durch Direct3D in DX11 verschwendet wird.
 
Zuletzt bearbeitet von einem Moderator:
Drawcalls selbst limitieren nicht unbedingt die Prozessorleistung.
Von daher kann man nicht behaupten der AMD Treiber sei unter Directx11 schlechter.
 
Krautmaster schrieb:
gut, abgestritten mag von AMD nichts geworden sein, aber er bezog sich ja nur auf die Foren Member. Bestes Beispiel direkt danach von Dadeal, die mit der Aussage

Wieso dichtest du immer wieder etwas hinzu, was nie gesagt oder Thema war? ....
Außerdem, wieso musst du immer für andere sprechen? ... kannste das mal sein lassen?

Behauptung aufgestellt, du mischst dich dabei ein... wtf?
Aber da du dich ja genötigt siehst, beantworte die Frage ganz einfach, fühlst dich ja dazu berufen!

Also:

WER tat das?
 
Zuletzt bearbeitet:
Krautmaster schrieb:
die schwächere DX11 Performance bzw. das einhergehende CPU Limit bei AMD Karten direkt wieder "abstreitet".
Da wird überhaupt nichts abgestritten. Du scheinst mal wieder Textverständnisprobleme zu haben. Aber lies doch mal den Satz den ich zitiert habe selber: AMD GPUs haben eher ein CPU-Limit als Nvidias GPUs ?!?!?

Dass dies somit gar kein CPU-Limit sein kann lässt du unter den Tisch fallen. Wieso sagts du es denn nicht technisch richtig? Nvidias GPUs bieten unter DX11 mehr Leistung. Die Tests zeigen das ja deutlich, doch was hat denn die CPU da an Limits die je nach GPU sich verschieben? Das sind doch reine Treiber- und Softwarelimits, sonst könnte die Nvidia GPU ja gar nicht schneller sein.
 
@ BlauX

Laggy.NET schrieb:
Danke, dass die Wahrheit auch endlich mal von der "Presse" bzw von euch ausgesprochen wird.
selbst im 3Dcenter wirds immer wieder gesagt, dass AMD mal was tun sollte, da das Problem auch in diversen Spielen spürbar ist: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10568728#post10568728

Aber interessant, dass sich das Bild unter DX12 wendet.

es ging doch lediglich um die Aussage hier und das was du bezüglich Stage 1 und 2 vom Omega da zugegeben hast. Der Ansatz ist richtig, das Problem bei AMD da was auch logisch ist - man betreibt bei AMD kaum DX11 Optimierung im Umfang von Nvidia wenn man Mantle genau dafür hat. Ich weiß nicht was für ein Problem du hast?

@Daedal

vielleicht dreht und diskutiert man sich hier falsch oder aneinander vorbei. CPU Limit, egal von wem hier erwähnt, sagt ja nicht aus, dass die CPU als solches von der Rohleistung zu langsam ist.

AMD GPUs haben eher ein CPU-Limit als Nvidias GPUs ?!?!?

ist natürlich sehr "salopp" gesprochen. Kernaussage meint hierbei wohl dass bei hinreichend viel GPU Leistung die CPU schneller Limitierend in Erscheinung tritt als bei Nvidia. Wadenbeisser hat das oben doch quasi perfekt erklärt.

Daedal schrieb:
Das sind doch reine Treiber- und Softwarelimits, sonst könnte die Nvidia GPU ja gar nicht schneller sein.

selbes schieb ich doch auch. Wie passt das zu dem hier?

Daedal schrieb:
Mich würde das doch jetzt interessieren. Erkläre mir doch mal wie du mit einem GPU-Treiber ein CPU-Limit aufhebst.
 
Zuletzt bearbeitet:
HAHA MS Optimiert für AMD. Die Konsolen wirken sich jetzt aus. DX12 soll ja auch auf xbox one kommen, in die DEV Kids.

NV wird es immer schwerer haben.
Die AMD Chips in den Konsolen verkaufen sich sehr heftig.

Die 390X (8GB) wird mein nächstes Baby so Gott will.
 
Krautmaster schrieb:
@Daedal

vielleicht dreht und diskutiert man sich hier falsch oder aneinander vorbei. CPU Limit, egal von wem hier erwähnt, sagt ja nicht aus, dass die CPU als solches von der Rohleistung zu langsam ist.

ist natürlich sehr "salopp" gesprochen. Kernaussage meint hierbei wohl dass bei hinreichend viel GPU Leistung die CPU schneller Limitierend in Erscheinung tritt als bei Nvidia. Wadenbeisser hat das oben doch quasi perfekt erklärt.

Und ich bat darum dies endlich mal zu unterlassen. Jahrelang wurde die Schuld bei der CPU gesucht und es gab einen Aufrüstwahn, weil mna ja ein CPU-Limit durchbrechen musste. Nun wundert man sich, dass seit Generation nichts vorwärts ging bei der CPU-Leistung. Ohne Druck auf die Software Entwickler (Treiber/Spieleengine/API/OS/Spiel) wird das immer diesen schnarchlangsamen Rhytmus haben wie es MS mit DX vorgemacht hat. Also nennt man das Kind besser beim richtigen Namen und ebenso auch in den Kaufberatungen...es lesen hier auch schließlich Neulinge mit die ständig meinen eine neue CPU kaufen zu müssen.
 
den "Aufrüstwahn" gab es ja stellenweise auch zurecht oder welche Optionen hat man als Anwender wenn die CPU limitiert? Die limitiert heute ja noch oft genug auf einem Kern, vor allem wenn man nicht nur am PC zockt...

Bei der CPU Leistung geht es aus ganz anderen Gründen nicht voran.
 
Katillah schrieb:
Man kann demnächst also auf einer Map mit der 4K Auflösung vom "but can it run Crysis" Spiel über 10000 Fernzünd-Bomben platzieren und diese gleichzeitig zünden, die auch alle berechnet UND angezeigt werden können :-)

Kann man mit Dx11 auch. Aber nicht mit einem Draw-Call pro Bombe. Seit jeher lautet eine Empfehlung bei der Programmierung mit DX, möglichst viele Objekte zusammenzufassen und in nur einem Draw Call an die GPU zu schicken (also sprsam mit den Draw-Calls umzugehen).
Die Star Swarm Demo z.B. verletzt absichtlich diese Empfehlung, um das Draw-Call Limit von DX11 aufzuzeigen. Bei Star Swarm wird jedes Objekt (evtl. sogar jedes zu rendernde Dreieck, kann mich diesbezüglich nicht genau erinnern) per eigenem Draw-call an die GPU geschickt. Hier limitiert die DX-API extrem, weil die Draw-Calls nur single-threaded sind.

Siehe hier:

http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm/3
 
Zurück
Oben