Test DirectX 12: Vollgas für AMD in der Beta von Ashes of the Singularity

max_1234 schrieb:
Wer hat die damals als dumm dargestellt? Die habn sich einfach nur verkauft und mit Verträgen (Nvidia Gimpworks, Bundles, Exklusivangebote, etc.) eingewickelt. Mit Dummheit hat das nix zu tun.

Hat sich damals aber ganz anders angehört. Unfähig war da noch das Netteste.

Hier ist der Thread. Kannst gerne alles nochmal lesen und die In-Thread Suche bemühen.

Ich bring mal das erste Un-Wort: 8x Unfähig.

Man drehts sich halt immer gerne so wie man es gerade braucht.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Bei Project Cars wars für einige noch vollkommen OK die Entwickler als dumm und unfähig darzustellen.

Ja doch. Schliesslich ist vieles nicht selbst gemacht und stattessen hat man GameWorks Sachen in die Engine verankert. Schlimmer gehts nimmer. Die Engine ist nicht neutral. Was ist das für ne Engine, die nicht neutral ist.
 
Zuletzt bearbeitet:
tic-tac-toe-x-o schrieb:
Schliesslich ist vieles nicht selbst gemacht und stattessen hat man GameWorks Sachen in die Engine verankert.

Und es wurde mehrfach gesagt, dass diese Effekte nicht an den Performanceproblemen Schuld sind. Steht auch in dem Thread.
Das Problem ist halt immer, dass einige ihr Urteil direkt fällen und es dann unmöglich ist durch Aussagen der Beteiligten noch irgendetwas daran zu ändern. Wird schlicht ignoriert.
 
Nai schrieb:
Ohne explizit diesen Teil des Treiber gebenchmarkt zu haben ist es schwierig dies direkt zu belegen, da meine Aussage auf persönlicher Einschätzung meiner Programmiererfahrung beruhte.

Sehe ich ähnlich. Ich finde auch den EU Aufbau bei Intel sehr interessant. Sehr schmales SIMD 8 verglichen mit SIMD 32 bei NVIDIA oder SIMD 64 bei AMD, keine dynamische und eine etwas kleinere Occupancy, dafür 128 Register pro Thread. Ich würde gerne mal eine dedizierte GPU mit dieser Architektur in meinen Fingern halten :).

Meinst du mit SIMD die Shader pro Cluster?
Hier kommt AMD beim Fiji auf 64 bei 64 Clustern (4096 Shader), der GM200 verteilt seine 3072 Shader aber auf 24 Cluster, das wären dann aber 128 Shader pro Cluster.

https://de.wikipedia.org/wiki/Nvidia-Geforce-900-Serie
https://de.wikipedia.org/wiki/AMD-Radeon-R300-Serie
 
tic-tac-toe-x-o schrieb:
Ich bin selber 6970 User im Moment und sage ja. So ne 6970 kommt heute nicht mal an eine 7870 ran. Also ist irgendwo zwischen 7850 und 7870. Und dann fehlen auch noch unzählige GCN Features, die 6970 hat 220W TDP (hab meine Karte etwas undervolted, müsste evtl unter 200W sein). Die Karte macht niemanden mehr glücklich.
...
Zugegeben: Die Karte läuft noch einigermassen fein und ich brauch momentan nichts besseres, weil ich eh keine AAA Titel zocke.
Also irgendwie widersprechen sich beide Absätze etwas. Ich selbst bin am überlegen mir eine 660 als Übergangslösung bis zur neuen Generation zu holen. Und diese ist nicht schneller als eine 6970, aber nochmal klar schneller als meine 560Ti (leider nur 1GB, das ist einer der Punkte weshalb sie ersetzt werden soll; ich nutze bei ihr übrigens auch DSR). Und die hat mir bisher ausgereicht. Ich spiele aber auch keine AAA-Titel, dafür aktuellere Indietitel. Es kommt halt immer darauf an was man spielt. Pauschal zu sagen, dass die Leistung einer 6970 nicht mehr reicht halte ich daher für falsch.

Was die Effizienz angeht, da danach auch nicht AMDs Stärke, gerade wenn du eine 390 ins Spiel bringst.
Was sagen denn Notebookbesitzer? Die können die Karte nicht einfach austauschen und für Indiegames reichen selbst solche Karten noch, auch wenn sie noch langsamer sind. Von Multimedia reden wir gar nicht erst. Ich bin zwar nicht so auf dem laufenden, aber die moderne Notebook Mittelklasse wird wohl auch nicht so extrem viel mehr an Leistung bringen. Von den ohnehin lahmeren CPUs mal ganz abgesehen. Trotzdem kann man mit diesen noch spielen und Multimedia machen. Und nicht jeder kauft sich andauernd ein neues Notebook.

Bei Downsampling bin ich immer automatisch bei der Abkürzung DSR. Liegt wohl daran, das DSR früher kam und der Anfangsbuchstabe derselbe ist. :cool_alt:
 
Wadenbeisser schrieb:
@Locuza
Das ändert aber nichts daran das sie im Vergleich zu den Grafikkarten lahme Gurken sind.
Beim damaligen iris pro Test vom Haswell lag sie im Schnitt ca. auf der Höhe des A10-6800k.
https://www.computerbase.de/2013-07/intel-iris-pro-5200-grafik-test/3/#abschnitt_spiele
Broadwell:
https://www.computerbase.de/2015-06/intel-core-i7-5775c-test/2/

Im Parkour 22% schneller als ein Kaveri 7870K.

Mit Skylake gibt es eine neue Ausbaustufe GT4 mit 72 EUs und nicht mehr maximal 48.
Das sind 50% mehr ALUs + Architekturverbesserungen und insgesamt ist Intel bei 1,1 Teraflops angelangt.
Ein Skalierungsproblem wird sehr wahrscheinlich der Arbeitsspeicher darstellen, aber die Lösung sollte dennoch wesentlich potenter ausfallen, als noch Broadwell.

Und ja, wir befinden uns dennoch im low-end Bereich.
 
Er meint die Threadgroup-Size.
Logisch gesehen arbeitet AMD immer mit 64 Threads, Nvidia immer mit 32.
Intel ist da sehr flexibel.
Sie können glaub 8, 16 und 32 wählen.

Physikalisch arbeitet bei AMD SIMD16 in 4 Zyklen eine Group von 64 ab.
Bei Nvidia keine Ahnung, auch 16 oder 32, dann sind es 1-2 Zyklen.
Intel ist physikalisch glaub bei SIMD4.
 
@ Wadenbeißer
Nein das ist etwas anderes. Die SIMD Breite beschreibt die Datenparallelität des Rechners, also wie viele Werte eine SIMD Instruktion als Ergebnis erzeugt bzw. als Paramter entgegen nimmt. Bei NVIDIA GPUs bezieht sich z.B. eine Instruktion auf 32 SP/DP Werte, bei GCN GPUs auf 64 SP/DP Werte, bei AVX2 CPUs auf 8 SP und 4 DP Werte, bei Intel GPUs auf 8 SP Werte (ka wie es hier mit DP ausschaut). Höhere SIMD-Breiten bedeuten, dass weniger Platz/Energie für die Steuerung des Prozessors benötigt wird. Allerdings geht auch mehr Rechenleistung verloren, wenn die Datenparallelität des Programmes niedriger ist, weil in diesem Fall nicht genügend Werte existieren, um die Vektoreinheiten komplett auszulasten. Während die standard Rastergraphik stark Datenparallel ist, so gibt es sehr viele typische GPGPU-Probleme, wo die Datenparallelität nur eingeschränkt vorhanden ist, wie z.B. Raytracing oder Partikel basierte Flüssigkeitssimulationen

@ Locuza
Intel ist da sehr flexibel.
Sie können glaub 8, 16 und 32 wählen.
Gilt das immer noch? Habe das nur in einem Intel-Sandy-Bridge Guide vor längerer Zeit mal so am Rande erwähnt gesehen.
 
Ah ok super danke. Intels GPU Dokumentationen sind in dieser Hinsicht etwas spärlich. Gerade in dieser Hinsicht hätte ich aber bei Intel GPUs immer Angst, dass ich mit diversen "Hacks" einen Bug erzeuge ;)
 
Zuletzt bearbeitet:
Das ist glaub eine Zusammenfassung für Gen9 (PDF-Seite 8-9):
https://software.intel.com/sites/default/files/managed/c5/9a/The-Compute-Architecture-of-Intel-Processor-Graphics-Gen9-v1d0.pdf

Wenn ich das Thema richtig verstanden habe, ist das ganze auch der Grund, wieso AMDs GCN von Multiengine auch so sehr profitiert.
Breite Auslegung --> mehr Idle-Units --> Mehr Löcher die man potentiell stopfen kann.
Wobei grundlegend auch Idle-Units entstehen, wenn das Frontend/Backend belastet wird.

In eine ähnliche Kerbe schlägt auch die Scalar-Unit von GCN.
AMD hat sich schon überlegt wie man die Ineffizienz auf einer Seite abfangen kann.

Kann man so machen, muss man aber auch nicht notwendigerweise, wie Nvidia und Intel auch zeigen.
Ganz Klischeehaft, viele Wege führen nach Rom und es gibt nicht unbedingt den goldenen Weg.

Gerade wieder beim Thema Async Compute, wo schon mit Aussagen herum geworfen wird, wie Nvidia unterstützt nicht einmal Basic-Features von DX12 und lügt oder Pascal fixt das dann mal usw.
 
Locuza schrieb:
Broadwell:
https://www.computerbase.de/2015-06/intel-core-i7-5775c-test/2/

Im Parkour 22% schneller als ein Kaveri 7870K.

Mit Skylake gibt es eine neue Ausbaustufe GT4 mit 72 EUs und nicht mehr maximal 48.
Das sind 50% mehr ALUs + Architekturverbesserungen und insgesamt ist Intel bei 1,1 Teraflops angelangt.
Ein Skalierungsproblem wird sehr wahrscheinlich der Arbeitsspeicher darstellen, aber die Lösung sollte dennoch wesentlich potenter ausfallen, als noch Broadwell.

Und ja, wir befinden uns dennoch im low-end Bereich.

Die GPU taktet aber auch schon mit 1150 MHz und ist mit 48 EUs dabei. Bei angenommenen 8 Shadern pro Cluster käme ich auf 384 Shader. Also so viele wie beim A10-6800k.
Die GPU des A10 7870 taktet mit 866 MHz, hat mehr Shader, bleibt aber notorisch im Bandbreitenlimit des Arbeitsspeichers hängen.
Die GPU der Iris Pro 6200 taktet damit ca. 25% höher als beim A10 und hat dank des eDRAMs deutlich weniger mit der Bandbreite des Arbeitsspeichers zu kämpfen. An der Stelle wäre wohl ein Vergleich mit einer Radeon R7 250 interessant.
 
Locuza schrieb:
Broadwell:
https://www.computerbase.de/2015-06/intel-core-i7-5775c-test/2/

Im Parkour 22% schneller als ein Kaveri 7870K.

Mit Skylake gibt es eine neue Ausbaustufe GT4 mit 72 EUs und nicht mehr maximal 48.
Das sind 50% mehr ALUs + Architekturverbesserungen und insgesamt ist Intel bei 1,1 Teraflops angelangt.
Ein Skalierungsproblem wird sehr wahrscheinlich der Arbeitsspeicher darstellen, aber die Lösung sollte dennoch wesentlich potenter ausfallen, als noch Broadwell.
Dabei sollte man bedenken, dass man mit Skylake DDR4 anstatt DDR3 nimmt.
 
@Locuza und Nai
Danke für die Erläuterung, das macht den direkten Vergleich irgendwie um so schwerer.
 
Der Landvogt schrieb:
Dabei sollte man bedenken, dass man mit Skylake DDR4 anstatt DDR3 nimmt.
Ich habe jetzt nicht nachgeschaut mit welchen Taktraten CB getestet hat, wenn mit DDR3 2133, dann gibt sich das am Ende wenig.
Mal sehen.
Skylake hat auch wie GCN Gen 3 und Maxwell eine verlustfreie Farbkompression, dass hilft ein bisschen.
(Intel und AMD haben Zahlen dafür angegeben, es waren glaub unter 10% Bonus, aber besser als nichts)

Wadenbeisser schrieb:
Danke für die Erläuterung, das macht den direkten Vergleich irgendwie um so schwerer.
Kommt immer darauf an was man Vergleicht und noch viel mehr, was man am Ende sagen möchte oder welchen Schluss man fasst.
 
Locuza schrieb:
Ich habe jetzt nicht nachgeschaut mit welchen Taktraten CB getestet hat, wenn mit DDR3 2133, dann gibt sich das am Ende wenig.
Nun, wenn du DDR3 mit 2133MHz ansetzt, dann kannst du bei DDR4 auch 3000MHz+ ansetzen. Kostet im Gegensatz zu DDR3 wenig Aufpreis.
50% mehr Takt können da schon was ausmachen. Und die sind exklusiv für Skylake.
 
HOT schrieb:
..., weil die Industrie Mantle so gut fand, dass sie es einfach für Vulkan als Entwicklungsgrundlage übernommen hat.

Die Industrie? Du meinst doch nicht etwa die groß angekündigten 47 Entwicklerstudios bis zum Juni 2014?

https://www.computerbase.de/2014-06/amd-mantle-parallel-directx-12/

Wieviele Spiel mit Mantle-Unterstützung sind daraus entstanden? 10?
Ergänzung ()

TenDance schrieb:
Ähm, doch.

TenDance schrieb:
mantle war eher Notwehr von AMD, weil von Microsoft keine Hilfe zu erwarten war.

Ähm nein. AMD hätte nur DX12 gerne schon früher gehabt. Das war seinerzeit genauso weit wie Mantle in der Entwicklung.
Aber da für Dx12 mit WDDM2.0 ein neues Treibermodell her musste und MS noch nie das Treibermodell eines existierenden OS geändert hat, musste DX12 eben bis zum Erscheinen von Win10 warten.
 
Nein, er meint die Khronos Group, welche über 100 Mitglieder aus der Technologiebranche hat.

Und jetzt troll dich.
 
Zurück
Oben