Test Ashes of the Singularity: Leistungsexplosion durch DirectX 12

Ah, heute war ja die Version auch endlich für die "breite Masse" verfügbar.
Ich hab mal den Test gemacht mit einer Titan X, der ich eine GTX750TI zur Seite gestellt habe.

Also irgendwie programmiert Stardock da ein Scheiss zusammen. Anstatt das Game zu beschleunigen hängt die 750TI bei 100% Last und bremst die Titan X auf 30% Auslastung runter. Die FPS sinken von 35-50 auf sieben.
Tolles Programm. Und das soll irgendwas über die Leistungsfähigkeit der Grafikkarten sagen? *g*
Ich dachte selbst eine IGPU beschleunigt das ganze?





Na ich bin gespannt was die bis zum Release noch drann löten.
 
Zuletzt bearbeitet:
@HisN: So wurde es auch bei PCGH getestet. Eine wesentlich langsamere Karte bremst die wesentlich schnellere Karte aus. Es sollte aber eigentlich umgekehrt der Fall sein (wenn auch wenigstens minimal). Hoffentlich tut sich da was.
 
Ich bin gespannt^^
 
Wenn jetzt durch Explicit Multiadapter ein Mischbetrieb möglich ist, wäre ja dann eigentlich die Synctechnik auch egal? Daher z.B AMD als Master Karte + Freesync und Nvidia für die Rechenpower oder umgekehrt je nachdem was benötigt wird.

Ich bis sehr gespannt was sich bei DX12 noch für Möglichkeiten ergeben oder ob der Ego Tripp der beiden Hersteller zum künstlichen Cut solcher Ideen führt. Letztendlich jedoch auch die Anwendungen selbst solche Möglichkeiten anbieten müssten aber viel Geld kosten dürfte.
Das ganze wird dann richtig repräsentativ wenn mindestens noch ein paar weiter Titel mit Asynchronous Shader Unterstützung auftauchen und wie beim jetzigen Test ähnliche Ergebnisse herauskommen.
 
Zuletzt bearbeitet:
berkeley schrieb:
@HisN: So wurde es auch bei PCGH getestet. Eine wesentlich langsamere Karte bremst die wesentlich schnellere Karte aus. Es sollte aber eigentlich umgekehrt der Fall sein (wenn auch wenigstens minimal). Hoffentlich tut sich da was.

Die Technik gibt es auch in Explicit Multi-Adapter . Aktuell sieht es so aus, als ob die Karten ca ähnlich schnell sein sollten. Dieser MultiApdater wird vermutlich der IGP nur gewisse Aufgaben zuordnen, was der aktuelle Betrieb eventuell nicht macht (oder nicht optimiert kA). Ich denke mal, das Feature fehlt einfach noch.

Ein mögliches Aufgabengebiet sollen Post-Processing-Effekte sein.
Somit müssen die Entwickler wahrscheinlich das zuteilen, was eine zweite GPU oder die IGP berechnen muss.
 
Zuletzt bearbeitet:
BookerDeWitt schrieb:
Sind sie denn wirklich schneller? Ich sehe ja eher, dass Custom vs Custom die 380er schneller sind.
Offensichtlich nicht.

Zugegeben, das könnte hier bei CB transparenter gemacht sein.
Aber die aktuellen Partnerkarten sind weit weniger übertaktet als die GeForce Karten.
https://www.computerbase.de/artikel...#abschnitt_technische_daten_der_partnerkarten
Und sie haben weniger Reserven nach oben (nachzulesen in OC-Foren).

Kommt aber eben auch immer auf die Spiele an.
 
HisN schrieb:
Ah, heute war ja die Version auch endlich für die "breite Masse" verfügbar.
Ich hab mal den Test gemacht mit einer Titan X, der ich eine GTX750TI zur Seite gestellt habe.

Also irgendwie programmiert Stardock da ein Scheiss zusammen. Anstatt das Game zu beschleunigen hängt die 750TI bei 100% Last und bremst die Titan X auf 30% Auslastung runter. Die FPS sinken von 35-50 auf sieben.
Tolles Programm. Und das soll irgendwas über die Leistungsfähigkeit der Grafikkarten sagen? *g*
Ich dachte selbst eine IGPU beschleunigt das ganze?

Na ich bin gespannt was die bis zum Release noch drann löten.

Das wäre prinzipiell mit DX12 möglich, wenn nur z.B. postprocessing auf die 2. GPU verlagert wird. Aber meines wissens nach wird in AotS dies nicht benutzt, sondern das Bild wird nur abwechselnd von beiden GPUs gerendert, so wie momentan bei CF und SLI auch. Und natürlich bricht die Framerate dann extremst ein wenn die dicke Karte wesentlich schneller das Bild rendet als die langsame und dann auf die warten darf.
Die Neuerung ist einfach, dass es hier egal ist, von welchem Hersteller die beiden Karten sind und diese dennoch zusammen rechnen können.

Aber nagelt mich bitte nicht darauf fest falls meine Infos fehlerhaft sind
 
Zuletzt bearbeitet:
Draco Nobilis schrieb:
Wo wird mehr abgesetzt hier oder außerhalb der Computerbase Forengemeinschaft? Ganz sachlich, wieviele AMD Rechner gibt es im MediaMarkt und wieviele Nvidia Rechner?
Es gibt nicht nur Fanboys und Media Markt Kunden.
Es gibt (wie bereits erwähnt) jede Menge Menschen, die sich selbst ihre Rechner zusammen stellen, und dabei einfach das kaufen, was für sie das beste Produkt ist. Ganz egal, ob das von AMD oder NVidia kommt.

Draco Nobilis schrieb:
Welche veraltet schneller?
Schwer zu sagen. Benchmarks diesbezüglich sind leider sehr rar.
Lässt sich wahrscheinlich nicht verallgemeinern. Aber das hindert Fanboys natürlich nicht daran, es doch zu tun.

berkeley schrieb:
Das passt mit dieser Grafik irgendwie überhaupt nicht zusammen.
Anhang anzeigen 545776

Das trifft im Übrigen auch auf die GTX 970 und letztendlich auf die gesamte Maxwell Architektur. Die Leistung skaliert mit dem Takt ziemlich gut bis ca. 1400 Mhz. Die Steigung von 1400mhz bis 1600mhz (ca. +14%) resultiert in ca. +7% Leistungssteigerung und +30% Leistungsaufnahme.
Meine eigenen Benchmarks zeigten ein anderes Resultat.
13% mehr Takt brachten in GTA V ziemlich genau 13% mehr Leistung.
(Mit einem Endtakt über 1500MHz.)

Mag natürlich sein, daß das in Battlefield 4 anders ist.
Mag aber auch sein, daß es daran liegt, daß sie die 2GB Modelle mit Ultra Settings getestet haben und durch Nachladeruckler das gesamte Ergebnis verfälscht ist.
(Oder braucht BF4 mit den Settings echt weniger als 2GB?)
 
Wie sieht das eigentlich mit Intel iPUs aus?
Bringt den so eine GPU endlich mal genug Leistung ein kleineres
Spiel zu spielen? Denke da an mein Surface Pro3
Bin auf Pascal gespannt. MMN ist Dx12 eh frühestens
in einen Jahr interessant, wenn die Treiber soweit sin
und es auch tatsächlich mal fertige Spiele dafür gib
 
Winterday schrieb:
dass AMD Hardware unterdurchschnittlich unter DX11 arbeitet
Dann schaue dir mal die letzten Benchmarks der aktuellen und letzten AAA Titel an ( http://gamegpu.com/ ), ich weis nicht wo da eine R9 390 gegenüber einer GTX 970 unterdurchschnittlich performt. Ganz im Gegenteil, oft kommt diese sogar an eine GTX 980 ran und das einzige was unterdurchschnittlich ist, wäre wohl der eher hohe Stromverbrauch.
 
Zuletzt bearbeitet:
Mr.Kaijudo schrieb:
Ohne diese "Mantle" Architektur hätte es keinen Konsolendeal gegeben. NVidia war ohne Async Shader keine Option.

1. Quelle

2. damals war von Async Shader keine Rede, wohl eher was das Gesamtpaket entscheidend.

3. AMD war die logische Konsequenz da nur die nen SOC mit X86 + GPU anbieten konnten. Sonst häts nur die Option Tegra oder ARM gegeben, ggf noch ne separate X86 CPU + ne dez. GPU. SOC war logisch dass es AMD wird und naja, wirklich massiv dran verdient hat AMD daran auch nicht. Mag in der next Gen Besser sein wenn AMD gefestigt ist.
Ich denk AMD musste da n schön niedrigen Preis fahren was auch okay ist um die Sache erstmal für sich zu haben. Klar liegt es bei den aktuellen Konsolen recht nahe dass die nextGen dann wieder auf dieselbe Architektur setzt und eine Abwärtskompatibilität geboten ist, die 30FPS Titel dann auf 60p rechnen oder min FHD ausgeben.
Ergänzung ()

UltraWurst schrieb:
Meine eigenen Benchmarks zeigten ein anderes Resultat.
13% mehr Takt brachten in GTA V ziemlich genau 13% mehr Leistung.
(Mit einem Endtakt über 1500MHz.)

bis zu einem gewissen Rahmen ist das auch quasi linear. Sofern nicht viel mehr Spannung gebraucht wird ist die Leistungsaufnahme dabei auch linear. Du arbeitest also recht weit links im Diagramm. Wenn du allerdings für jede 10 Mhz dann mehr Saft brauchst kommste zunehmend in den rechten Bereich des Diagramms, das passt dann so.
 
Zuletzt bearbeitet:
UltraWurst schrieb:
Es gibt nicht nur Fanboys und Media Markt Kunden.
Es gibt (wie bereits erwähnt) jede Menge Menschen, die sich selbst ihre Rechner zusammen stellen,
Letztere sind noch immer eine Minderheit. Nvidia verdient hauptsächlich an OEM Kisten, weniger an ein paar Selbstbauern.

SavageSkull schrieb:
MMN ist Dx12 eh frühestens
in einen Jahr interessant, wenn die Treiber soweit sin
und es auch tatsächlich mal fertige Spiele dafür gib
Wieso? Ashes of the Singularity, Hitman, Gears of War und Killer Instinct sollen in den nächsten Wochen auf den Markt kommen.
Dazu kommt noch im August mit Deus Ex der nächste DX12 Titel.
Ebenso haben für dieses Jahr einige Entwickler DX12 Patches für ihre Spiele angekündigt.

http://www.pcgameshardware.de/Direc...ste-Uebersicht-Ark-DayZ-Star-Citizen-1164994/
 
@Verak: Dein "Zitat" ist eine aus dem Zusammenhang gerissene Aussage, denn ich habe geschrieben, dass man es so sehen könne, aber nicht, dass es so ist. Das was Du daraus gemacht hast, ist aber genau das was ich gemeint habe: es so hinbiegen, wie man es gerade braucht.

@Speedchecker: Wenn Du mich aufklärst, was genau Du meinst, wäre ich Dir dankbar. In einem der von mir verlinkten Artikel steht nämlich die Aussage von nVidia, dass es so sei - das muss ja nicht stimmen.

@rg88: "Steuern" und "emulieren" sind verschiedene Dinge, und soweit ich das begreife, wird auch nichts "umgebogen". Ohne Software (Treiber, Firmware) geht's ohnehin nicht; nVidia mag da ein paar Dinge in Software erledigen müssen, aber wenn die Hardware selbst parallele Ausführung beherrscht, dann ist das keine Emulation. Wie die Performance aussieht, steht auf einem anderen Blatt. Ich bin jedenfalls schon gespannt, wie nVidia sich diesmal verhält - und ob aus den verwegenen Aussagen zum Thema GTX 970 etwas gelernt wurde.
 
Zuletzt bearbeitet:
Winterday schrieb:
In diesem Benchmark brilliert AMD Hardware und kann unter DX12 deutlich mehr Leistung bieten, was aber im Umkehrschluss auch bedeutet, dass AMD Hardware unterdurchschnittlich unter DX11 arbeitet - worüber man sich als Käufer durchaus ärgern darf, wo doch aktuelle Titel noch mit DX11 zurechtkommen müssen. Wenn man will, kann man beide Seiten schlechtreden wie man's gerade braucht. Aus meiner Sicht wird noch einige Zeit vergehen bis DX12 der "Standard" ist, und nVidia wird bis dahin auch passende Treiber und/oder Hardware anbieten - und wir werden ein anderes Thema dieser Art haben, um uns die Zeit zu vertreiben.

So besser ? und ich erkenne es auch hier nicht in den Benchmarks, https://www.computerbase.de/artikel...afikkartenbenchmarks_von_full_hd_bis_ultra_hd das dies so sei. Wo bitte performt hier AMD unter DX11 unterdurchschnittlich, wenn die 390 sogar noch über der GTX970 liegt. Da kommen irgendwie nur haltlose und leere Phrasen von dir.
 
Danke für das super Review!

Eigentlich eine Katastrophe für AMD das die Performance unter Dx11 nie wirklich ausgefahren werden konnte. Da würden die Marktanteile heute anders aussehen.

DX12 ist auf jeden Fall ein Game Changer bei CPU Power. Sieht so aus als reicht mein 2500K @4,5Ghz noch lange aus. Gekauft vor 4 einhalb Jahren um 190€ :D
 
Winterday

Wieso glaubst du haben Chips spezielle Hardware, die an eine Aufgabe angepasst sind ?

Es ist so wie bei der XBOX 360 und bei der Wii. Die Wii hatte einen Audio Chip, der den Sound berechnet hat. Die XBOX 360 hatte immer ein großteils des dritten Cores nur für Audio verwendet. Sprich MS hat sich einen Audio Chip gespart und das auf der CPU berechnen lassen, was mit Sicherheit nicht die effizienteste Methode war.

Oder anderes Beispiel, wieso glaubst du gibt es fix funcition Chips ? Wieso gibt es SIMD in CPUs, wenn doch eh alles so easy simuliert werden kann ? Der Grund liegt daran, dass die Schaltungen so aufgebaut sind, dass sie eine Aufgabe effizient ausführen können.
Deshalb ist angepasste Hardware für ein spezifisches Szenario oft die bessere Lösung, wenn man etwas so effizient wie möglich erledigen möchte (auch programmiert man dann sehr Hardware-nahe). Software kann oft dann die günstigere, aber nicht unbedingt (je nach Hardware und was eben möglich ist) einfache Umsetzung sein und erlaubt es aber, falls sich was ändert, Anpassungen zu machen. Es kommt am Ende immer auf das Anwendungszenario an. Auch braucht ein hardwired Chip für eine spezifische Hardware kaum Software, weil ja die meisten Schritte bereits per Hardware realisiert sind.

Oft können spezielle fixfunction teurer sein als Softwarelösungen, manchmal aber auch wesentlich billiger. DSP sind beispiel bei der Signal-Bearbeitung wesentlich effizienter als irgendwelche X86, die eine angepasste Software haben.
Spezielle synchrone, serielle Schnittstellen für die Ein- und Ausgabe der digitalen Signale.
Sogenannte MAC-Befehle für die gleichzeitige Multiplikation und Addition in einem Maschinenzyklus.
Adressgeneratoren für die Implementierung von Schleifen und Ringpufferstrukturen ohne softwareseitigen Overhead.
Implementierung des Prozessors in Harvard-Architektur.
Existenz eines dedizierten Hardware-Stacks.
Mehrmaliger Zugriff auf den Speicher in einem Zyklus.
Very-Long-Instruction-Word-Anweisungen.

Aber anderseits muss ich dir auch Recht geben, wenn das Ergebnis passt, ist es egal ob software oder hardware, doch sie müssen das auch erst einmal zeigen.
Weiteres kann es auch sein, dass Maxwell von Async Compute nicht mal so stark profiteren muss, selbst wenn man einer Hardware-Lösung sehr nahe kommt. Denn wenn ich mir die Balken so ansehe, hat man mit Async Compute doch erst dann Vorteile, wenn die GPU viele Shader integriert hat.
Das kann jetzt was Gutes aber auch schlechtes bedeuten. NV kann ihre Grafikkarten sehr gut auslasten (also die vorhanden Shader), dass konnte AMD unter DX11 nicht so gut, was ja sehr für Maxwell spricht, weil AMD eher den Weg der höheren Packdickte gegangen ist. Deshalb macht Pitcairn heute noch ein sehr gutes Bild, weil der kleine Chip offensichtlich die Shader sehr gut auslasten kann (wahrscheinlich ist die Anzahl noch im Sweetpoint, das geht eigentlich bis zu Tonga XT, zwischen Hawaii Pro und XT sieht man schon, dass mehr Shader unter DX11 nicht mehr viel bringen).
Aber sobald Async Compute ins Spiel kommt und AMD Karten ihre Shader auslasten können, ändert sich das Blatt, wie man es hier in den Benchmarks sieht. Die Auslastung erhöht sich, das wurde auch im Arktikel erwähnt.

AMD hat ihre Hardware auf Async Compute (ACE-Unit) aufgebaut, weil sie von Anfang an geplant hatten, in die Breite zu gehen. Und auch wenn man es nicht glaubt, NV wird es früher oder später auch machen müssen und wird somit früher oder später mal Async Compute integrieren müssen.
Man denkt daran, dass NV mit Big Pascal ja wesentlich mehr Shader verbauen möchte (doppelt soviele) Somit nähert man sich den Problemen, die AMD aktuell unter DX11 hatte, dass man die Shader, wenn die Software nicht passt, nicht optimal auslasten kann. Zwar bringt DX12 auch schon einiges, aber man sieht, dass Async unter DX12 einiges bringt.

Aja, nehmen wir adaptiv Sync und GSYNC. Das ist ein Beispiel für eine Hardware und Software-Lösung. Da es bereits Hardware gibt, die die gleiche Umsetzung mit wenig Aufwand erlaubt, kann eine Software-Lösung auch die sinnvollere (wirtschaftlichere) sein. Es kommt eben darauf an, wie gut man das per Software umsetzten kann, oder wie teuer die Hardware werden könnte.

@Rollkragen
@CCIBS
Vllt die ganzen Beiträge von kDay gelöscht, der ja alles mit einem "." ersetzt hatte oder Zitate von irgendwelche Anime-Serien zitiert hat. Das Aquarium hat aber auch schon mehr Seiten als viele andere News auf CB.
 
Zuletzt bearbeitet:
Winterday schrieb:
und soweit ich das begreife, wird auch nichts "umgebogen". Ohne Software (Treiber, Firmware) geht's ohnehin nicht; nVidia mag da ein paar Dinge in Software erledigen müssen, aber wenn die Hardware selbst parallele Ausführung beherrscht, dann ist das keine Emulation. Wie die Performance aussieht, steht auf einem anderen Blatt.
Nach der Auslegung könnte auch jede CPU als Asynchronous Shader fähig bezeichnet werden. Oder wir verwenden Xeon Phi Karten. Lassen wir es doch die Software erledigen. Die Performance steht auf einem anderen Blatt ;)

Ich bin jedenfalls schon gespannt, wie nVidia sich diesmal verhält - und ob aus den verwegenen Aussagen zum Thema GTX 970 etwas gelernt wurde.
Verwegene Aussage? Nennen wir es doch beim Namen: Lügen
Nvidia hat die Kunden allein bei der Sache minimum 3x belogen bzw belügt sie weiter.

1. Lüge: Erst werden die Karten mit falschen Spezifikationen verkauft. Und werden sie weiterhin.
2. Lüge: Es war ein Kommunikationsfehler. Natürlich fällt das erst Monate nach Reviews aus, als User Leistungseinbrüche feststellen. Nicht das nvidia die Reviews nicht auf Herz und Nieren prüft.
3. Lüge: Es ist Feature. Und dann noch dreist mitschwingen lassen das der Kunde ja im Grunde genommen nur zu doof sei.

Die nächste Aussage die sich höchstwahrscheinlich als Lüge entpuppen wird, wird sein das die AS Funktion in den Treibern fehlerhaft/ noch nicht richtig implementiert ist.
Man wird lediglich einen gewissen Zeitraum, schätze nur noch dieses Jahr, versuchen die Auswirkungen so zu biegen das es zu mindestens +-0 rausgeht und nicht schlechter als DX11 läuft.
Alternativ wird vermutlich kein Aufwand gescheut entsprechend Entwickler zu "überzeugen" das Feature nicht zu verwenden.
Wo wir wieder beim Thema den Konkurrenten künstlich ausbremsen sind (siehe Gameworks und überflüssig hohe Tesselation Einstellungen). Anstatt die eigene Leistung zu erhöhen, versucht man schlicht die Leistung des Gegners brach liegen zu lassen. "Toller Fortschritt"
 
Mal an CB wäre es möglich wenn ihr Zeit habt auch mal die IGPu der aktuellen skylakes die ja volels dx12 haben zu testen. Würde mich interessieren ob die igpus die ja eher vom Speicher gebremst werden hier auch gegenüber dx11 zulegen können.
Gerne auch mit einem Broadwell,Haswell und paar AMD Apus die ja von der cpu Entlastung auch profitieren sollten in Games im gegensatz zu Intel.
 
@Verak: Wenn eine AMD GPU unter DX12 so viel Performance herausholen kann, warum dann nicht auch unter DX11? Genau das war gemeint, verallgemeinert und nicht speziell auf diese eine Spiel bezogen. Dass es in diesem Thread gar nicht um die Technik, sondern in der Hauptsache um "Fanatismus" geht, ist aber inzwischen sehr deutlich geworden.

@Conceptions: Das Thema GTX 970 wurde selbst in diesem Forum mehr als ausreichend diskutiert. Ob nVidia Hardware unter DX12 generell schlechtere Leistungen erbringt, sehen wir sobald ein paar Titel für Benchmarks verfügbar sind, und auch passende Treiber von AMD und nVidia. Mich stört das nicht, ich kaufe immer die Grafikkarte, die aktuelle Spiele passend befeuert, mich interessiert aber die Technik dahinter und die Diskussion daran, aber nicht wer wessen "Fan" ist.

Künstliches Ausbremsen der Konkurrenz ist eine unfeine Methode. Aber wo ist genau die Grenze? Du persönlich siehst eine "überflüssig hohe Tesselation" und eine "unzulängliche Async-Shader Unterstützung/Leistung" - was wäre, wenn ich jetzt eine "schlechte Tesselation Leistung" und "überflüssige Async-Shader Belastung" daraus stricke? (Das ist ein Beispiel, nicht meine Meinung, nur dass sich jetzt da keiner daran aufhängt...) Die Hersteller leben ja vom Verkauf ihrer Hardware, da will jeder sein Produkt vorne wissen, da ist oft jedes Mittel recht. Ich sehe da keinen Unterschied zwischen AMD und nVidia. Darunter leidet bisweilen der Käufer, aber im Endeffekt heizt das auch den Wettbewerb an. Schwer zu sagen, wo da die Goldene Mitte ist.
 
Zurück
Oben