Test Ashes of the Singularity: Leistungsexplosion durch DirectX 12

Der wohl interessanteste Teil des Tests:
Überraschender als die Leistung ist allerdings auch etwas anderes: Der Mischbetrieb von AMD- und Nvidia-Grafikkarten funktioniert einwandfrei, Microruckler sind nicht zu spüren.

DonDonat schrieb:
Ich meine mal gelesen zu haben, dass sich angeblich auch die Prozessor-iGPU mit der dedizierten Graka kombinieren lässt...
Stimmt dass oder habe ich das einfach nur falsch in Erinnerung?

Das bitte unbedingt auch noch noch testen! Falls das zutrifft, sollte der Xeon für zukünftige Kaufberatungen für Gaming-PC`s keine Option mehr sein, da die iGPU der preisgleichen i5er dann (deutlich?) mehr bringen könnten.
 
Danke für die Info, ich war mir da absolut nicht sicher, hab es glaube mal in irgendeinem Gerücht zu DX12 gelesen :)

@Kaffeejunky
Mindestens ein Paar (ja groß geschrieben) % mehr FPS oder stabilere Framerate?
Auf jedenfall wäre eine solche Kombination das wohl am meisten vorkommende "Mutil GPU"-Gespann, weswegen diese Kombination eigentlich auch in diesem Test hier eine Rolle gespielt haben sollte....
 
Ja, das soll definitiv möglich sein (IGP+dedizierte Graka). Ob und was es bringt, bin ich auch sehr gespannt. Ein Test wäre dementsprechend super.

Wäre ja schön, wenn AMD nach Jahren für mich wieder interessant werden würde. Meine letzte war die Sapphire HD5850 Toxic, war ne schöne Karte. Doch in den Jahren danach fand ich Nvidia für meine Zwecke besser geeignet.
 
AMD hat damals eine zukunftsorientierte GPU-Architektur (GCN) entwickelt,
die zu dem Zeitpunkt aber nicht mit den aktuell genutzten Konzepten (DX10/11) mithalten konnte.
Das erforderte Mut und Durchhaltevermögen.

NVidia hat einfach ein altes Konzept weiter verfeinert und ausgebaut und sich so bei den "noch" aktuellen Standards (DX11) einen Vorsprung ausgebaut, der aber beim anstehenden Konzeptwechsel (DX12) wegschmelzen wird.

Ähnliches ist schon einmal 2005 passiert:
Intel baute immer mehr auf GHz-Erhöhungen bei CPUs, blieb aber Singlecore. Hat maximal Hyperthreading eingeführt.
Der Pentium 4 Extreme lieft mit 3.4 GHz und war mit 140 Watt zum Spiegeleier-Braten wunderbar geeignet.

AMD brachte den Athlon64 X2 3800+ raus. Echtes Dualcore, leider "nur" eine Taktfrequenz von 1,9 GHz und 95 Watt Verbrauch.
Bei den IPC war Intel immer noch vorne, aufgrund des damals brachialen Taktes.
Bei den Anweisungen pro Takt/GHz lag AMD beim SingleCore vorne.
Viele Singlethreading Spiele liefen auf Intel besser als auf AMD.
Was aber nicht verwunderlich war, eines der modernen Features wurde einfach nicht genutzt: Der zweite Kern!
Erst als die ersten Spiele rauskamen, die Hyperthreading von Intel nutzten oder direkt für Multithreading programmiert waren,
änderte sich die Situation.
Diese Spiele liefen auf dem X2 um Welten besser als auf dem Pentium4...
Zuvor musste sich AMD aber ähnlich wie heute anhören, dass ihre Hardware nicht konkurenzfähig sei.

Es ist schon lustig wie sich Geschichte wiederholt.

Edit:
Erst als Intel 2007 mit der Core-Duo(Quad) E6400, Q6600 etc. rauskam,
hat sich das Bild wieder gewendet.
Nur der Vollständigkeit halber.
 
Zuletzt bearbeitet:
Glaub, das Spiel unterstützt kein implicit Multiadapter, wo dann die iGPU für's Nachbearbeiten und nicht zum Rendern ganzer Frames benutzt wird. Leider.

Meiner Meinung nach wäre so was für den Großteil der Kunden ein wesentlich realistischeres Anwendungsszenario als zwei dicke Grafikkarten von möglicherweise auch noch verschiedenen Herstellern zu betreiben.

Naja, abwarten und Wodka trinken, dieses und vermutlich auch noch nächstes Jahr wird das meiste immer noch auf Dx11 gezockt werden.

Bis das alles relevant wird, gibt's schon neue GPU Generationen beider Hersteller so wie Treiberanpassungen usw.
 
Der Dualbetrieb mit Karten beider Hersteller ist genial. Hier sehe eine Möglichkeit des Friedens zwischen euch roten und grünen Grafikkartenfanboys! Ob ihr es annehmt, ist allerdings eure Sache... :rolleyes:

Zwei Fragen, die ich nicht in der Lage bin selbst zu beantworten:
Kann mir jemand sagen, wo ich eigentlich die 380X sowohl bei DX11 als auch bei DX12 einordnen kann? Die ist in der Liste ja nicht bei.
Und wo kann ich den alten Core i7-2600K (nicht übertaktet bzw nur automatisch über Standardeinstellungen des Mainboards) einordnen? Die Generation ist ja auch schon länger nicht mehr in den Listen.

Danke! :)

So nebenbei zum AMD-DirectX-11-Bash:
Ich kann, seit dem Wechsel von nvidia GTX 570 auf AMD 380X, heute viiiel besser GTA 5 spielen als vorher! Alles auf "Hoch", und es sieht wundervoll aus!! Und das trotz DirectX 11! ;) Ich bin sehr zufrieden! Wie ihr seht, es liegt immer im Auge des Betrachsters und welche Karte man vorher hatte! (Und ja, mir ist klar daß mein Kumpel mit seiner 980TI, die ich ihm empfohlen habe, alles auf Anschlag drehen kann.) :)
 
Macht Hoffnung auf mehr. Ob da jetzt AMD richtig "krass" von profitiert oder Nvidia ist mir sowas von egal, wenn ich irgendwann mal neue Hardware besorgen muss.

Ich weiß nur nicht, ob Ausagen wie "Ja AMD hat halt für die Zukunft entwickelt" wirklich so clever sind, wenn man sich die letzten Jahre und die verkaufte Hardware anguckt. Selbst wenn AMD jetzt kurzfristig Nvidia rasiert oder mit Intel nur ansatzweise gleich ziehen sollte, wird es nicht von Dauer sein und das holt man auch in dem Zeitraum nicht mit verkaufter Hardware rein. In diesem Jahr muss ich meine Hardware sicherlich nicht ersetzen. Nächstes Jahr? Werden wir sehen. Bis dahin sieht es wieder ganz anders aus, als Stand heute.
 
Der Titel des Beitrags ist sehr schlecht gewählt, denn es bezieht sich ja nur auf AMD Karten. "Leistungsexplosion", eher besser "DirectX 12 verspricht Leistungssteigerung". Leistungsexplosion ist eher als Lockmittel für den Artikel genannt oder?!
 
Wolfsrabe

Doch die R9 380X ist in der Liste, du musst nur +60 Einträge klicken. Die R9 380X gewinnt unter DX12 im Vergleich zur R9 280X soger etwas mehr Performance dazu. Liegt wohl daran, dass Tonga mehr ACE Units hat.
 
Galaxy9000 schrieb:
Der Titel des Beitrags ist sehr schlecht gewählt, denn es bezieht sich ja nur auf AMD Karten. "Leistungsexplosion", eher besser "DirectX 12 verspricht Leistungssteigerung". Leistungsexplosion ist eher als Lockmittel für den Artikel genannt oder?!

300 Kommentare bisher, hat also explosionsartig gewirkt, würde ich sagen.
 
@Falbor
die lemminge kaufen es trotzdem
Das glaube ich auch. Die neue Performanceklasse könnte vermutlich wieder reißenden Absatz finden u. sich erneut wie warme Semmel verkaufen. Garniert mit neuen Features, gewachsener DX12 Performance, neue Schnittstellen & ~8GB VRAM GDDR5(X) als Standard könnte das wieder Begehrlichkeiten wecken
und nach der Zeitspanne von Maxwell-Release auch zeitlich eine würdige Ablösung. Vielleicht lässt sich ja dann auch noch Maxwell & Pascal "entsprechend kombinieren", aber das ist natürlich reine Spekulation ...;)
 
Super - der Test war mal richtig gut - und das Ergebnis - nur genial.

Einzig die Tatsache dass der gute alte Sandy als CPU nicht dabei war hat mich etwas gestört - wird er doch noch sehr oft genutzt.
 
Ein vernichtender Schlag gegen Nvidia, - endlich wieder Competition!
Und dass ein Unternehmen welches den Kunden nicht betrügt auch noch führend ist, freut mich noch mal ein Stück mehr :)

Meine 290 OC (290X Niveau) hält mit einer 980 TI mit, ich hab das Ding für 180€ gekauft! :D
Ich freue mich schon sowas auf Polaris! GCN Architektur hat bewiesen, dass sie State-of-the-Art ist.

mfg,
Max
 
Zuletzt bearbeitet:
Dem "abwarten und Bier trinken" kann ich nur zustimmen :)

Für mich ist AoS eher eine Machbarkeitsstudio wie groß die Differenzen werden könnten, weniger ein Maßstab für DX12 Titel generell. Wie bereits gesagt.. was in AoS die DrawCalls sind ist in anderen Titeln exzessive Tessellation. Das kann das Bild schon wieder ändern.

Dass die Maxwell Karten Boden verlieren werden - davon ging ich seit jeher aus aber Maxwell is ja auch nicht mehr ganz taufrisch. Ich finde Nvidia hat hier richtig agiert und die leichtgewichtige Architektur mit hoher Rohleistung -> Gaming Leistung gebracht, sich auf das wesentliche konzentriert. Schaut man ich die Chips doch im Detail an sieht man gut dass AMD nun eigentlich die bis dato in Fläche, Verbrauch und Transistoren verbratene Leistung in Einzelfällen besser abrufen kann. Freut mich für AMD und jeden Besitzer und ich hoffe auch für den Markt dass AMD in der next Gen hier vorn liegt, die brauchen dringend Marktanteile.

Ich befürchte aber dass AoS eher ne Ausnahme bleiben wird und sich diese Unterschiede kaum in neuen Titeln zeigen werden. Da wird der AMD Zuwachs vermutlich im kleinen % Bereich liegen. Viel eher werden die nächsten Generationen in kleiner Fertigung deutlich bessere Zuwächse bringen.
 
Sehr schade, dass es keine Tests mit der iGPU gibt, wird aber sicher seinen Grund haben.

Mich würde auch besonders der Leistungsverbrauch von zwei (z.B.) 390ern interessieren.
Diese dürften ja in der Rechenleistung noch deutlich über der Fury X liegen, bei etwa dem gleichen Preis.
Aber wie sieht es mit dem Stromverbrauch aus? Ist die zweite Karte auch voll ausgelastet?

Was bringt eine dritte GPU?
Sehr interessant wäre auch eine Kombination aus alter Architektur und aktueller, zum Beispiel eine 390X mit einer 6870. (ja...die 390X ist nicht wirklich aktuell)

Auf jeden Fall eine sehr aufregende Entwicklung. So viele Gedanken/Träume die einem da durch den Kopf gehen.... :)
Bin auch sehr gespannt, ob Ark dadurch endlich mal besser performt.
 
Zuletzt bearbeitet:
Viele haben offenbar überlesen, daß das Spiel ab diesem Zeitpunkt technisch nur noch minimale Änderungen erfahren und sich damit die "gebenchte" Leistung nur noch wenig ändern wird. Daß nvidia-Karten bei DirectX-11-Titeln ihre Leistung hervorragend ausspielen, bezweifelt doch gar keiner. Deswegen sind die Karten ja auch so beliebt. Und es ist auch oft genug gezeigt worden, daß AMDs Karten ihre verborgene Rohleistung unter DirectX 11 einfach nicht optimal auf die Straße kriegen. Ist nunmal so.

Aber man kann doch trotz der vom Hersteller (!) getroffenen Aussage, daß sich am Spiel ab jetzt nicht mehr viel ändern wird, sich nicht immernoch an das Wunschdenken krallen, daß das Spiel ja noch total Alpha ist und deshalb die gezeigten Leistungswerte überhaupt nicht aussagekräftig sind, nur weil sich einige durch ein geändertes Ranglisten-Bild gekränkt fühlen. :rolleyes:

Mit DirectX-12 ändert sich einiges, und wir können uns darüber freuen, daß die mehr ausgeglichene gegenseitige Konkurrenz der Hersteller sich hoffentlich positiv für uns auf den Preis niederschlägt, oder nicht? :) Immerhin steht auch für nvidia eine neue Generation vor der Tür, ich vermute AsyncCompute werden die auch beherrschen.

Freut euch doch außerdem darüber, daß das Spiel ein Zusammenarbeiten von Grafikkarten beider Hersteller bietet. Damit wird dieses dumme Rumgezanke noch weniger sinnvoll.
 
Also heißt das Testergebnis im Umkehrschluss, dass ich mit meinem 4 - 5 Jahre alten System ( Grafikkarte letztes Jahr neu ) noch locker die nächsten Jahre durchhalte?

2500k@4 GH und die 290X kam letztes Jahr für 250 € ( + 50 € Kühler ) also ~300 € in den Rechner. :lol:
Mühm eigentlich wollte ich auch mal wieder Geld verbrennen und PC Teile kaufen, aber das macht ja weiterhin 0 Sinn. :eek: Windows 10 gab es ja auch gratis und mit DirektX 12 wird der Prozessor noch mehr entlastet... .

Diese doofe Industrie nimmt einen echt den Spaß am PC Komponentenkauf. :king: *Spaß*
Ich finde die Entwicklung nicht verkehrt und AMD Käufer kriegen vermutlich ihr Lächeln nicht mehr aus dem Gesicht. Und durch DirektX12 wird sich dieser Siegeszug in Sachen Performance / Preis voraussichtlich fortsetzen.
 
@ComputerBase:
Eine kleine aber wahrscheinlich unglaublich aufwändige Bitte von mir: Könntet ihr einen extra MultiGPU-Test machen?

Super wären folgende Inhalte:

- Identische Karten (Dabei auch 3 oder gar 4 Karten wären super. Sind hier die 2x4GB zweier Furys "mehr" als bei normalem CrossFire?)
- Verschiedene Karten des gleichen Herstellers (Wie wirkt sich da unterschiedlicher VRAM aus?)
- Karten verschiedener Hersteller (Welchen Treiber installiert man denn dann? Wie wirkt sich in diesem Fall eine unterschiedliche VRAM-Kapazität aus? Funktioniert dann GSync & FreeSync? (Könnte das sogar zukünftige Abhängigkeiten lösen?)
- In wie weit kann eine Intel-GPU da mitmachen? Wie sieht's mit APUs aus in Verbindung mit dedizierten AMD- oder sogar Nvidia-Karten?

Das ganze sollte dann durchgehend auf Mikroruckler überprüft werden, also ob es da irgendwelche Unterschied gibt.

Ich verstehe natürlich, wenn ihr das ganze erst zum Hitman-Release macht, um das "Beta-Problem" zu vermeiden. Aber nuja, vielleicht habt ihr ja grad Puffer, und so ein Test bei AoS ließe sich ja erweitern, wenn weitere Spiele draußen sind. :)

Mein Dank würde euch ewig nachschleichen! :cool_alt:
 
Zuletzt bearbeitet:
Zurück
Oben