Test Ashes of the Singularity: Leistungsexplosion durch DirectX 12

Die Performance der AMDs unter DX12 ist ja mal wirklich Extrem
Schön wäre es wenn es auch in weiteren DX12 Titeln bleiben würde aber irgendwie glaube ich nicht so recht daran. Die Konkurrenz wird sich schon was einfallen lassen damit der Vorsprung unter DX12 nicht so enorm bleibt wie jetzt in Ashes of the Singularity

Das Game worauf ich mich mehr freue ist Hitman und auf deren Testergebnisse bin ich mega gespannt
 
Also dieser nVidia+AMD Mischbetrieb ist ne echt interessante sache. Wenn das beutet das es die entscheidung bezügl. GSync/ASync oder Pysix und dem ganzen anderen Propritären Zeug überflüssig macht. Da sag ich nur: ENDLICH!
 
proprietär ist nur G-Sync. Freesync/Async ist frei. Nvidia benutzt es ja in Laptop selbst, auch wenn sies anderst bezeichnen
 
Tulol schrieb:
GSync/ASync oder Pysix und dem ganzen anderen Propritären Zeug überflüssig macht.
Hat schon jemand den Test gemacht, ob überhaupt eine der Technologien im Mischbetrieb funktioniert? Könnte mir vorstellen, dass der Treiber hier evtl Probleme macht.
 
IBISXI schrieb:
Darf ich dich mal an das Threadthema erinnern?
Leistungsexplosion durch DirectX 12

Was soll ich da mit einer R7 240 oder GTX 260?
Ganz genau... dumme Forderungen stellen ohne drüber nachzudenken gibt es leider zu Hauf' ;)

@FormatC
Gute Besserung!
 
janeeisklar schrieb:
Ok dir gefällt die Grafik nicht, ist wohl Geschmackssache.
Nicht wirklich.
Die Grafik ist objektiv schlechter als bei Stacraft 2 und die Performance trotzdem schlechter (selbst mit DX12 noch).
 
FormatC schrieb:
Hättet Ihr das Verlinkte wenigstens mal aufmerksam gelesen, dann hättet ihr auch feststellen können, dass selbst die Fury X bei DirectX 12 ab und an dicht macht, die Fury Nano wird da fast schon zum Fiasko, weil sie gemein runtertaktet. Und noch etwas: die Fury Nano ist für die breite Masse natürlich so etwas von repräsentativ, weil sie ja wirklich jeder hat (so wie die 295X2 und die TitanX auch). Sie limitiert sich in UHD selbst, so wie die GTX 980 Non-Ti auch. :D

Alles schön und gut. Wenn die Nano-Karte aber in DX12 über 30% Mehrleistung bringt, dann würde mich die Stromaufnahme hierbei durchaus interessieren.
Der Vorwurf der Parteinahme mag vielleicht nicht gerechtfertig sein, dennoch hinterlässt es einen faden Beigeschmack, wenn die modernste und (in der Leistungsklasse) sparsamste AMD-Karte genau bei so einem Verbrauchsvergleich nicht herangezogen wird.

Abgesehen davon: Wir sind ja nicht im Krieg :D: Also
Gute Besserung ;)
 
@rg88
Es war ja nu kein primärer "Verbrauchtest"
Igor hat die 4 stärksten Karten des Test gegengecheckt. Interessant sind die Werte der punktuell auftretenden, maximalen Leistungsaufnahme in einer extrem fordernen Benchmarkszene allemal. Aussage über den Verbrauch allerdings rein garnicht.
Es gibt in den Spielen Situationen, in denen eine Karte besonders gefordert wird. Normalerweise stellt man die Settings dann so, das die Grafik unauffällig (flüssig) wie möglich läuft. Logischerweise wird die GPU so maximal wie möglich belastet, das heiss aber nicht daß sie dann auch andauernd an ihre maximale Stromaufnahme kommt.

@Wolfang und Igor
Bitte,bitte,bitte (Beetlejuice,Beetlejuice,Beetlejuice...wenn mans dreimal sagt kommt doch auch was)
hängt doch mal einfach einen alten, meinetwegen ungeeichten Wechselstromzähler an die Teststation und notiert die angezeigten Wh.
Ihr seht doch auch, was für haarsträubende Hochrechnungen und daraus resultierenden "Unruhen" durch das weglassen eines sehr einfach aufzunehmenden Wertes entstehen. Damit wäre diese dämliche, andauernde Effizienzstreiterei belegt, denn selbst dem Dümmsten wird dann klar, das man sich wegen den paar Dollars nicht aufregen muss.

@MasterXTC
Das gibts, gleichmäßig verteilt, in beiden Lagern.
 
Zuletzt bearbeitet:
UltraWurst schrieb:
Nicht wirklich.
Die Grafik ist objektiv schlechter als bei Stacraft 2 und die Performance trotzdem schlechter (selbst mit DX12 noch).

Das ist doch jetzt nicht dein Ernst?
Du hast vielleicht einige Videos von früheren Versionen gesehen. Zudem fehlten bei Nvidia Grafikkarten, in den alten Versionen, die meisten Effekte. :)
Also die Grafik ist "objektiv" deutlich besser. Und spielerisch gefällt mir Ashes of the Singularity auch deutlich besser. Wirkt nicht so "altbacken".
 
Es geht ja nicht um den primären Energieverbrauch und vielleicht 10-20 Euro mehr oder weniger pro Jahr, sondern auch um die Gesamtkonzeption des PCs. Die 390X ist per se keine schlechte Karte, würde mich aber allein schon wegen der Wärme nerven, weil es für des Gesamtkonzept komplett andere Vorraussetzungen benötigt.
 
Zuletzt bearbeitet:
Hades85 schrieb:
Wenn ich mir die Benchmarks ansehe und dann die AMD CPU's mit Directx12 betrachte die beinahe genau so schnell arbeiten wie aktuelle i5, könnte man die These aufstellen das Intel und Microsoft gezielt AMD über die Jahre hinweg bewusst geschädigt haben. Directx12 und die Verbesserungen an Directx11 kamen erst dann zustande als AMD mit Mantle angefangen hat.


Nagel auf`m Kopp!

Man stelle sich die Geschichte mal vor, wie blöd Intel damals ausgesehen hätte wenn die Bulldozer ein wenig mehr "Unterstützung" erfahren hätte.

Das DICE an AMD rangetreten ist, war somit ein richtiger Glücksfall um endlich Bewegung mit der Mantle API in diese Situation zu bekommen und uns vor dem Kopf zu stoßen, das ein Großteil der PC-Käufer verarscht wurden...sehr ähnlich zu den P4 Zeiten.
Wer weiß, vielleicht gibt es von Intel in ein paar Jahren auch wieder ein kleine Gutschrift wenn sich herausstellt das sie bei ihrer "Leistung" etwas nachgeholfen haben. :rolleyes:


Viele Grüße,
stolpi
 
Zuletzt bearbeitet:
Hades85 schrieb:
Wenn ich mir die Benchmarks ansehe und dann die AMD CPU's mit Directx12 betrachte die beinahe genau so schnell arbeiten wie aktuelle i5, könnte man die These aufstellen das Intel und Microsoft gezielt AMD über die Jahre hinweg bewusst geschädigt haben. Directx12 und die Verbesserungen an Directx11 kamen erst dann zustande als AMD mit Mantle angefangen hat.

Klar, Microsoft bremst die eigenen Konsolen (AMD-Hardware) aus, weil die PS4 (auch AMD-Hardware) ja mal so gar keine Konkurrenz ist.
 
Speedchecker schrieb:
Klar, Microsoft bremst die eigenen Konsolen (AMD-Hardware) aus, weil die PS4 (auch AMD-Hardware) ja mal so gar keine Konkurrenz ist.

Häh?

Verstehst du überhaupt worum es geht?


Viele Grüße,
stolpi
 
kisser schrieb:
Nö, vielmehr Bullshit hoch zehn. Was können denn Intel und MS dafür, dass die Singlethread-Performance von AMD so grottenschlecht ist.

es ist nicht nur die SingleThread Leistung sondern auch Gameworks, wie einige Tests zeigen unabhängig jetzt vom Tressfaktor bricht die Performance unter Gameworks mehr ein bei AMD als es bei Nvidia tut, obwohl unter TressFx beide gleich per formen. Sicher hat AMD verschieden Probleme aber das ist ein Fakt.
 
kisser schrieb:
Nö, vielmehr Bullshit hoch zehn. Was können denn Intel und MS dafür, dass die Singlethread-Performance von AMD so grottenschlecht ist.

Vielleicht weil sie Geld verdienen wollen....?
DX 12 (Mantle&Vulkan) zeigt doch ganz deutlich das man jahrelang auf dem Holzweg war und die Kunden im Prinzip "gezielt" getäuscht hat.
MS hätte schon viel früher reagieren können wenn sie gewollt hätten...und ich will gar nicht wissen was passiert, wenn sich herausstellen würde das Windows 7 mit Vulkan flotter arbeitet als mit DX12 und Windows 10.
Wenn es so wäre, werden wir das aber bestimmt nicht mitbekommen...


Viele Grüße,
stolpi
 
Hades85 schrieb:
Wenn ich mir die Benchmarks ansehe und dann die AMD CPU's mit Directx12 betrachte die beinahe genau so schnell arbeiten wie aktuelle i5, könnte man die These aufstellen das Intel und Microsoft gezielt AMD über die Jahre hinweg bewusst geschädigt haben.
Klar ... man hat absichtlich kein DX12 gebracht, damit die Spiele auf AMDs langsamen CPUs nicht laufen. :rolleyes:
 
UltraWurst schrieb:
Klar ... man hat absichtlich kein DX12 gebracht, damit die Spiele auf AMDs langsamen CPUs nicht laufen. :rolleyes:


Komisch, wenn doch alles so tolle war, warum denn dieser DX 12 Streß?

Die Spieleentwickler haben wohl alle keine Ahnung...


Viele Grüße,
stolpi
 
Wenn man bedenkt das ms eigentlich kein neues dx mehr machen wollte. Naja naja. 😉
 
Zurück
Oben