News Ashes of the Singularity: Neue DirectX‑12-Benchmarks mit AMD und Nvidia

sTOrM41 schrieb:
ihr seid spezialisten hey :D

was glaubt ihr eigentlich warum die roten in ashes dx12 verglichen mit dx11 so zulegen?

aus dem einfachen grund das in dx12 der overhead bei den roten nicht mehr vorhanden ist.

"Bekanntes Bild: AMD braucht mehr CPU-Takt als Nvidia"

DAs liegt aber nicht nur am Overhead, sondern auch an dem Frontend was bei AMD für höhere Auflösungen zugeschnitten ist und bei kleineren halt etwas bremst.
Und nur mit Overhead ist das nicht zu erklären, wie schon gesagt, denn unter höheren Settings rückt die Fury X einer GTX 980 Ti unter Directx11 auch nicht näher, AMD wird wie gesagt für Directx11 Pfad nicht optimieren.
 
Wie man's dreht und wendet. Wer vor knapp zwei Jahren eine ordentliche Custom R9 290 erworben hat, hat langfristig das beste Schnäppchen geschlagen. Leider war das damals noch nicht so ersichtlich.
 
Dai6oro schrieb:
Wen interessieren hier DX 11 Benches, wenn ein DX 12 Pfad zur Verfügung steht.


sTOrM41 schrieb:
vermutlich jeden der mit seinem pc mal nen dx11 spiel spielen will?
(was so ziemlich 99% der aktuellen spiele ausmacht)

Welch eine Logik! Damit du es auch verstehst: Dai6oro fragt (rhetorisch) wen DX11 interessiert, wenn das Spiel auch DX12 unterstützt, was - zumindest bei AMD - eindeutig besser ist. Du kommst dann mit der schlauen Antwort, dass man ja die DX11 Ergebnisse dieses extremen Benchmarks auf alle DX11 Spiele übertragen könne :freak:

Und dann durften natürlich ein paar pclab Links auch nicht fehlen. Lustigerweise wird diese ominöse polnische Seite nur(!) von Nvidia Fanboys verlinkt, eine Seite wo eine GTX970 25% schneller ist als eine 290X (GTA5). Hab mir mal eben 1 Minute den Nano Test angeschaut: in GTA5 1440p Fury X langsamer als GTX970 mini :lol: Jaja, wirkt extrem seriös usw ;)

erazzed schrieb:
Auauauau. Auch wenn ich derzeit eine 980Ti besitze, bin ich alles andere als ein Fanboy und wenn sich jmd. bzgl. Fanboy-Gehabe nicht beschweren darf, dann sind das die Nvidia-Fanboys.
Es stimmt zwar, dass AMD'ler oftmals eine etwas zu rosarote Brille aufhaben, aber wenn eine Gruppe penetrant rumnervt, dann sind das eher die Nvidia-Jünger... Da kann man nun als Nvidia-Fanboy auch ruhig mal ein bisschen Einstecken. Es gibt nun mal immer mal wieder den Zeitpunkt, an dem man auf den Boden der Tatsachen zurückgeholt wird.
Zu deinem zweiten Absatz braucht man eigtl. auch gar nicht weiter eingehen. Da ist der Shittrain dann vollends entgleist.
Wären alle Nvidia Fans so wie du, wären Computerforen und Diskussionen darin viel, viel angenehmer und sachlicher ;) Und der Grafikkartenmarkt möglicherweise ausgeglichener.
 
Zuletzt bearbeitet:
Ich vermisse vollständige Transparents.
Ich vermisse Neutralität.
Zu viel geschwurbel für diesen "Test" ...

MSAA, was schon nen paar Monate bei den Herrschaften bekannt ist, was bis jetzt noch immer nicht gefixt sein soll, soll nun Grund sein es nicht zu verwenden?
Nicht einmal gesondert und auch keine höheren Auflösungen bei 500-650€ Karten?
Was interessiert euch, was der Hersteller macht und nicht macht, um hier als Sprachrohr für diesen zu erscheinen? Das liest sich, als ob ihr irgendwas Rechtfertigen wollt, für wen eigentlich? Deren Job nicht euer. Euer Job ist vielmehr auf den Misstand hinzuweisen ( da dies schon länger bekannt ist und noch immer nicht gefixt sein soll ) und ihn nicht mit AC-Problemen und den netten Balken zu übertünchen und damit das Problem beschönigen.

Man kann mit dem Test nur Mutmaßen. Nichts nachstellen gar nichts. Lädt zum Bashen ( NV vs. AMD ) ein, mehr nicht.

Ich warte auf richtige Benches. CB hat mächtig nachgelassen.
 
Zuletzt bearbeitet:
Liebe computerbase-Redaktion, bitte bringt die P/L Ratings zurück in eure Benchmarks.
Das ist eine Information mit der man etwas anfangen kann, ohne selbst alle Modelle und Preise zu kennen.
 
Man sollte wohl wirklich erstmal warten, bis das Spiel released ist und dann auch fertig gepatched ist. Genauso wie die Treiber überhaupt erst mal stabil laufen. Das tut der Nvidia Treiber unter Windows 10 nämlich noch lange nicht. So einen miserablen Treiber von Nvidia habe ich seit den Anfängen von XP noch nicht erlebt.
Wenn man nur einen Monitor hat und keine Spielereien wie SLI, 3D Vision, G-Sync etc mag ja erstmal alles laufen, aber wehe da kommt ein Feature dazu dann hat man zur Zeit nur Probleme.
Wenn der Treiber mal so fertig entwickelt ist, wie unter Windows 8 mit DX11 und dann auch mal mehr als 1! Spiel mit DX12 auch wirklich finalen Stand hat, kann man nochmal vergleichen. Dann bitte aber mit 7XXer Karten, 9XXer Karten und weil bis dahin schon einige Zeit ins Land gegangen ist, dann auch mit den neuen 16/14nm GPUs.

Stand jetzt ist es mir wesentlich wichtiger, das Nvidia es endlich mal schafft, dass ich nicht bei JEDEM Systemstart von Rot/Cyan auf Shutterbrille umstellen muß, statt für ein Spiel was noch NICHTMAL BETA Status hat irgendwas zu optimieren, wobei es jetzt schon über 50fps schafft.
Ergänzung ()

r3dox schrieb:
Liebe computerbase-Redaktion, bitte bringt die P/L Ratings zurück in eure Benchmarks.
Das ist eine Information mit der man etwas anfangen kann, ohne selbst alle Modelle und Preise zu kennen.
Preis Leistung der letzte Mist. Das sagt weder aus, ob du mit der GPU spielbare Frames hinbekommst, noch ob die GPU in dein Budget passt.
Reine Milchmädchenrechnung ohne Information.
 
Jetzt wartet doch erst einmal ab, bis ein vollwertiger (nicht-Alpha) DX12 Titel wie Fable Legends erscheint. Ich würde mir (für den genannten, "günstigeren" Preis) sowieso kein AotS zulegen, aber das ist eben Geschmackssache, genauso wie Ubisoft Spieletitel (von denen ich auch keine besitze und mich auch nur wenige reizen würden).

Wie schon vorher geäußert kommt es darauf an wozu man eine Grafikkarte braucht bzw. welche Ansprüche man hat und welches Nutzerprofil. Im Prinzip haben Karten beider Hersteller in jedem Segment eine Daseinsberechtigung schon aufgrund sehr unterschiedlicher Feature-Bestückung/-Ausstattung, des Preises, des Energiehungers, der Abwärme, der Lautstärke und der Leistungsfähigkeit für spezifische Spieltitel. Dazu kommen dann noch die Kundenpolitik, die Produktpflege und der Marktanteil, welche für das Kaufen einer AMD oder nVidia Karte bei einigen eine Rolle spielen.

Natürlich gibt es einige, die immer das neuste von Neuen haben müssen und derzeit am liebsten alle FPS unter 4K auf Ultra spielen wollen, aber das liegt mir bspw. fern und ich bin schon zufrieden, solange ich RPG, RTS, MOBA, Weltraum- und Mech-Sims, Jump 'n'Run und (vielleicht noch am leistungshungrigen) Autorennspiele damit in für mich ausreichender Qualität (idealerweise high Settings) spielen kann. Wenn man sich eine GTX 980Ti/Titan X oder Fury X anschafft, dann sollte man auch das Geld haben sich die neusten Spieletitel bei Erscheinen zum Vollpreis zu kaufen und natürlich auch die Zeit zum spielen und zumindest zu ersterem bin ich nicht bereit, weil es mir das nicht wert ist und ich gerne ältere Titel Spiele während die neusten gehyped werden ... gut, Ausnahmen gibt es wie damals MWO sowie das kommende BattleTech und Bard's Tale IV, aber bei den letzteren beiden gab es ja glücklicherweise Kickstarter Kampagnen und bei ersterem verschiedene Founders Packages. Soviel von mir nur zu Sinn und Unsinn gewisser Grafikkartenklassen und -käufe, welches hier ja auch angeschnitten wurde.
 
Also ich werd gleich wohl geteert und gefedert aber um ehrlich zu sein find ich 72FPS für ne Highendkarte auf Medium Present ziemlich Entäuschent auch wenn das game nur ne Alpha ist.Die beiden haben so fett Werbung gemacht und Preisen jedes ihrer Modelle als das beste an,verkaufen sie für 100 von Euro und dann kommt das dabei raus.

Naja

Die Nvidia Karten taugen unter DX11 was aber unter DX12 sind beide nicht so der Hit meiner ansicht nach.
 
@Wardaddy

Hast du dir auch mal den Test angeschaut oder nur die Balken gesehen ?


Die meisten sehen hier nur Balken und FPS und meinen das wars mit DX12. Aber das war es nicht. Es kommen noch große Themen wie GPGPU aber wahrscheinlich auch HSA (bei der Konkurrenz natürlich mit anderen Namen).
Games werden immer mehr auf physikbasierende Engine basieren und in Strategiespielen wird die KI durch Asynchronous Compute hoffentlich auch endlich klüger. (Units bekommen hoffentlich bald eine bessere Wegfindung und mir kann keiner einreden, dass er das nicht will, auch wenn das eventuell in dem Game noch nicht vorhanden ist, wird das in zukünftigen RTS folgen).

Asynchronous Compute kann man noch für mehr Sachen nützten als nur mehr FPS. Ein gutes Beispiel liefert Liquid VR, was übrigens eine Auszeichnung bekommen hat.
Kann also gut sein dass die Fury X noch weiter an Performance dazugewinnt, wenn Asynchronous Shader für KI Berechnung und Physik Berechnung aushelfen kann, weil es muss nicht sein, dass hier die Fury X zu 100% ausgelastet ist. Das Spiel ist bekanntlich kein explizit optimiertes Game für Asynchronous Compute.

Aber wie heißt es so schön, der Mensch ist ein Gewöhnungstier und es dauert, bis auch der letzte merkt, dass in Zukunft mit der Strategie 2 Core Prozessor plus mehr IPC und Grafikkarte mit immer mehr 1000x Shader und fetteren SI allein nicht mehr die Performance rausgekitzelt werden kann. Die Software hat geschlafen und DX11 war ein Flaschenhals.

@CCIBS

Autovergleiche sind witzlos, weil du hier annimmst, du hast immer die selbe Straße vor dir (DX11). Wenn dann muss man eine Grafikkarte mit einen Panzer vergleichen.
Was bringt mir ein Radpanzer der bei den meisten Strecken schneller und Spritsparender unterwegs ist dann im Morast stecken bleibt und dann plötzlich langsamer ist, als ein Kettenfahrzeug ?

Da wir Software-Seitig in einen großen Wandel befinden, wird auch das eine große Rolle spielen und bedeutend sein, wie effizient eine Architektur ist. Denn eine stark optimierte DX11 Karte, kann dann plötzlich unter DX12 schlechter abschneiden, wenn etwas fehlt.
Klar, das Spiel ist nur ein Beispiel und kann nur als Implus in die Zukunft verstanden werden. Aber viele bezeichnen das Spiel als Beta, vergessen aber, dass nicht nur die Optimierung fehlt, sondern hier noch viele Features noch gar nicht umgesetzt sind, die dann ebenso von einigen Features profitieren können und dann gravierende Unterschiede aufzeigen.
 
Zuletzt bearbeitet:
r3dox schrieb:
Liebe computerbase-Redaktion, bitte bringt die P/L Ratings zurück in eure Benchmarks.
Das ist eine Information mit der man etwas anfangen kann, ohne selbst alle Modelle und Preise zu kennen.

Wenn aber dann schon richtig, wo alles mit einfließt. Leistungsaufnahme, Lautstärke usw. Denn nur Preis geteilt durch Framebalken ist witzlos. Wie wenn man bei einem Auto Preisleistung nur darauf beziehen würde, wie schnell es fährt.
 
Hier ist doch Leistungsaufnahme, Lautstärke, P/L Ratings usw. garnicht gefragt.

Es ist ein kurzer Treibervergleich.

Stimme aber zu: eine höhere Auflösung hätte noch mit getestet werden müssen.
 
pakichaggi schrieb:
Wie man's dreht und wendet. Wer vor knapp zwei Jahren peine ordentliche Custom R9 290 erworben hat, hat langfristig das beste Schnäppchen geschlagen. Leider war das damals noch nicht so ersichtlich.

Ich habe im juli von ner r9 290 auf 980ti aufgerüstet xD
 
pakichaggi schrieb:
Wie man's dreht und wendet. Wer vor knapp zwei Jahren eine ordentliche Custom R9 290 erworben hat, hat langfristig das beste Schnäppchen geschlagen. Leider war das damals noch nicht so ersichtlich.

das war schon bei der gcn1.0 ersichtlich ... es wollte nur keiner wahr haben ...
 
MaLow17 schrieb:
Soso Nvidia will also minderwertige Hardware mit Software nachreichen?

Computerbase schrieb:
Bei letzterem wurde MSAA per Hand abgeschaltet, da die Filterung laut Nvidia nicht korrekt funktioniert.

Und laut AMD? Schaltet ihr Nvidias GameWorks/PhysX bei euren Tests auch aus, weil es auf AMD-Hardware nicht richtig funktioniert?

/signed, wie weit ist es schon gekommen, dass diejenigen die sich für die Presse halten so etwas schon öffentlich schreiben?

Asynchronous Shaders funktionieren laut Nvidias letzten Statement übrigens in dem Spiel auch nicht, warum testet ihr in DX 12?...
 
Also manche Leute sind aber auch immer etwas schnell mit ihren Schlussfolgerungen.
Es gab doch schon in der Vergangenheit immer mal wieder Spiele, bei denen die Karten eines Herstellers total schlecht abgeschnitten haben, während sie beim anderen gut liefen.
Zum Teil hat das mit einzelnen Features zu tun (und nein, das sind nicht nur NVidia/AMD-Features), die offensichtlich aus irgendeinem Grund Probleme machen.

Ich glaube zwar auch, daß die AMD-Karten in DX12 besser performen werden, aber sicher kann man es allgemein eben nicht sagen.
Meine Vermutung ist ja, daß die Treiber von AMD tatsächlich einfach nicht so gut optimiert sind wie die von NVidia, weshalb sie unter DX11 einfach nicht so effizient arbeiten. Das würde auch erklären, warum man bei AMD eine deutlich höhere Rohleistung benötigt, um auf die selben Frameraten wie bei NVidia zu kommen.
Mit DX12 scheinen weniger "Tricks" nötig zu sein, um die volle Leistung der Karten abzurufen.
Das käme den AMD Karten dann natürlich zugute.

Ist aber nur Spekulation. Ob es wirklich so kommt, bleibt abzuwarten.
Aber es mag tatsächlich sein, daß NVidia seine Treiber so gut optimiert hat, daß sie aus DX12 einfach keinen so großen Vorteil schöpfen können wie AMD.
 
Wardaddy schrieb:
Also ich werd gleich wohl geteert und gefedert aber um ehrlich zu sein find ich 72FPS für ne Highendkarte auf Medium Present ziemlich Entäuschent auch wenn das game nur ne Alpha ist.Die beiden haben so fett Werbung gemacht und Preisen jedes ihrer Modelle als das beste an,verkaufen sie für 100 von Euro und dann kommt das dabei raus.

Naja

Die Nvidia Karten taugen unter DX11 was aber unter DX12 sind beide nicht so der Hit meiner ansicht nach.

Was erwartest du? Garantierte 120fps auf Medium? Welches Medium? Medium ist immer relativ. Man wird auf keine Karte "Garantiert 120fps in allen Spielen auf Medium" drauf schreiben können. Hängt viel von der Ausgangsbasis ab, wie der Entwickler "Medium" definiert, Optimierungsgrad etc. Ein Medium in Crysis war schon immer Anspruchsvoller als in das COD im gleichen Zyklus. Zudem kommt noch, dass sich aktuelle und künftige Spiele am momentan technisch machbaren orientieren. Steigt der Liestungsdurchschnitt, steigt der Anspruch, so dass sich der Leistungsvorsprung egalisiert. Ist nun aber auch keine neue Entwicklung, dass neue Spiele aktuelle Hardware ausreizen.
 
Meist wird das post processing (ssaa und msaa) über async compute realisiert/beschleunigt. Komischerweise hat genau beim msaa NV einen "bug". ...
Ashes soll laut Entwickler sowieso nur 5% Async compute nutzen. Daher sieht man vorallem den Effekt des reduzierten Overheads.
Bin gespannt wie bei den kommenden Games die Performance aussieht wenn das Post processing quasi umsonst bei AMD läuft. Dann benchen alle seiten sicher ohne ssaa...
 
Naja, er hat schon Recht. Wobei die Schuld hier nicht bei NVidia und AMD zu suchen ist.
72fps im Durchschnitt bedeutet in den allermeisten Fällen, daß man nicht mal stabile 60fps hinbekommt. Und das mit den derzeit schnellsten Grafikkarten auf "Medium" Settings ... trotz DX12.

Für ein Spiel, das bald rauskommen möchte, ist das absoluter Murks.
 
Das bei solchen News immer die u18 Fraktion hervor kommt, die für zuviel Geld Grafikkarte X aus Lager X gekauft hat und jetzt das eigene Liebchen verteidigen will.

Foren sind schön :)
 
Zurück
Oben