Bericht Time Spy: 19 Grafikkarten im 3DMark für DirectX 12 im Vergleich

Zotac2012 schrieb:
Das munkelt man bei jedem Benchmark und jedem Game, wo Nvidia zulegt oder besser ist als AMD, da hat Nvidia immer seine Finger im Spiel und alle Entwickler geschmiert. Wenn AMD zulegt oder besser ist, dann liegt das immer an der Zukuntsweisende Technik und dem überragenden GCN, ist klar. Kommt aber überwiegend auch gerade hier im Forum immer wieder von den gleichen Usern und ist auf AMDBASE nichts Neues. ;)

Nein. Das munkelt man, wie in diesem Fall, wenn der Entwickler selbst beschreibt wie AC "genutzt" wird und dies ist nun einmal immer schön Kontextswitch freundlich und auf teufel komm raus nichts wirklich parallel zur 3D queue. Insofern ist es schon erstaunlich wie selbst hier AMD im vergleich zu Nvidia zulegen kann. Eigentlich ein Armutszeugnis für Nvidia.
Aber wie gesagt, immerhin bleiben in dem GPU Benchmark die AMD GPUs kühler als in den DX12 Spielen, ist doch auch ein Gewinn für AMD. ;)
 
Zotac2012 schrieb:
Das munkelt man bei jedem Benchmark und jedem Game, wo Nvidia zulegt oder besser ist als AMD, da hat Nvidia immer seine Finger im Spiel und alle Entwickler geschmiert. Wenn AMD zulegt oder besser ist, dann liegt das immer an der Zukuntsweisende Technik und dem überragenden GCN, ist klar. Kommt aber überwiegend auch gerade hier im Forum immer wieder von den gleichen Usern und ist auf AMDBASE nichts Neues. ;)

Klar und NVBase ist es dann bei der RX480 gewesen.. Ach Zotac sei doch mal Objektiv. Natürlich ist die AMD Technik stärker, schau dir einfach mal die Flops Leistung an und dann vor allem was an Computing Ballast mitgeschleppt wird. Auch wenn AMD die DP Leistung beschränkt, solange man mehr Shader und mehr Power auf den Die bringt ist die Karte Stärker. Mecker also lieber über die schlecht optimierten DX11 Treiber. Dennoch ist es bezeichnend wenn ein Benchmark das Gegenteil sagt als die DX12 Pfade der derzeitigen Spiele. Das musst selbst du als NV Fan zugeben. Und dann frage dich am besten mal wieso NV ihre Gameworks Lib bis heute nicht freigegeben hat und wieso nichtmal Entwickler Zugriff drauf haben?
 
Hab mal mein System (i5 3470, Fury X, Windows 10 1511 x64, Crimson 16.7.2) getestet (mit Standardeinstellungen, Auflösung sollte also 2,5k per VSR sein):

Overall: 4432
Graphics: 4908
G1 FPS: 34.00
G2 FPS: 26.75
CPU: 2862
CPU FPS: 9.62

Der große Unterschied gegenüber CB bei der Gesamtscore kommt wohl durch die CPU Wertung, die reinen Grafik-Tests verlieren nur wenig durch die schwächere CPU.

@CB: welche CPU Score hatte denn euer Testsystem? Wäre ganz nett wenn das auch im Artikel stehen würde.
 
janeeisklar schrieb:
Das liegt in der Art wie Futuremark AC nutzt. Es kommt der schwäche von Nvidia sehr entgegen und verhindert ein noch besseres abschneiden der AMD GPUs.
Naja, immerhin bleiben die AMD GPUs kühler als in den ganzen DX12 Spielen, ist aber lustigt das ein "Benchmark" sie nicht voll auslasten kann/will. ;)

Zeige doch bitte, wie Futuremark AC nutzt. Laut deren "Technical Guide" ist AC so implementiert, dass es AMD viel besser liegt.
 
Gute Argumentation. Muss ich sagen. Sehr ausgefeilt.

Du musst doch technisch erklären können, wie Futuremark Asynchronous Shaders(Compute) implementiert habe. Ansonsten wäre deine These, dass die Implementierung nVidia besser liegen würde, ja eine reine Lüge.
 
Ich glaube durch etwas sanftere Formulierungen könnte man sich einige nebensächliche Streitgespräche sparen.

Eigentlich geht es ja garnicht darum dass Time Spy auf Pascal zugeschnitten ist, denn wie man an den Ergebnissen sieht erledigen die AMD Karten den Async Compute Job dort tatsächlich noch etwas besser als ihre NVIDIA Pendants. Wenn es denn nun allerdings stimmt dass sich die Async Shader der AMD Karten während dem Benchmark 'langweilen' (Weil sie statt zwischen Berechnungen hin und her zu springen parallel arbeiten könnten) muss man sich aber schon über den Grund dafür Gedanken machen.
Denn ein 'Geschmäckle' hätte das doch definitiv...
 
Gibt es eine Möglichkeit herauszufinden, ob es eine sog. "Schummelsoftware" ist, oder nicht?
Denn bis jetzt gibt es von beiden Seiten nur Behauptungen.
 
Das wirst du nie rausbekommen solange furmark nichtden quellcode raushaust.
 
ampre schrieb:
Das wirst du nie rausbekommen solange furmark nichtden quellcode raushaust.

Was Futuremark noch nie getan hat. Wäre ja noch schöner ;) Ich erinnere nur an Antutu, das hat was von Prüfstandsfahrten :D
Wir warten am besten auf weitere DX12 Games und Pfade und dann machen wir uns ein Bild.. Aber dass eine 980Ti schneller als eine Fury X in DX12 ist das ist ne waschechte Lüge
 
von Schnitzel schrieb:
Gibt es eine Möglichkeit herauszufinden, ob es eine sog. "Schummelsoftware" ist, oder nicht?
Denn bis jetzt gibt es von beiden Seiten nur Behauptungen.

Wenn man sich Nvidias vergangenheit so anschaut wäre es schon fast unglaublich wenn es keine Mogelpackung wäre
 
AMD-Mafiosi schrieb:
Klar und NVBase ist es dann bei der RX480 gewesen.. Ach Zotac sei doch mal Objektiv. Natürlich ist die AMD Technik stärker, schau dir einfach mal die Flops Leistung an und dann vor allem was an Computing Ballast mitgeschleppt wird. Auch wenn AMD die DP Leistung beschränkt, solange man mehr Shader und mehr Power auf den Die bringt ist die Karte Stärker.
Also erstens habe ich leider nicht einen Objektiven Post von Dir gelesen, verlangst aber das ich Objektiv sein soll, das ist aber gar nicht möglich, weil ich hier meine persönliche Meinung wieder gebe, diese kann aber immer nur Subjektiv sein, da es mein Sicht der Dinge ist. Und selbst wenn AMD mehr Flops Leistung hat und mehr Shader muss es aber nicht Zwangsläufig die bessere Grafikkarte sein, wie man ja sieht und was sich auch im Umsatz von Nvidia widerspiegelt. Was Gameworks betrifft würde ich den Quellcode auch nicht frei geben, zumindest so lange nicht, bis es wenigstens auch auf Nvidia Grafikkarten wirklich rund läuft und nicht nur Leistung frisst und mehr bremst als ein geiles Feature ist. ;)
 
Ich meine ja nur, wenn man nicht den Prüfstand überprüfen kann, muss man des Auto, welches gerade auf dem Prüfstand getestet wird, beobachten.
Oder anders, gibt es nicht irgendwelche Geräte, die die Hardware auslesen können, während Sie gerade in Benutzung sind; so wie dies beim Hersteller während des schnellen Funktionschecks geschieht?

Edit:
OK, zugegeben, das ist ziemlich viel Aufwand, den sich wohl keiner machen wird ...
 
Zuletzt bearbeitet:
von Schnitzel schrieb:
Ich meine ja nur, wenn man nicht den Prüfstand überprüfen kann, muss man des Auto, welches gerade auf dem Prüfstand getestet wird, beobachten.
Oder anders, gibt es nicht irgendwelche Geräte, die die Hardware auslesen können, während Sie gerade in Benutzung sind; so wie dies beim Hersteller während des schnellen Funktionschecks geschieht?

Edit:
OK, zugegeben, das ist ziemlich viel Aufwand, den sich wohl keiner machen wird ...

gleiches Problem wie bei den Autoherstellern.. Alles immer mit einer gehörigen Portion Skepsis sehen. zuzutrauen wäre es den Hardwareherstellern. Siehe Intel Compiler als Beispiel

@Zotac:
Mhh also mich als Fanboy titulieren, nur weil dir meine Aussagen nicht passen? Niedlich
 
Sontin schrieb:
Du kannst probieren dem Futuremark "Benchmark Development Program™" beizutreten: [...]

OK, thx für den Hinweis. Dann geh ich mal schnell ein Technologie-Unternehmen gründen. Bis Mittwoch sollte ich dann drin sein. :evillol:
 
@AMD-Mafiosi
Interessant, ich habe nicht mit einem einzigen Wort irgendetwas oder irgendwen als Fanboy bezeichnet, ganz im Gegensatz zu Dir. Manchmal hilft es halt zu lesen und zu verstehen, dann ist es gar nicht Nötig etwas in einen Post zu interpretieren, was gar nicht vorhanden ist. Aber Deine Reaktion zeigt ja, das eine gewisse Tendenz vorhanden sein muss, Süss. :D
 
6700K und 2x 1080GTX MSI ohne OC

Gesamt: 10583
Grafik: 13234
G1: 86,73 FPS
G2: 75,51 FPS
CPU: 4958
CPU-Test: 16,66 FPS
 
Sontin schrieb:
Du kannst probieren dem Futuremark "Benchmark Development Program™" beizutreten: https://www.futuremark.com/business/benchmark-development-program

Dann erhälst du auch Zugriff zum Quellcode.

Oder aber man nimmt GPUView und erkennt, es läuft nichts parallel zur 3d Queue, es ist schlicht "nur" Nvidias Preemption Methode.

Ich würde dies nicht als "SchummelSoftware" oder so bezeichnen, nur ist der Benchmark imho nicht geeignet gerade diese 2 GPU Hersteller zu vergleichen.


EDIT---
Hat Nvidia jemals behauptet dass Compute- und 3d-Queue Parallel abgearbeitet werden können (je nach last der shader)? Gibt es einen link dazu?
 
Zuletzt bearbeitet:
Zurück
Oben