• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Forza 7 Benchmark: Vega hat mehr Benzin im Blut als Pascal

@Offtopic
Wusste gar nicht, dass mein Beitrag "umfangreich" war. Ebenso stand er nicht direkt vor deinem.

@Thema
flow-diagram8.gif

Dann ist es eben der Compiler, der bei AMD einen Strich durch die Rechnung macht.

Entschuldige, dass ich mich mit meinem laienhaften Wissen was die Datenverarbeitung ENGINE-> API -> GPU -> Monitor unglücklich ausgedrückt habe.
 
Inwiefern soll der Compiler ein Problem sein?

Das ein Treiber die Aufrufe der API auf die Hardware umsetzt ist ja nun genau seine Aufgabe.

Vielleicht machst du dir doch mal die Mühe und postest die Quelle deiner Behauptungen.

kisser schrieb:
Eigentlich nur eine aufgehübschte GCN-Architektur, um es mal in deinen Worten zu sagen.

Vega ist mehr als zb ein aufgehübschter Maxwell mit DX12 Fix.

"Almost all parts of the graphics engine inside Vega are new. In addition to the next generation compute engine it also features a new pixel engine and a new geometry engine. The cache and render-back-end sub-systems are also completely revamped."

http://wccftech.com/amd-vega-architecture-detailed-variable-width-simds-confirmed/

So nicht lieber kisser :)

Anscheinend hat AMD ein bißchen zu viel neu gemacht...
 
Zuletzt bearbeitet von einem Moderator:
Der Grund für das schlechte Abschneiden ist schnell gefunden: Die AMD-Grafikkarten werden in Project Cars nicht richtig ausgelastet. Während bei Nvidia die GeForce GTX Titan X und die GeForce GTX 980 vom Hauptprozessor nur leicht ausgebremst werden, werden AMD-Karten deutlich stärker von der CPU limitiert. Die „GPU Usage“ variiert nur zwischen 40 und 70 Prozent – dementsprechend bleibt viel Leistung auf der Strecke. Die einzige Abhilfe ist, einen schnelleren Prozessor einzusetzen. Doch viel schneller als ein auf 4,4 GHz übertakteter Core i7-4770K ist nicht möglich.

Es ist davon auszugehen, dass der Verursacher dieses Verhalten in der DirectX-11-API zu suchen ist, genauer gesagt im API-Overhead, der durch zu viele Zeichenaufrufe entsteht. Dann arbeitet die CPU zwar am Limit, kann die Grafikkarten aber dennoch nicht richtig auslasten. Nvidia trickst diesbezüglich bereits seit längerer Zeit im Treiber und hilft so entsprechend kritischen DirectX-11-Spielen auf die Sprünge. AMD tut dies jedoch nicht, sodass Radeon-Karten bei für die DirectX-11-API zu vielen Drawcalls in Schwierigkeiten geraten. Die Vermutung stützt sich durch die Benchmarks in höheren Auflösungen. Dort kommen die Radeon-Produkte deutlich näher an die Konkurrenz heran, da die GPU durch die zusätzlichen Pixel besser ausgelastet wird und die Anzahl an Drawcalls nicht ansteigt.

Wer nun als Schuldiger anzusehen ist, ist nicht so einfach geklärt. Auf der einen Seite muss sich AMD Kritik gefallen lassen, da der Catalyst-Treiber anders als das GeForce-Pendant bei zu vielen Drawcalls nicht eingreifen kann. Auf der anderen Seite hat der Entwickler die Limitierungen von DirectX 11 offensichtlich völlig ignoriert und wenig Wert auf eine gute Radeon-Performance gelegt. Beides darf eigentlich nicht passieren.
Q: https://www.computerbase.de/2015-05/project-cars-guide-grafikkarte-prozessor-vergleich/2/

So ziemlich das gleiche in Grün nur andersrum wie bei Forza 7.

Und wenn du WTFTech als Quelle angibst :freak:, dann hier: Haste n YT-Video https://www.youtube.com/watch?v=nIoZB-cnjc0

Bin auf deine Quellen bei der Gegenargumentation gespannt.
 
tek9 schrieb:
IVega ist mehr als zb ein aufgehübschter Maxwell mit DX12 Fix.

"Almost all parts of the graphics engine inside Vega are new. In addition to the next generation compute engine it also features a new pixel engine and a new geometry engine. The cache and render-back-end sub-systems are also completely revamped."

http://wccftech.com/amd-vega-architecture-detailed-variable-width-simds-confirmed/

So nicht lieber kisser :)

Anscheinend hat AMD ein bißchen zu viel neu gemacht...

Das stimmt so aber auch nicht ganz. Ja Vega10 hat ein bisschen größeres Facelift hinter sich als Pascal, aber das war auch mehr als überfällig, da NVidia schon mit Maxwell auf Tile-Based Rasterizing umgestiegen ist.
Andere Veränderungen an der Architektur betreffen hauptsächlich den Takt, FP16 und ein paar weitere eher kleinere Neuerungen, die NVidia ebenfalls bereits seit Maxwell oder jetzt mit Pascal umgesetzt hat.
Was die reine Architektur anbelangt würde ich mal behaupten, dass sich NVidia und AMD schon lange nicht mehr so nah waren.

Jetzt kommt ein Spiel auf den Markt (das offiziell noch nicht mal erschienen ist), und AMD Karten schneiden besser ab als NVidia Karten. Eigentlich kein großes Ding, weil es auf allen mehr als gut läuft. Dennoch schlagen sich hier ale die Köpfe darüber zusammen. Zum einen wäre es wohl nicht das erste Spiel, das selbst nach Erscheinen noch etwas Feintuning benötigt. Zum anderen ... wen juckt sowas bitte? Solange ich Forza mit 4k und voller Grafikpracht ruckelfrei genießen kann ist doch alles gut und das geht auch auf meiner 1080Ti, selbst wenn sie in diesem einen Fall mal langsamer sein sollte als eine Vega64. Herzlichen Glückwunsch an alle Vega64 Besitzer! Wenn sich die Situation nicht mit Treiber- oder Spiele-Updates ändert und ihr eure Grafikkarte nur für dieses Spiel gekauft habt, habt ihr ein echtes Schnäppchen gemacht ... für 600€.
 
@Shelung

Hab kein Geld dafür :D.
In ein paar Monaten hol ich mir schon nen 1080p Monitor mit Free Sync.
Und ja, du hast recht was PUBG angeht.
Das einzige was bei höheren Grafiken wirklich "besser" aussieht, sind die Player Models, Schatten und Mauern.
 
Artikel-Update: Wie vor dem Wochenende bereits angekündigt, hat ComputerBase den Artikel um weitere Benchmarks zum Einfluss der CPU auf die Leistungsfähigkeit im CPU- sowie im GPU-Limit erweitert. Interessant ist, dass Intel bei den FPS, AMD wiederum bei den Frametimes vorne liegt. Darüber hinaus fällt auf, dass nur AMD von mehr als vier physischen Kernen profitieren kann, während Intel sogar Leistung verliert. Die Ergebnisse finden sich am Ende des Artikels im neuen Abschnitt „Intel führt bei FPS, AMD bei Frametimes (Update)“
 
ein Schelm, der denkt man verkneift sich absichtlich ein klares FPS-Diagramm der Grafikkarten(ja, ein simples)? nvBase wird langsam ein Begriff...
 
Ich weiß nicht was du willst, auf der zweiten Seite sind doch alle Diagramme zu den Grafikkarten.
 
Die min-fps (stellvertretend durch 99%+ fps Grenze) und die avg fps zeigen doch schön, dass die fps bei Vega 1.) weniger tief "in den Keller gehen" und 2.) Vega gleichmäßigere Frametimes produziert - also auf Vega smoother läuft!
Warum?
99% fps höher und avg fps niedriger als bei nvidia. Daher, der "Korridor" in dem sich die fps, also die frametimes bewegen ist schmäler als bei nvidia. Damit sind die Unterschiede zwischen min und max geringer und das game daher smoother.
Also Doppelsieg für AMD!
Aber es gibt immer noch Leute die auf den avg Balken ONLY schauen :rolleyes:

MfG
 
So einen Test sollte man auch mal für PUBG machen, würde gefühlt das gleiche rauskommen.
 
Poor KabyLake, Poor Pascal. Nicht Poor Volta aber immerhin die anderen.
 
frkazid schrieb:
Bin auf deine Quellen bei der Gegenargumentation gespannt.

Es gibt keine Gegenargumente da ich kein verbissener Fanboy bin.

Ich wollte lediglich wissen wo du das aufgeschnappt hast.

Was deine Geschichte mit "Software Emulation" zu tun hat, ist zwar immer noch nicht klar, aber Wayne. Jeder macht das was er kann. Irgendwas raus zu hauen und anschließend was ganz anderes als Beleg für die eigene Argumentation zu posten ist halt nicht wirklich glaubwürdig.

Gute Argumentationsketten basieren auf Erläuterungen und Fakten. Beides ist hier eher selten ;)
 
Zuletzt bearbeitet von einem Moderator:
VAN DOOM schrieb:
sie bringen es einfach nicht fertig anständige Hardware zu liefern die von Anfang an einfach anständig läuft

das nvidia monopol war kurioserweise die antwort auf die dominante zeit von ATi/AMD zur ära der hd4000 und hd5000 karten. amd war nvidia mit den HD5000 karten in allem überlegen - außer höchster stromverbrauch, höchste anschaffungskosten und längster balken einer single-chip karte (mit der brechstange) - das hat dann die gtx480 für sich beansprucht. die ATi/AMD karten waren effizienter, günstiger, in einem moderneren verfahren gefertigt und unterstützten die neusten software (direct x) features.

und die konsequenz daraus war, das nvidia eine generation später zum absoluten marktführer wurde, weil die leute blind nvidia kaufen. nichts, was amd heute macht, kann sie wieder in eine so starke position wie damals bringen. auch wenn amd die software besser im griff hätte, amd war und ist niemals eine alternative für den mainstream. das geheule von wegen "wäre amd besser, würde ich nicht nvidia kaufen" ist heuchelei auf höchstem niveau - die vergangenheit hat gezeigt, dass amd nichtmals dann gekauft wird, wenn sie tatsächlich überlegen sind. ob vega jetzt mehr oder weniger konkurrenzfähig ist, juckt im bezug auf die marktposition von nvidia null.


VAN DOOM schrieb:
@Über mir
Lasst euch mal andere Ausreden einfallen als das ständige Gameworksgeheule.:rolleyes:

nein, weil der softwareeinfluss bei GPU gaming workloads extrem groß ist. nvidia hat sich alleine durch die software eine generation vorsprung verschafft. damit amd nvidia schlagen kann, müssen sie mit navi drei generationen überspringen, bzw einen 4 generationen sprung schaffen: eine für den enormen leistungssprung von maxwell auf pascal, eine für volta, eine um die titan karten zu schlagen und eine für gameworks.

gameworkssysv2.gif


aber in einer welt, in der die brot und butter gpu polaris 10/20 in der steam hardware survey in anteilen nur knapp über der gtx1080 ti liegt, ist weder genug marktdurchdringung für eine flächendeckende optimierung, noch genug geld für so eine entwicklung da. die gtx 1060 liegt hier um den faktor 13 vorne - also es haben 13 mal mehr spieler auf steam eine gtx 1060 wie eine polaris 10/20 und praktische jede andere nvidia gpu bis auf die 1080ti und titan hat eine größere verbreitung. polaris10/20 war schon immer gleichwertig / etwas besser als die gtx 1060 - wieso haben wir hier ein verhältnis von 13:1 und nicht 2:1 oder 1,5:1?

http://store.steampowered.com/hwsurvey/videocard/
 
Vormals wurde immer behauptet die Frametimes machen das Spielgefühl aus...

...und jetzt sind die Frametimes bei Nvidia deutlich schlechter als bei AMD, aber trotzdem ist das Spielgefühl bei Nvidia deutlich runder? Na dann könnt ihr euch die Frametimes-Messungen in den H... stecken, weil sie NULL Aussagekraft haben.
 
Und wieder zeigt sich das Durchschnitts FPS ein grauenvolles Kriterium zum bemessen einer CPU in Games sind.

Wenn CPU A im Durchschnitt 10% mehr FPS liefert als CPU B, 99% davon aber 10% langsamer als CPU B dann spricht das eigentlich Bände über den "Mehrwert" von CPU A und den Frameverlauf.

Ich hätte auf jedenfall lieber CPU B in der Kiste.

Wer das anders sieht darf mir gerne erklären warum ....
 
AMD beschäftigt halt zu wenig Schönschreiber in reichweitenstarken Foren ;)

Im Fachjargon nennt man das auch virales Marketing...
 
@Computerbase

Wäre es nicht sinvoll den Test mit Ryzen 1800x zu wiederholen als mit dem Intel System, wenn hier nicht mehr als 4 Kerne genutzt werden bei Ryzen aber alle 8?
 
@Ned Flanders
Noch nicht gewußt das 5 Buchstaben immer besser sind als 3? :freaky:
Der Rest dient doch eh nur zur Vermittlung der Botschaft. ;)
 
Zurück
Oben