• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Forza 7 Benchmark: Vega hat mehr Benzin im Blut als Pascal

Taxxor schrieb:
...

Aber sowieso gefällt mit Hairworks in Witcher 3 überhaupt nicht, ich finde die Haare sehen sogar realistischer aus ohne.
Hairworks rechts.
Anhang anzeigen 644411

...

Hast du die Screenshots gemacht? Gerade bei den Haaren macht mMn ein höherer Tessellation Faktor sehr viel aus.

Ich finde auch, dass Geralts Haare ohne Hairworks besser aussehen. Die Felle der Tiere hingegen gefallen mir mit Hairworks deutlich besser.
 
SKu schrieb:
Das Problem an deiner These ist, dass sie bereits mit diesem Titel hier wiederlegt wird. Die GTX1080 Ti verliert prozentual von FullHD auf 4K wesentlich weniger als Vega und setzt sich dort auch wieder an die Spitze. Abwarten was Nvidia als Patch hinterherschiebt. Wenn ich mich recht entsinne, war DX12 bei Rise of the Tomb Raider auch ein Problem für Nvidia. Das wurde auch im Nachhinein gepatcht.

Dass meinte ich letztens damit, dass Nvidea kein DX12 kann.
Wenn die Entwickler diesbezüglich nur mal aus den Puschen kommen würden.
 
II n II d II schrieb:
Hast du die Screenshots gemacht? Gerade bei den Haaren macht mMn ein höherer Tessellation Faktor sehr viel aus.

Ja habe ich, aber in dem Video von AdoredTV hat man ja den Unterschied bei Geralts Haaren gesehen zwischen 8x, 16x und 64x und er war im Grunde nicht vorhanden.
https://youtu.be/O7fA_JC_R5s?t=8m10s
 
kumpert schrieb:
Warum verliert Vega so stark an Vorsprung in höheren Auflösungen?

Weil Nvidia in niedrigen Auflösungen im cpu-Limit hängt. Und das in einer API, welche die cpu/ overhead entlastet soll. Tja wenn man da mal nicht den Fortschritt blockiert....

Früher hat man Tesslation gehypt. Nun sind die Anhänger mit dx11 wunschlos glücklich. Wie es gerade so passt.
 
Zuletzt bearbeitet:
In dem Screenshot sind Geralds Haare aber kastriert. Hairworks ohne Tessellationsbegrenzung sieht deutlich besser aus als das in deinem Bild.

Bei mir ist das ein Welten Unterschied bei Witcher ob ich x16 nehme oder einfach nicht begrenze.
 
Shakyor: Ich habe es auch mal auf x64 gestellt und genau wie im video sieht es zu x16 ziemlich gleich aus.
Es waren lediglich noch etwas dichtere Haare, was aber auch nur in solchen Nahaufnahmen auffällt.
 
Zuletzt bearbeitet:
cyberware schrieb:
Dass meinte ich letztens damit, dass Nvidea kein DX12 kann.
Wenn die Entwickler diesbezüglich nur mal aus den Puschen kommen würden.

Das wird erst passieren, wenn der Hersteller, der die größten Anteile besitzt auch Interesse daran hat. Solange es mit DX11 reibungslos funktioniert, gibt es gar keinen Grund für DX12.
 
Inxession schrieb:

gut ist relativ. Mir wäre hohe Leistung ab Start lieber, und würd das auch gern bezahlen ;)

"Beim Kunde reifen" nennt sich auch Bananenprodukte.
 
II n II d II schrieb:
Hast du die Screenshots gemacht? Gerade bei den Haaren macht mMn ein höherer Tessellation Faktor sehr viel aus.

Ich finde auch, dass Geralts Haare ohne Hairworks besser aussehen. Die Felle der Tiere hingegen gefallen mir mit Hairworks deutlich besser.

Schließe mich mal an. Ich hatte alles auf Sehr hoch - und Texturen sogar auf Ultra. Trotzdem fand ich die Struktur und das "Fallen" der Haare ohne HW viel entspannter anzusehen. Klarer Fall von einer Verschlimmbesserung, vielleicht kann man es in Zukunft besser implementieren.
 
Zuletzt bearbeitet:
Oder er dazu mal langsam gezwungen wird, wenn man durch vermehrte Beispiele sieht, dass alle Spieler bei DX 12 profitieren. Und das eben nicht mit properitären Techniken. Bleibt zu hoffen, dass da langsam mal mehr Publisher aktiv werden. nVidia muss sich nicht bewegen. Die Publisher müssen es. Und nVidia muss reagieren.
 
Laut den Entwicklern ist das SPiel auf die optimale Nutzung von nur einem Kern auslegt,

http://extreme.pcgameshardware.de/n...-nur-einen-cpu-kern-voll-aus-absichtlich.html


kein Wunder das bedingt dadurch der geringere Overhead unter DX12 zum tragen kommt und die Nvidia OPtmierung auf die Verteilung auf alle Kerne nichts ausrichten kann.
Die Begründung für diese Verhalten ist auch sehr eigenartig,zumal das ganze unter den Konsolen sicher so nicht gegeben ist, dank deren schwacher Singlecore Leistung
 
interessant ja auch wie gut sich da UWP wohl macht? Ich weiß noch wie man die ersten Titel zerrissen hat weils unausgereift war. Und nun mit DX12 und adaptiver Technik dich gar nicht so ungeil.
 
BlubbsDE schrieb:
Oder er dazu mal langsam gezwungen wird, wenn man durch vermehrte Beispiele sieht, dass alle Spieler bei DX 12 profitieren. Und das eben nicht mit properitären Techniken. Bleibt zu hoffen, dass da langsam mal mehr Publisher aktiv werden. nVidia muss sich nicht bewegen. Die Publisher müssen es. Und nVidia muss reagieren.

Wenn ich mir die Steam-Charts ansehe, dann sind das entweder kleine Entwicklerbuden (Bluehole z.B.) und die Leute fahren teilweise auf Early Access Software mehr ab als auf alles andere oder aber bereits ältere Titel wie GTA von Rockstar, die begehrt sind. Und die großen Pusbliher so wie EA und Ubisoft haben zumindest bei einzelnen Titeln ihr Direct X 12 nachgereicht, auch wenn es nichts in der Praxis gebracht hat. Und warum sollten die Entwickler nun ausschließlich auf Direct X 12 setzen, wenn der größte Teil der Kunden wahrscheinlich Nvidia GPUs verbaut hat - allein schon wegen OEM.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
"Beim Kunde reifen" nennt sich auch Bananenprodukte.

Oder es ist wie bei nVidia:

Der Kunde wird knallhart belogen indem man mit voller Hardwareunterstützung für DX12 wirbt, sie aber erneut wie schon bei Maxwell belügt.
Ergänzung ()

Andregee schrieb:
Laut den Entwicklern ist das SPiel auf die optimale Nutzung von nur einem Kern auslegt,

http://extreme.pcgameshardware.de/n...-nur-einen-cpu-kern-voll-aus-absichtlich.html


kein Wunder das bedingt dadurch der geringere Overhead unter DX12 zum tragen kommt und die Nvidia OPtmierung auf die Verteilung auf alle Kerne nichts ausrichten kann.

Falsch. Diese Aussage wurde schon widerlegt. Die Entwickler haben sich selbst zu Wort gemeldet und erneut verkündet das Forza7 alle Kernen nutzen wird, die man ihm entgegenwirft.
 
Um Bewegung in den nVidia Stillstand zu bringen. Die weitaus meisten nachgeptachten DX 12 Renderpfade waren ja nV freundlich. Und die waren unnütz, ja. Es geht auch anders. Das sieht man jetzt bei Forza und sieht man bei iD. Ist doch egal, wie die Marktsituation aussieht. Legt man eben DX 11 und 12 dem Spiel bei.
 
Aldaric87 schrieb:
Falsch. Diese Aussage wurde schon widerlegt. Die Entwickler haben sich selbst zu Wort gemeldet und erneut verkündet das Forza7 alle Kernen nutzen wird, die man ihm entgegenwirft.

ES wurde überhaupt nichts widerlegt.

De facto wird damit der offensichtlichste Vorteil von DirectX 12, die bessere CPU-Auslastung, absichtlich nicht genutzt. Nachdem das Thema hochkochte, hat Microsoft gegenüber wccftech.com Stellung bezogen. Forza Motorsport 7 nutze alle zur Verfügung stehenden Kerne aus, seien es vier oder 16. Das ist durchaus korrekt, jedoch limitiert die Priorisierung eines einzelnen Kerns so stark, dass die zusätzlich so gut wie keine Vorteile bringen. Auch hier die originale Stellungnahme
 
BlubbsDE schrieb:
Die weitaus meisten nachgeptachten DX 12 Renderpfade waren ja nV freundlich.

ROTTR ist ein gutes Beispiel, zumindest wenn man davon ausgeht, dass das Spiel von Nvidia gesponsort wird. Aber, schaut man sich genauer um, gehts eigentlich nicht darum was Nvidia sponsort, sondern eher darum wie DX12 überhaupt eingebaut wird, vor allem wenn nur nachgereicht. Verbuggt bis zu geht nicht mehr. Oder ohne DIE DX12 Features überhaupt zu nutzen. Da kann man genau so gut bei DX11 bleiben... Weil so bringt DX12 gar nichts.

Apropos NV freundlich... So kann man das auch nicht unbedingt sagen. Im Vergleich zu AMD ja, aber die NV Karten verlieren bei solche nachgepatchte DX12 Spiele ebenfalls an Leistung, wenn halt deutlich weniger.

Wenn man natürlich voll auf DX12 eingeht und DX11 sogar weglässt, dann MUSS es besser werden. Kann man ja nichts unspielbares auf dem Markt bringen.
 
Zuletzt bearbeitet:
Aldaric87 schrieb:
Oder es ist wie bei nVidia:

Der Kunde wird knallhart belogen indem man mit voller Hardwareunterstützung für DX12 wirbt, sie aber erneut wie schon bei Maxwell belügt.

klar, aber ändert ja an meiner Aussage nichts. Das mit DX12 war ja schon bei Fiji / GTX 980 TI in aller Munde, und wie die jetzt abschneidet sieht man ja. Da machen die 4GB auch oft nen Strich durch die Rechnung. Da bin ich auch mit halbgarem DX12 mit der 980 TI richtig gefahren. Gerade auch OC.

Aktuell ist Forza die positive Vega Ausnahme. Das ist gut, man weiß aber nicht wie es in einem Jahr aussieht. Ob die nächsten Titel eher dem klassischen Parcour entsprechen oder nun Vega durch die Decke geht wird sich zeigen. Ist hat ein bisschen was von Poker.

Edit.

@ CB

Wie ist denn die GPU Auslastung bei euch?

http://www.gamestar.de/artikel/forz...matischer-start-gute-optimierung,3320139.html
Mit den gleichen Einstellungen und 4K/UHD-Auflösung zeigt sich eine Geforce GTX 1080 Ti immer noch deutlich unterfordert, sie wird nur zu rund 70 Prozent ausgelastet. Der Videospeicher ist mit 5,4 GByte Texturen gefüllt, der Bedarf an Arbeitsspeicher steigt auf 8,9 GByte an.

Edit2: Okay war wohl durch das FPS Limit im damaligen Test.
 
Zuletzt bearbeitet:
Natürlich. Aber ich sagte ja schon im CPU Forum zu dir:

Vega ist nicht so schlecht wie die ersten Benchmarks aussahen. Die Karte ist halt voll auf DX12 ausgelegt und kann ihre Leistung entfalten wenn sie genutzt werden. Das hat in dem Fall Forza7 hier beeindruckend unter Beweis gestellt.

Raja Koduri sagte ja aber auch, dass Vega sehr auf den Computing Bereich ausgelegt wurde und versprach Besserung für den Gaming Bereich für die nächsten GPU's. Für Vega soll es vor allem auch auf Software-Seite noch Verbesserungen geben.

Es ist halt auch schade das DX12 oft noch Stiefmütterlich behandelt wird, dabei ist es ausnahmsweise wirklich ein großer Fortschritt.

Da kann man ja mal gespannt sein auf Battlefront 2. Die neue Version der Frostbite Engine soll ja auch "eine richtig gute" DX12 Nutzung aufweisen, ob es stimmt sieht man ja bald.
 
dass bei Vega mehr nachreifen wird als bei jeder andere Karte am Markt sollte klar sein. Aber wie viel bleibt eben ein Pokerspiel. Rein von den Rohdaten müsste sie auch in UHD in jedem Spiel vor der GTX 1080 TI liegen, da gehört Vega hin. Wenn sie das in recht kurzer Zeit, sprich den nächsten Blockbustern, zumindest ab und an schafft - dann steht Vega schon deutlich besser da.

Ausnahme Titel gabs aber schon immer. Und bei Forza scheint etwas komisches aktuell zu limitieren. Allein die nur 25% von der GTX 1070 zur GTX 1080 TI in FHD sollten das einem klar machen.

Forza 7 gehört wohl auch zu den Titeln die man in einem Monat nochmal durchtesten sollte.
 
Zurück
Oben