• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
  • ComputerBase erhält eine Provision für Käufe über eBay-Links.

Test Far Cry New Dawn: Ordentliche Grafik bei guter (Vega‑)Performance

Baya schrieb:
eigentlich ist das ganz ordentlich finde ich....

Komm von Arbeit und war bei meinem Sohnemann gerade mal schauen, er zockt es schon das ganze WE begeistert. Das läuft mit einem A10-5800k und einer RX 480 in Full HD sehr ordentlich und sieht auch sehr gut aus mMn.

Habe mir allerdings nur das Spielen selbst angeguckt und nicht seine settings oder die FPS.
 
Darf beim Spielstart immer wieder neu die Untertitel ausschalten, geht das noch jemandem so?
 
NutzenderNutzer schrieb:
..
im Gegenzug zu manchem BF oder Assassins Creed werden hier gar nur 40 Euro veranschlagt oder 45 statt grad noch mal 60 wie bei nem BF wo man eben 30 Jahre früher optisch den selben Mist spielt

Wobei Battlefield auch deutlich länger gespielt wird als so ein Spiel. Und FarCry5 fand ich schon recht langweilig. Deshalb werde ich mir Dawn auch erst im Sale für unter 10 Euro kaufen.
 
Chismon schrieb:
Die RTX2080Ti wäre auch okay für maximal 550 Euro, kostet sie aber nicht (sondern in den Flaggschiffvarianten fast das Dreifache) und hat auch nur 11GB GDDR6 Speicher :lol:...
Jetzt sind wir beim Preis der 2080 TI schon bei 1650,-€?
Da merkt man leider wie tendenziös einige Deiner Posts verfasst sind...
 
  • Gefällt mir
Reaktionen: KlaraElfer und kisser
Thommy-Torpedo schrieb:
Darf beim Spielstart immer wieder neu die Untertitel ausschalten, geht das noch jemandem so?

Ja, das Problem tritt bei mir auch auf.

Scheint wohl einen Patch nötig zu haben.
 
  • Gefällt mir
Reaktionen: Zitterrochen
iNFECTED_pHILZ schrieb:
Wobei Metro ja ein richtiger GameWorks Titel ist, bei dem es anzusehen war, das Nvidia besser läuft.
Eiegntlich nicht mehr. AMD hat seine Schwächen ausgebügelt und die Gameworks Effekte nehmen den aktuelleren AMD Karten prozentual genausoviel FPS wie den NVIDIA Karten.

z.B.
http://m.hardocp.com/article/2018/05/24/last_gen_games_max_iq_perf_on_todays_gpus/5

Das mit "kann ja nichts mit den AMD Karten werden, da Gameworks Effekte genutzt werden" ist inzwischen ein alter Hut.
Bei den größeren "Blockbustern" ist es zudem eher die Regel als die Ausnahme, dass die Hersteller sich frühzeitig in die Entwicklung und Optimierung einbringen dürfen.
Auch bei einem Titel der Gameworks Effekte nutzt, darf AMD optimieren.

Das war auch bei Witcher 3 der Fall, wo AMD betont hatte von Anfang an in die Entwicklung miteinbezogen worden zu sein.
2 Monate vor Release kam man dann wohl auf die Idee, ob man nicht statt Hairworks doch lieber Tressfx noch mit einbauen sollte, weil Hairworks damals in den Standardeinstellungen die Leistung einiger Grafikkarten (alte NVIDIA, aktuelle Version der Radeons) unnötig runtergezogen hat.

Das war dann einfach zu knapp....
Jetzt ist die Frage, ob das Problem bei so einer Vorgehensweise bei NVIDIA oder CDPR zu suchen ist, oder ob AMD da nicht eher versäumt hat, frühzeitig TressFX als Alternativtechnologie integrieren zu lassen.

Den schwarzen Peter da immer nur Richtung NVIDIA zu schieben, ist in dem Fall zu z.B. zu kurz gegriffen.

LG
Zero
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Eiegntlich nicht mehr. AMD hat seine Schwächen ausgebügelt und die Gameworks Effekte nehmen den aktuelleren AMD Karten prozentual genausoviel FPS wie den NVIDIA Karten.

z.B.
http://m.hardocp.com/article/2018/05/24/last_gen_games_max_iq_perf_on_todays_gpus/5

Das mit "kann ja nichts mit den AMD Karten werden, da Gameworks Effekte genutzt werden" ist inzwischen ein alter Hut.

LG
Zero
Auf wen der Finger jetzt zeigen muss, können wir ja nur erahnen. In Metro schafft ne V7 ja mit ach und Krach ( viel krach) gegen eine 2070 zu kontern. Das das nicht der erwartbaren Leistung entspricht zeigen ja diverse Tests. Liegts an schlechten Treibern, an GameWorks oder einfach nur ner großen Schwäche der Architektur bei dieser Engine?
So Sachen wie in crysis 3 wo unterm Level nicht sichtbar übertrieben viel tesseliert wurde und AMD sehr stark federn gelassen hat vergisst man halt nicht so schnell. Trotzdem wäre es unfair ggü. Nvidia hinter jedem Feature auch gleich ein bewusstes blockieren von AMD zu wittern, da bin ich bei dir :)

Geben wir der vega noch ein bisschen Zeit zu reifen und nvida ihre RTX/DLSS aus dem beta Status zu holen.. Momentan sind die Performanceergebnisse und optischen Resultate viel zu inkonsistent um da ein echtes Fazit schließen zu können.
 
iNFECTED_pHILZ schrieb:
So Sachen wie in crysis 3 wo unterm Level nicht sichtbar übertrieben viel tesseliert wurde und AMD sehr stark federn gelassen hat vergisst man halt nicht so schnell. Trotzdem wäre es unfair ggü. Nvidia hinter jedem Feature auch gleich ein bewusstes blockieren von AMD zu wittern, da bin ich bei dir :)
Das ist eben auch meine Einstellung. Erstmal nichts Böses und keine Absicht unterstellen. Auch Fehler können immer mal wieder passieren.

Zu Crysis 3 und der Tesselierung - Urban myth.

Siehe:
https://www.computerbase.de/forum/t...uer-aber-mit-16-gb-hbm2.1854039/post-22278826

Das Zitat von Crytek zum "Tesselation- Gate":
The wireframes may look overtessellated, but it's the nature of the technique. Also, wireframe mode has no culling - you can see everything behind anything in wireframe mode, including the ocean. It doesn't necessarily mean you can see these things in normal mode. I hope everyone takes this into account when they're judging tessellation in wireframe mode.

Genau deshalb betone ich immer wieder, wie vorsichtig man sein muss, wenn man irgendjemandem gegenüber einfach Anschuldigungen raushaut, ohne das fundiert belegen zu können.

@cyberpirate
Nö, hat er nicht. Sind nämlich 1050,-€
https://www.idealo.de/preisvergleic...eforce-rtx-2080-ti-jet-11gb-gddr6-inno3d.html

Deswegen auch die Unterstellung "tendenziös". Bei der ungeliebten Marke immer gleich mal das schlechteste Extrem "cherrypicken".

Kannst auch über 1000€ für ne VII ausgeben, wenn Du willst:
https://www.ebay.de/itm/EP-T0006-Ra...ss-X16-3-x-DisplayPort-1-x-HDMI-/173786375154

Macht halt aber keiner.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und Zitterrochen
Normal müsste die R7 in jedem Game die Leistung abliefern. Aber nun gut schauen wir mal was die Zukunft bringt. Für 600€ + guter Custom Kühler und ich bin vielleicht dabei.
 
Zuletzt bearbeitet:
Also in coop macht finde ich das FC:ND echt spass :) hab es das we über mit nem Kumpel gedaddelt bis zur vergasung :D Ich für mich Persönlich finde es "Gut" :)
 
SKu schrieb:
DICE hatte aber zuvor eine Partnerschaft mit AMD und da kam z.B. auch die Mantle API für Battlefield 4 auf den Markt. Battlefield 5 nutzt eben bislang exklusive Nvidia-Features aber im Kern ist die Frostbite Engine von DICE zusammen mit AMD groß geworden. Es ist also nicht verwunderlich, dass AMD hier stark performt. Das war schon bei älteren Battlefield Teilen so.

So gut wie AMD in Battlefield performt, so schlecht performt AMD aber z.B. bei Spielen mit Unreal Engine.

..und hiermit bist du nun mit @iNFECTED_pHILZ endlich einig.
Alles was er sagen will, ist das eine moderne Engine, auf beide Hersteller optimiert, auch auf beiden Herstellern gut performt.
Dunia und Frostbite .. wobei Frostbite noch viel besser auf mehr Kerne skaliert als Dunia, die scheinbar im Evolved Programm auf die Features von Vega zurechtgeschnitten wurde.

So wird überall ein Süppchen gekocht, anstatt die Engines direkt und offen, auf alle GPUs anzupassen.

Da muss man @Volkimann einfach Recht geben. die 25 % AMD User, sind eben da ... diese einfach fallen zu lassen ist irgendwie Mode. Da ist Dunia und Frostbite das hervorzuhebende Gegenbeispiel.
 
  • Gefällt mir
Reaktionen: Alphanerd und iNFECTED_pHILZ
Macht auch alleine Bock:)
Hab's am WE fast durchgespielt, musste mich etwas bremsen,da die Story selbst schon recht kurz ist.
Mir macht das Loot-System und das leveln von Waffen etc. echt Spaß. Über die Map kann ich mich nicht beschweren, die wurde größtenteils schon sehr gut verändert / überarbeitet.
Es ist halt wieder absolut abgedreht und crazy, Story find ich jetzt net mal sooo schlecht. Einfache Unterhaltung ohne großartigen Tiefgang. Gefällt mir aber auch so, ich habe keine Lust mehr mich stundenlang in eine Story einzulesen oder nachzuforschen, was , wie warum so ist...
Einschalten und abgehen :utripper:

P.S. Ich kann die hier am Anfang genannten "Nachladeruckler" nach gut 20 Stunden Spielzeit nicht nachvollziehen.
Ich habe mit meiner Hardware meist so um die 100fps und das Game läuft absolut smooth.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zitterrochen
Rage schrieb:
@das_mav Warum keine Vega Frontier oder Radeon VII? Das sind Prosumerkarten die für CAD zu gebrauchen sein sollten.

Beide Karten (die VII in jedem Fall, siehe mi50) sind in Doppelter Genauigkeit beschnitten, die braucht man aber bei digitalen Aufmaßen. Warum weiß nur der Hersteller (warum beschnitten meine ich). OGL4 wird vom Programm supportet und läuft erheblich smoother wenn man da was gescheites reindrückt und keinen Bugattimotor mit Rasenmäherleistungsdaten, auch das kommt mit "mehr" fp64flops fast schon exponentiell besser zurecht. Am Ende soll es "gut" aussehen - und nicht verfranst oder "Hachja 3*7 ist heute 20,89".

Für VR "Boah, hübsche Fische" reichen die sicher.
Für Kunden, die gerade auch deswegen entscheiden bei dir min 25k€ und mehr zu lassen sieht das aber anders aus ;)
 
ZeroZerp schrieb:
... sind wir beim Preis der 2080 TI schon bei 1650,-€?
Da merkt man leider wie tendenziös einige Deiner Posts verfasst sind...

Das hat mit tendenzioes ueberhaupt nichts zu tun, da ich schrieb (fuer die Flaggschiffausgaben der RTX 2080Ti) fast das Dreifache (3 x 550 Euro = 1650 Euro) und wenn Du Dir die einfach 'mal die Muehe machst bei den Haendlern zu schauen, liege ich damit sogar noch unter den aktuellen Bestpreisen fuer die 2080Ti Topmodelle einiger Hersteller:

https://geizhals.de/kfa-geforce-rtx-2080-ti-hall-of-fame-28iulbucv6dk-a1918995.html?hloc=at&hloc=de

https://geizhals.de/evga-geforce-rt...-11g-p4-2489-kr-a1962583.html?hloc=at&hloc=de

https://geizhals.de/asus-rog-strix-...90yv0cc3-m0na00-a1942110.html?hloc=at&hloc=de

Ergo, am besten genau lesen, was ich schrieb und zuerst informieren, bevor Du mir tendenzioese Absichten unterstellst ;).

Dagegen ist die Radeon Vega VII aktuell preis-leistungs-technisch schon vergleichsweise moderat angesetzt mit derzeit maximal 789 Euro in der teuersten Ausfuehrung.

https://geizhals.de/gigabyte-radeon-vii-hbm2-16g-gv-rvega20-16gd-b-a1983268.html?hloc=at&hloc=de
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: yummycandy und agent-orange
@Chismon
Tendenziös deswegen, weil Du gleich den Preis einer Flagschiffvariante nehmen musst, um der Diffamierung maximalen Vorschub zu leisten.

Du hättest auch ne normale Custom für 1090,-€ nehmen können, die bis auf ein par % die gleichen Leistungswerte liefern kann.

Dagegen ist die Radeon Vega VII aktuell preis-leistungs-technisch schon vergleichsweise moderat angesetzt mit derzeit maximal 789 Euro in der teuersten Ausfuehrung.
Es gibt nur eine, was das Setzen eines "Standards" gegen eine High- End- Custom Karte, in ein tendenziöses Licht rückt.

Grüße
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer, kisser und yummycandy
ZeroZerp schrieb:
@Chismon ... deswegen, weil Du gleich den Preis einer Flagschiffvariante nehmen musst, um der Diffamierung maximalen Vorschub zu leisten.

Du hättest auch ne normale Custom für 1090,-€ nehmen können, die bis auf ein par % die gleichen Leistungswerte liefern kann.

Es gibt nur eine, was das Setzen eines "Standards" gegen eine High- End- Custom Karte, in ein tendenziöses Licht rückt.

Es gibt alleine 2 Flaggschiffvarianten/Boardpartner (eben nicht nur eine/n), die weit oberhalb von 1650 Euro liegen (ca. 1000 Euro mehr wird da verlangt als fuer die aktuell teuerste Radeon Vega VII Modellvariante, wenn das nicht exorbitant ueberteuert ist, dann weiss ich auch nicht).

Ich bezog mich in meinem Originalpost aber auf die Topmodelle (Stichwort maximal), somit, wie zuvor erwaehnt, erst einmal in Ruhe lesen/ruhig Blut und wenn das nennen der Maximalpreise (was ich ja eben nicht bewusst unterschlagen hatte) von Dir schon als tendenzioes ausgelegt wird, mein lieber Schwan :rolleyes:.

Des Weiteren werden das bei den beiden Varianten von KFA2 und EVGA sicherlich deutlich mehr als ein paar % sein, die dabei im Gegensatz zu den "Billig"-RTX 2080Ti herausspringen, von der deutlich besseren Komponentenqualitaet ganz zu schweigen.
 
Zuletzt bearbeitet:
iNFECTED_pHILZ schrieb:
Auf wen der Finger jetzt zeigen muss, können wir ja nur erahnen. In Metro schafft ne V7 ja mit ach und Krach ( viel krach) gegen eine 2070 zu kontern. Das das nicht der erwartbaren Leistung entspricht zeigen ja diverse Tests. Liegts an schlechten Treibern, an GameWorks oder einfach nur ner großen Schwäche der Architektur bei dieser Engine?.....

Könnte es bei Metro nicht auch an der starken Tessellation liegen? Die zieht schon gut an der Framerate und war doch bisher nie AMDs Stärke.

Zumindest könnte ich es mir vorstellen dass der Impact dadurch zustande kommt.
 
KuroSamurai117 schrieb:
Könnte es bei Metro nicht auch an der starken Tessellation liegen? Die zieht schon gut an der Framerate und war doch bisher nie AMDs Stärke.

Zumindest könnte ich es mir vorstellen dass der Impact dadurch zustande kommt.
Wäre zwar wieder ein snitchy "Game Works optimized move " aber denke da kann man den Aluhut im Keller liegen lassen. Die engine von Metro lief noch nie besonders auf AMD, warum sollte sich da plötzlich groß was ändern?
Eventuell kommt ja noch was mit Treibern, würde aber nicht mehr als 10% im Schnitt erwarten.
 
Zurück
Oben