• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Far Cry Primal: Steinzeit-Grafik braucht Neuzeit-Hardware

-> 980 TI pre GameReady Driver (jeweils halt mal n Run machen lassen)

4k Ultra Preset


4k High Preset:


1440p Very High


Teste nun mal den neuen Treiber.

Edit. Telekom suckt. 2 von 16Mbit in der Rush Hour (17-22 Uhr), nachts / morgens kein Problem mit 15 Mbit. Super. :mad:

Edit: Interessanterweise sind die Ergebnisse in 1440p, gerade auch die min Frames mit GameReady Treiber zTdeutlich schlechter:

4k Ultra Preset


4k High Preset:


1440p Very High
 
Zuletzt bearbeitet:
NeoTiger schrieb:
Da würde ich doch mal sagen "FarCry: Primal" ist ein echt heißer Kauf-Tipp ... so in 2 Jahren, wenn man die entsprechende Hardware dafür hat und es als GotY für 20 Euro mit allen DLCs verramscht wird! :)

Wenn man die Einstellungen etwas runter schraubt sieht es meistens noch gut aus und läuft flüssig. Farben cry 4 läuft bei mir auch im Schnitt mit 80 FPS und ich habe nur eine 280X.
 
@Krautmaster

CB, bitte nochmal mit dem pre-game-rdy treiber benchen.:evillol:
 
max_1234 schrieb:
Kleine Randnotiz: AMD hält wieder 21.1% des dedizierten GPU Marktes: http://wccftech.com/nvidia-amd-gpu-market-share-q4-2015/
.. und 100% des Next-Gen Konsolen Marktes *hust*.

mfg,
Max

Ok das erklärt natürlich warum die konsolen nicht druchgehend mindestens 60 fps in full hd schaffen *doppelhust * :evillol: .
Interessant wird es wenn Polaris draussen ist wie schnell dann die Marktanteile rauf gehen bei AMD.
 
D708 schrieb:
Dennoch muss man auch mal anerkennen, vor den Furys hatte Amd richtig Stromfresser gebaut, im Gegensatz zu Nvidia.

Man muss aber auch anerkennen, dass Nvidia vor Maxwell auch Stromfresser gebaut hat :rolleyes: 250W GK110...
 
Dann sollte man auch anerkennen dass ein System mit einer R9 390 nur 60W mehr schluckt als eins mit der GTX970 - und dabei schneller ist.
Als auch, dass Hawaii Double Precision kann. Als auch der doppelte VRAM, der zusätzlich Strom schluckt. Als auch deutlich mehr GPU Computing Power. http://www.geeks3d.com/20140305/amd-radeon-and-nvidia-geforce-fp32-fp64-gflops-table-computing/

Effizient sind nur die GTX960 und die GTX980. Die am verbreitetsten Karte, also die GTX970, gehört definitiv nicht dazu.

mfg,
Max
 
schidddy schrieb:
ja der Stromverbrauch der 2 Karten war schon von jenseits von gut und böse. 700Watt bei Stock Clocks, 850Watt beide auf 1175mhz plus zusätzliche Volts. Hab jetzt ne Gaming G1 980ti die 1550mhz bei Stock Spannung macht. Stromverbrauch jetzt, knapp 500 Watt

Was muss man tun um mit einer 250W Karte auf knapp 500W Gesamt PC Verbrauch zu kommen? Selbst wenn ich meine R9 390 mit 1100 MHz takte zieht der PC nicht mehr als 380W. 1050MHz und undervoltet sinds nur gut 300W.
 
Relativ simpel, powerlimit auf 350/425 Watt erhöhen, Spannung jenseits der 1,2V anlegen - fertig.

Andererseits kannst du auch bei einem Volt dem Standardboost konstant fahren und die Karte zieht maximal 175 Watt. Und du hast dennoch (evtl. Sogar noch mehr) Ti @ Stock Leistung.

Selbiges Spiel kann man auch problemlos mit den Hawaii/Grenada Karten betreiben.
 
Vitec schrieb:
Ok das erklärt natürlich warum die konsolen nicht druchgehend mindestens 60 fps in full hd schaffen *doppelhust * :evillol: .
haha wie lustig der Witz.

TheOpenfield schrieb:
Andererseits kannst du auch bei einem Volt dem Standardboost konstant fahren und die Karte zieht maximal 175 Watt. Und du hast dennoch (evtl. Sogar noch mehr) Ti @ Stock Leistung.

Ach bist du es wieder? Der BIOS Flasher, Maxwell Undervolter?^^ naja jeder wie er möchte. Ich finde 250W mit Luft zu kühlen schon grenzwertig, das ist schon eine Menge Abwärme die aus dem Gehäuse geführt werden muss.

@Test ich finde wenn ihr schon (endlich) Custom Karten bencht, braucht ihr keine Referenzmodelle mehr. Das man die Diagramme übersichtlicher.
Was auch gut wäre: GIFs mit verschiedenen Grafikeinstellungen.
 
Ja, die 350 Watt sind mit dem morpheus zwar problemlos zu kühlen, die VRMs machen da schon eher Probleme. Und die Abwärme im Gehäuse sollte man natürlich nicht unterschätzen ;)

Naja, bin hier mal wieder viel zu OT. Wieder zurück zu Primal ^^
 
übrigens is die Grafik in Relation zum Rechenaufwand mies. Da sieht Battlefront bei 2x Framerate 10x besser aus.

Man sieht wieder schön wie die Engine / Qualität der Entwicklung einen 5x größeren Einfluss halt als DX11 / DX12 oder AMD / NVidia. Ohne gute Engine bekommt man eh nur Matsch auf den Bildschirm.
 
Zuletzt bearbeitet:
Warum nicht einfach die tatsächliche Auflösung wie beispielsweise 4096x2048 angeben? Unter Angaben wie 4K oder 2K kann man verschiedene Formate verstehen, teils ist die Angabe dann schlicht falsch, mindestens jedoch missverständlich. Mit der Angabe der tatsächlichen Auflösung muss auch keiner "QHD" oder sowas erst nachschlagen, das vereinfacht das Lesen und beugt Diskussion vor.

Die Benchmarks sehen insgesamt gut aus, wer viel Geld ausgegeben hat, bekommt auch entsprechend viel Leistung. Wer nicht zufrieden ist, muss eben woanders einen FCP Benchmark anschauen - dann passt's auch oft zu den eigenen Erwartungen :)
 
Winterday schrieb:
Warum nicht einfach die tatsächliche Auflösung wie beispielsweise 4096x2048 angeben? Unter Angaben wie 4K oder 2K kann man verschiedene Formate verstehen, teils ist die Angabe dann schlicht falsch, mindestens jedoch missverständlich. Mit der Angabe der tatsächlichen Auflösung muss auch keiner "QHD" oder sowas erst nachschlagen, das vereinfacht das Lesen und beugt Diskussion vor.

4k, UHD, QHD, FHD, HD, ... sind alles eindeutige Bezeichnungen. Erst wenn man davon abweicht sollte es konkret angegeben werden.
Alle die es wirklich interessiert kennen auch die Bedeutung hinter den Kürzeln.
Für alle andere ist zumindest bekannt, dass 4k und UHD ne hohe Auflösung haben und FullHD besser ist als HD. Mehr wollen die auch gar nicht wissen.
Denen ist doch wurst ob es nun 4096x2048 ist oder 3840x2160..
 
Wenn man sich z.B. an https://en.wikipedia.org/wiki/4K_resolution hält, dann gibt es zumindest zwei Auflösungen, die man als "4K" bezeichnen kann. Bei "QHD" und anderen Bezeichnungen meine ich, dass man diese nicht extra nachschlagen müsse - nicht jeder Leser weiss was für eine Auflösung mit z.B. "WQHD" gemeint ist. "Wurst" mag die exakte Auflösung wohl sein, aber man muss schon auch wissen, wo mehr Pixel drinstecken, damit ein Vergleich Sinn macht, oder nicht?

Insbesondere 4K wird oft und gern für Auflösungen benutzt, die nicht 4K entsprechen - eben weil's gut klingt. Gerade bei Benchmarks ist aber die tatsächliche Auflösung durchaus relevant.
 
Emphiz schrieb:
Ob er es einfach nur als "sein Setting" oder als "4K" bezeichnet, is mir eigentlich Schnuppe. Fakt ist, dass da viel Leistung vorhanden ist. Wieviel Pixel jetzt im Detail berechnet werden ist Erbsenzählerei...

Der Unterschied der zu berechnenden Pixel zwischen 3840x1648 & 3840x2160 beträgt 25%. Das ist keine Erbsenzählerei!
 
Ich würde mir noch ein paar Vergleichsbilder zwischen Pc- und Konsolenfassung wünschen.
 
Meine Hardware sollte das wohl wuppen können.

Aber ich habe noch keinen einzigen 'Far Cry'-Teil gespielt, vielleicht könnte das mein erster werden.

Abgeneigt wäre ich zumindest nicht.
 
TheOpenfield schrieb:
Die offizielle Bezeichnung für 2160p ist doch "4K UHD". Wenn man den DCI Standard meint, sagt man das idR.

3820 oder 4096?
 
Zurück
Oben