Test Mafia 2 im Benchmark: Das Actionspiel sieht gut aus und läuft schnell

Unyu schrieb:
Können, aber nicht gemacht.

Das Problem ist, dass das Können quasi 500 Euro kostet. Da hört der Spaß nebst Machen für 99% der User auf.
 
HighEndKlaus schrieb:
"Dass Mafia 2 nur die DirectX-9-API nutzt, hat einen Vorteil, denn selbst ältere Grafikkarten können das Spiel in der maximal möglichen Qualität wiedergeben. Es gibt aber einen großen Nachteil: Aufgrund der Programmierung der Illusion-Engine kann in dem Titel kein normales Multi-Sampling-Anti-Aliasing genutzt werden – das wäre nur unter Nutzung der DirectX-10- oder DirectX-11-API möglich. "

Dort ist von MSAA die rede.. im treiber gibbet glaub auch nix anderes als min^^

schön das es leute gibt die den artikel erst lesen und dann diskutieren und danke für das zitat
 
Es gibt also keine möglichkeit AA zu nutzen nach lesen der ganzen Kommentare, stimmt das so? Schon mal ein Manko plus daß das Game aussieht wie Max Payne (was es irgendwie auch wieder symphatisch macht) und echt ne miese Performance liefert auf meinem System. Na gut, ist eine Demo aber so ganz Zeitgemäß ist die Grafik dann doch nicht. Kommt mir vor wie GTA 4 in einer Zeitkapsel :D. Hatte ehrlich gesagt mehr erwartet, mal sehen wie das fertige Game wird.
 
AMD soll seine eigene Physik Engine bauen/kaufen. Dann können sie damit machen was sie wollen.
Solche Kommentare liest man oft. Aber genau das ist das Problem.

Nvidia und ATi haben doch im Grunde das gleiche Interesse: den PC gegenüber Konsole als Spielesystem wieder besser aufzustellen (damit ihre Karten besser weggehen).
Wenn jeder sein eigenes Süppchen kocht ist das deshalb für alle schlecht.
Für PC-Spieler, für Herseller und auch für AMD/Intel/Nvidia.

Die Entwickler scheuen die immense Optimierungsarbeit und fokusieren sich vernünftigerweise lieber auf Konsolen. Konsolenportierungen haben dann schlechte Performance.

Es MUSS einen einheitlichen Standard geben. Da verwehrt sich Nvidia leider noch. Aber irgendwann werden Sie es auch einsehen.
 
Es gibt also keine möglichkeit AA zu nutzen nach lesen der ganzen Kommentare, stimmt das so?
AA Ingameschalter.;) Selbst 8*SGSSAA sowohl von Nvidia und ATI greift nicht richtig.

Ansonsten wäre DS wahrscheinlich die einzigste Möglichkeit, die wirklich 100% auf die ganze Szene greift.
 
noxon schrieb:
Aber bleiben wir beim Thema:

Ich habe noch einmal mein Video auf YouTube hochgeladen in dem ich mal ein wenig die PhysX Engine in Mafia 2 ausgereizt habe. Ich würde gerne mal sehen, wo das die Crysis oder Havok-Engine besser kann, wie das hier schon ein paar mal behauptet wurde.
Mafia 2 PhysX Tests


von den hardwareanforderungen auf jeden fall, sieh dir mal 3dmark2001 an, Far Cry2, Dead Space, Bad Company 2

keiner hat so wirklich lust, soviel rechenleistung zu verlieren, diese effekte kann man auch vielleicht nicht ganz physikalisch korrekt wie mit HardwarePhysX mit viel weniger rechenpower darstellen

ich meine in deinem video hast du dauernd daneben geschossen, ich habe das beim spielen eigentlich nicht vor, wäre es in Havok programmiert würde es fast genauso aussehen und auch NV besitzer es besser geniessen können

Havok macht es also meiner meinung nach mit den Hardwarevorraussetzungen besser, PhysX ist was für Hardwarefreaks die immer irgendwas neues suchen
Ergänzung ()

bartio schrieb:
Es MUSS einen einheitlichen Standard geben. Da verwehrt sich Nvidia leider noch. Aber irgendwann werden Sie es auch einsehen.

Microsoft wird mit DirectX sowieso siegen, wenn die Physik in DirektX implementieren wird jede Firma das Nachsehen haben
 
schön zu sehen der Test - aber Prozentrechnen könnt ihr nicht?

Abschnitt PhysX-Benchmarks Teil zwei: wenn die GTX 480 95% einbußt, dann hätte sie statt 92,2 nurnoch 4,6 FPS geliefert.
Was ihr meint ist dass die GTX 480 ohne PhysX um 95% schneller rechnet - oder sie verliert auf mittel 49% Leistung. Das ist ein doch recht gewaltiger Unterschied zu den von euch propagierten 95%.

mfg
 
KLynch schrieb:
Was mir aufgefallen ist:

1. Das Spiel fühlt sich unter 50fps (besonders unter 40) verdammt ruckelig an.

2. Die FPS schwanken manchmal um 20 Bilder pro Sekunde! Manchal 20 mehr, dann wieder in der selben Szene weniger. Hat jmd. ähnliches beobachtet?

Mfg,

zu 1: hast du Vsync an?

zu 2: habe ich auch ein meter weiter und direkt 10 fps mehr, berichten viele leute
 
y33H@ schrieb:
CPU-PhysX wird für's Gameplay benutzt, so wie Havok. GPU-PhysX für mehr Effekte. Bitte differenzieren, denn PhysX ist nicht gleich PhysX.

Nur macht bei havok keiner Wirbel darum, so manche von nvidia genannte Zahlen die Physx promoten sollen stammen von den Spielen die Cpu Physx nutzen, sei es noch so banal eingesetzt. Die GPU-Varinante bringt hier garnix, nur mehr Schutt zum aufsammeln.
Da war Cryostasis ja besser :lol:

y33H@ schrieb:
Und wenn doch Havok angeblich alles besser kann - warum zur Hölle wird's dann nicht genutzt? Weil den Devs PhysX offenbar besser gefällt, es mehr Optionen bietet, besser supportet wird oder sonst was. PhysX ist verbreiteter als Havok und das sicher nicht, weil NV jedem Dev Geld rüberschiebt :rolleyes:
Du kannst unter DX9 (fast) alles rendern, was unter DX10/11 auch geht. Nur mal so am Rande.

Weil nvidia das einbaut? Einfach fragen, dann kommen die gleich angerannt, mit karten werfen die ja auch um sich.
Was glaubst du warum die Cryengine auf dieses grandiose Physx verzichtet? Und das obwohl Crytek sagt sie haben das bestreben immer die beste Engine mit der besten Grafik zu haben?
Die würden sich über dieses Feuerwerk aus sinnlosen bröseln die da rumfliegen, der peinlichen feuer und explosionen (bei der Brennerei) sicher totlachen.

Darüber hinaus wird die neue Cryengine dafür sorgen das Konsolenports sich wie echte PC-Titel spielen werden und so aussehen werden. Das bringt den Markt mal wieder nach vorne und nen Vorteil für den Kunden.


y33H@ schrieb:
Und noch eins zum Thema OpenCL: Physik per OpenCL? Darauf wirst du noch lange warten. Die Entwickler nutzen eher DirectCompute, etwa für TB Deferred Shading, MLAA oder Post-Effekte wie Depth of Field.

Wer wie was nutzt ist deren Sache :rolleyes:

y33H@ schrieb:
@ Schaffe89

Tja, dein Flame ist nicht gerade diskussionsfördernd :freak: Wenn ich schon "Machenschaften" lese - was hat NV denn verbrochen? Du kriegst Konsolen-Optik, so wie sie der Entwickler vorgesehen hat oder eben per GPU-PhysX mehr Effekte. Sehr böse ...

Das bezieht sich auf die Wettbewerbsverzerrenden Maßnahmen, wie dieses Entwicklerprogramm dessen kryptische Abkürzung ich mir nicht merken kann und den Einbau von Physx.

Nvidia gibt Karten raus, hilft dabei die Engine darauf zu optimieren, wobei öfter mal für ATI suboptimiert wird und obendrein baut man dann noch kostenfrei oder mit extra versüßungen ein extra exklusiv Feature wie Physx ein um damit die eigenen Verkäufe anzukurbeln.

Das schadet dem fairen Wettbewerb :rolleyes:
 
Airbag schrieb:
AA Ingameschalter.;)
Das grottig teure und mies aussehende Ingame AA gehört so so schnell wie möglich deaktiviert.
AA wird im Treiber forciert, mit dem Jericho AA Bit 000D02C4. MSAA, TAA, SGSSAA geht, mit OGSSAA gibts Probleme.

Nachteil ist nur der imense Preis, imho ganz im Gegensatz zu Apex.
 
SGSSAA geht nicht, weil man die AA Bits nur über den nHancer auswählen kann,der nicht kompatibel zu den 2xx Treiber ist. Wenn man SGSSAA will ,muss man einen nHancer inkompatiblen Treiber verwenden.
Und auch 8*SGSSAA flimmert, wie gesagt.

edit:
Okay vielleihct mit dem Inspector Tool möglich. :)
 
Zuletzt bearbeitet:
Nicht nur vielleicht. :)
nHancer ist "lediglich" benutzerfreundlicher, als der Inspector.
 
Microsoft wird mit DirectX sowieso siegen, wenn die Physik in DirektX implementieren wird jede Firma das Nachsehen haben

Und wieder so ein Fachmann der den Unterschied zwischen API und Engien nicht kennt.

Nvidia und ATi haben doch im Grunde das gleiche Interesse: den PC gegenüber Konsole als Spielesystem wieder besser aufzustellen (damit ihre Karten besser weggehen).

Es geht nur darum seine eigenen Karten zu verkaufen und solange es Spiele geben wird die PhysX nutzen hat nVidia ein zusätzliches Verkaufs-Argument. Natürlich ist es nicht toll für die User, die müssen sich halt entscheiden was sie wollen. Ich hätte auch gern wieder Mainboards mit nVidia-Chipsatz, aber ist halt nicht weil AMD und Intel keine Konkurrenz haben wollen und das mit allen Mittel umsetzen, nichts anderes macht nVidia auch.
 
Zuletzt bearbeitet:
Maik.x schrieb:
Ich hätte auch gern wieder Mainboards mit nVidia-Chipsatz aber ist halt nicht, weil AMD und Intel keine Konkurrenz haben wollen und das mit allen Mittel umsetzen, nichts anderes macht nVidia auch.

Wo ist da jetzt bitte eine parallele? Nvidia hat sich einfach aus dem Chipsatzmarkt zurückgezogen.
Oder lässt AMD Nvidiagrafikkarten mit ihren Chipsätzen nicht laufen?
Solche vergleiche sollen dann immer dazu dienen sich irgendwas schönzureden.
Ob die Vergleichbarkeit einen Sinn macht ist völlig irrelevant.
Das sind verschiedene paar Schuhe.
 
@Kartenlehrling
Die Leute bei Gamestar haben sich wenigsten getraut auch eine ATI-Combo zu testen.

HD5850+gt9600 zum vergleich einer gtx460+gt9600

Grundlage für das Testsystem sind ein Core i7 965 mit 3,20 GHz und 6,0 GByte Arbeitsspeicher.
Guter Vergleich, wirst du auf CB nicht finden. Hier werden ATIs lieber ohne 2.Karte immer wieder mit den gleichen fps "getestet", obwohl die Zeit zum Testen immer so knapp ist.

Bei einem Kollegen gabs regelmäßig Sekundenhänger mit Soundschleife ( wie damals bei VIA oder auch Gothic3). tritt sonst bei keiner Anwendung auf.
Egal ob mit oder ohne PhysX.

Mafia2: Grafik finde ich gut, Performance und Gängeleien grottig. kommt so defintiv nicht in Sammlung.

@y33
PhysX ist verbreiteter als Havok und das sicher nicht, weil NV jedem Dev Geld rüberschiebt .
Was ist da sicher? Du weißt weder was NV wem bezahlt, noch was die großen Vorteile von Physx für die Entwickler sind. Es läuft bescheiden u verschwendet jede Menge Leistung, das ist offensichtlch.
Mafia2 war schon lange vor Physx in der Entwicklung, es wurde mMn kurzfristig reingequetscht was die Performance auch zeigt. So und das ohne zutun von NV? wohl kaum.


Edit: @y33H@

"Wenn, dann wurden die APEX-Effekte nachträglich eingebaut - bitte differenzieren!"

Differenzierung erfolgt. Es geht um die APEX Eff. bei Mafia2, nicht um "Physik" im allgemeinen
 
Zuletzt bearbeitet:
NV müsste ständig Millionen rüberschieben, was schlicht unwahrscheinlich bei den vielen Entwicklern, die sie angeblich kaufen.
Ölpest schrieb:
Mafia2 war schon lange vor Physx in der Entwicklung, es wurde mMn kurzfristig reingequetscht was die Performance auch zeigt.
Nö, Illusion Softworks (heute 2k Czech) hatten schon 2006 angekündigt, PhysX zu verwenden, als es noch Novodex hieß und Ageia gehörte. Und wie willst du die komplette Physik kurzfristig reingequetschen? :lol: Wenn, dann wurden die APEX-Effekte nachträglich eingebaut - bitte differenzieren!

@ Wattebaellchen

AMD hat ein TWIMTBP-ähnliches Programm, Intel ebenfalls. Und für PhysX entscheiden sich ja wohl eher die Entwickler, niemand kann sie dazu zwingen - schließlich gibt's noch Havok, Bullet und Co.. Aber offenbar ist PhysX nicht schlecht, die Bibliothek wird seit Jahren genutzt, sie gehört gar zum IPP der UE3 - und Epics UE3 dürfte wohl eine der besten Cross-Platform-Engines am Markt sein, vor allem ist sie sehr sehr weit verbreitet. Und nur weil Crytek die CE3 in den Markt wirft, wird aus einem mit Fokus auf die Konsole entwickelten Titel kein PC-Spiel, gewisse Änderungen und Limitationen bleiben nicht aus. Und dann erkläre mir doch bitte, was an dynamischen Partikel und Debris sinnlos ist? DAS ist Physik.
 
Weder wird die Kombo "PhysX"-Karte mit ATI offiziell unterstützt (dazu kommen teils deftige Probleme, sobald es neue Treiber gibt usw.), noch zeigen die Threads hier, dass es einer würdigen würde. Stattdessen kommen dann Geflame, man würde hier ja Nvidia bevorzugen, weil man einen inoffiziellen Modus teste und ATI dabei schlechter abschneidet. So läuft es doch normalerweise.

Und zu PhysX: PhysX für CPU ist durchaus verbreitet und beliebt. Warum sei mal dahingestellt, aber immerhin liefert es keine erkennbar schlechteren Ergebnisse bei den Spielen die es einsetzten, aus meiner Sicht. Problematisch ist vorallem GPU-PhysX. Was unabhängig von der eingesetzten Lösung immer massiv Leistung kostet (nur ohne Nvidia-GPU eben ungleich mehr), meist ohne wirklich ins Spiel integriert zu sein. Die optischen Gewinne sind minimal, die spielerischen erst recht, im Verhältnis zur benötigten Leistung.

@y33H@: Also ob es um Millionen geht, wenn "Independent"-Produktionen PhysX einsetzen, dafür ab das Nvidia-Logo zeigen. Das heißt entweder gibt es die Engine quasi umsonst oder eben es kommt Geld, technische Unterstützung oder oder aus dem Entwicklerprogramm.
 
Zuletzt bearbeitet:
Studios wie Rocksteady Studios (Batman AA), 2K Czech (Mafia 2) oder gar DICE (Mirror's Edge) oder GRIN (GRAW2) oder natürlich Epic (UE3) erachte ich nicht unbedingt als "Independent". Und Dev-Support ist nun mal etwas, was für eine Software spricht - egal wer dahinter steht.

Ich möchte nur klar machen, dass viele hier etwas verteufeln, von dem sie wenig bis kaum etwas wissen und einfach nur ein "Beißreflex" einsetzt. Selbst die Differenzierung zwischen CPU-PhysX (Gameplay) und GPU-PhysX (Effekten) oder zwischen Bibliothek und API ist einigen nicht klar. Auch ich bin alles andere als ein Freund von zusätzlicher Grafiklast durch PhysX, das gehört auf die CPU-Kerne. Da ist viel mehr Luft bei Quad- und Hexacores, meine Pixelschleuder hat mit vollen Details in 2560 oder mit SSAA genug zu tun. Man beachte die Kolumne - GPU-PhysX in der aktuellen Version ist optisch eine Steigerung der Immersion, der Fps-Verlust aber imo an der falschen Stelle. Weil hier manch einer ahnungslos verbal auf mich eintritt ...
 
Ja nur die meisten PhysX-Titel kommen nicht von den Großen. http://physxinfo.com/

Das gilt nur für GPU-PhysX und da ist schon die Frage: Warum? Vor allem endet es oft nach einem Titel. Das sind eher Testballons oder eben gut bezahlte Leuchturm-Projekte.

Ich stimme dir absolut zu, dass das Tehma sehr komplex ist und das viele es gar nicht annähernd begreifen. Ich nehme mich davon nicht mal aus. Es ist eben das Problem, wie es bei dem Nutzer ankommt und das ist die Exklusivität und der Leistungshunger. Dazu eben auch das Desinteresse die Engine für einen breiteren Einsatz zu pflegen. Was Nvidia scheinbar versucht ist eine Spaltung des PC-Spiele-Marktes. Das ist hoffentlich zum Scheitern verurteilt. PhysX selbst kann dafür nichts, das ist sicherlich eine grundsätzlich gute Engine. Aber Nvidia will den Namen als Exklusivität vermarkten (obwohl es eben gar nicht wirklich exklusiv ist in seiner Gesamtheit) und das hat man dann davon.
 
Nvidia hat sich einfach aus dem Chipsatzmarkt zurückgezogen.

Ja im schön reden bist du um weiten besser als ich :-D

Oder lässt AMD Nvidiagrafikkarten mit ihren Chipsätzen nicht laufen?

Lass mich einen Nanosekunde nachdenken... JA denn SLI geht auf AMD nicht.

Nvidia scheinbar versucht ist eine Spaltung des PC-Spiele-Marktes.

So weit würde ich nicht gehen, es ist ja nicht so das die Spiele nicht mehr auf anderen Grakas laufen würden. Aber mal sehen was die Zukunft bringe im besten Fall wird NV PhysX über OpenCL oder so für alle zugänglich machen. AMD könnt ja auch mal eine Lizenzanfrage stellen :-P
 
Zuletzt bearbeitet:
Zurück
Oben