News Video zeigt PhysX-Effekte von Batman: Arkham City

"Ich hab nicht gesagt dass alle so sind, sondern dass man sich seinen Teil denken kann, wenn die allermeisten PhysX-Gegner "zufällig" ATI besitzen. Viele Leute sind offensichtlich gefrustet. Wären die Effekte objektiv scheiße, würden das auch ähnlich viele Nvidia-Kunden so sehen."

Unzufrieden sind sowohl Kunden von AMD wie auch Nvidia wie ich mitbekommen habe. Da geht es nicht um die Effektqualität sondern die Art der Vermarktung. Statt das sowohl Ati und Nvidia sich auf einen Standart einigen, machen beide ihr eigenes Süppchen. Sprich es gibt kaum Spiele die dieses Nette Beiwerk unterstützen. Sprich Nvidia selbst wertet durch Ihre Politik dieses Feature ab. Es kommt nur für wenige Exlusive Titel heraus. So das es sich um keine echtes Kaufargument mehr Handelt, da Nvidia gar kein Interresse hat einen neuen Standart zu erschaffen.

Fehlt nur noch das ATI mit sowas anfängt. Am besten kommt dann jedes Jahr von jedem Herstelle ein neues Grafikfeature was nur Exklusiv auf dieser Karte funktionier. Solange bis sich kein Entwickler mehr auskennt und die Spieler noch mehr an die Gurgel gehen weil die eigene Karte zu den größeren Penis führt.
 
Zuletzt bearbeitet:
noxon schrieb:
Wo steht das das? Wofür man das einsetzt bleibt ja wohl dem Spieleentwickler überlassen. Für eine wirklich korrekte physikalische Simulation wie man sie für wissenschaftliche Anwendungen benötigt lässt die PhysX im übrigen überhaupt nicht einsetzen. Von Realismus kann hier also keine Rede sein. Es geht hier rein um Spielephysik. Die ist hochoptimiert, nicht deterministisch und mit sehr großen Ungenauigkeiten versehen.

Ganz genau und deshalb würde auch niemand den Unterschied bemerken, wenn die Effekte PhysX-frei in das Game eingebaut würden. AMD-Benutzern Effekte völlig vorzuenthalten, kostet am Ende nur Kunden, vor allen Dingen, weil andere Games ja auch Effekte enthalten, die optisch vergleichbar sind, jedoch keine besondere Hardware erfordern. Ob das einen tatsächlichen Umsatzverlust für Entwickler/Publisher bedeutet, hängt natürlich von der Höhe des Sponsorings seitens Nvidia ab.
 
@Kollo
Der Zug ist für den PC abgefahren,
wir dürfen uns über jedes Spiele das ein wenig vom Consolenport abweicht freuen und dankbar sein.

"Wir sehen den PC nicht als führende Spiele-Plattform.
Ja, diese Aussage wird manche Leute verärgern, aber es ist schwer, es anders zusammenzufassen,
schließlich haben die beiden Konsolenversionen ein viel größeres Publikum als die PC-Version", sagte John Carmack von id Software.
"Ein aktueller High-End-PC ist ungefähr zehnmal so leistungsstark wie eine Konsole und wir könnten sicherlich eine bessere Spielerfahrung bieten,
wenn wir halt diese Design-Entscheidung getroffen und genügend Ressourcen zur Verfügung hätten.
Die letztendliche Qualität eines Spiels ist heutzutage ein Resultat des Entwicklungsprozesses bzw. des Arbeitsaufwands,
der in das Spiel gesteckt wurde und nicht auf welcher Technologie das Spiel läuft."
Quelle: Kotaku, Bethesda und id Software
 
nanoworks schrieb:
[..]
Nö. Ich lass mir doch nicht von irgendwelchen Marketingabteilungen diktieren was ich kaufen soll, nur damit ich irgend ein Videospiel mit mehr Rauch spielen kann. Sorry, aber das ist doch totaler Blödsinn. Sowas machen nur blinde Konzernzombies.
[..]

Du hast zwei Rechner voll mit neuster Hardware und schwadronierst über "Konzernzombies"? Sorry, aber das nehme ich dir nicht ab.

Na_Dann_Ma_GoGo schrieb:
[..]
PhysX ist bekanntermaßen Schrott mit Schrottbibliotheken und absolut unbeeindruckenden Physik Effekten.
[..]
Dann kannst du doch bestimmt erläutern, was an der lib Schrott ist, wo du Verbesserungspotenzial ausmachst oder wo du Konkurrenten in Effekt-Hinsicht im Vorsprung siehst. Oder ging es doch nur darum, Dampf abzulassen?

Falls du dich auf Multithreading im Softwaremodus oder eine Öffnung hin zu AMD beziehst, dann gebe ich dir vollkommen recht. Aber dann rede bitte nicht pauschal von "Schrott" oder komm mit kruden Verschwörungstheorien!

nanoworks schrieb:
Havoc, also CPU-Physik, ist in meinen Augen aber ein viel sinnvollere Methode. Was ist denn in 99% aller Games der limitierende Faktor? Die Grafikkarte oder die CPU? Ganz eindeutig die Grafikkarte Warum sollte man also eine GPU, die häufig am absoluten Leistungslimit arbeitet, zusätzlich für Physikberechnungen einsetzen, wenn die CPU nebenher bei 10-20 Auslastung Däumchen dreht?

Grafikhardware bringt den Vorteil mit, dass sie zum Einen massiv parallel arbeitet im Gegensatz zu CPUs. Zum Anderen dürfte eine Rolle spielen, dass Grafikhardware zumeist 4X4-Matrizen im Befehlssatz unterstützt(man korrigiere mich, falls ich mich irre). Sowohl für Rasterisierung als auch für massive Physik-Berechnungen ist beides sinnvoll.

Wer einmal versucht hat, vernünftige Grafik auf 'ner CPU zu erzeugen, sei es Mesa oder versuchsweise sogar mal Realtime-Raytracing, der stösst schnell an deren Grenze, sei sie auch noch so schnell und multi-kernig. :) Genauso verhält es sich mit Physik.

Das ändert natürlich nichts daran, dass es toll wäre, wenn PhysX auch auf AMD-Karten liefe, denn ich selbst habe zuhause auch nur AMD. Gerade die akkurat scheinenden Partikeleffekte würd' ich mir auch gern mal anschauen. Der Nebel und der Funkenschlag sahen ziemlich cool aus :)
 
PiPaPa schrieb:
Die da wären? Die beiden Karten nehmen sich im Grunde gar nichts, es ist eine reine Geschmacks- oder Glaubensfrage.

Nö ist es nicht. Du hast viel mehr Möglichkeiten, die Bildqualität zu verbessern mit der 570. Bei gleichem Preis ist die 570 eigentlich immer vorzuziehen, es sei denn man braucht Eyefinity (wofür eine Karte dann eher doch zu langsam ist).
 
*sich popcorn holt und belustigt die ewige streiterei verfolgt*

klasse, man kommt sich vor wie in der sonderschule hier *thumbs up*
 
Ohne mich in diesen Krieg einmischen zu wollen:
Warum werden die Effekte nicht einfach von der CPU berechnet? Mein 2500k wurde in noch keinem Spiel wirklich ausgelastet, da könnte man doch das ganze brachliegende Potenzial für Physx nutzen.
 
Bei gleichem Preis ist die 570 eigentlich immer vorzuziehen,
Vor allem bekommt man beim richtigen Händler auch gleich das neue Batman dazu und kann sich dann ansehen wie schlecht PhysX wirklich ist..
a040.gif


@Kigalla:
Das hat natürlich auch etwas mit Marketing zu tun, PhysX ist nun mal ein Nvidia Produkt! Das sowas auch über CPU gehen würde bestreitet niemand, denke ich mal!
Edit:
Weil der CPU sonst zu ausgelastet wäre. PhysX ist viel zu rechenintensiv dafür...
Sowas meine ich auch mal gelesen zu haben!

Andererseits: Über die 3D Vision Werbung bei Spielen regt sich auch niemand auf, obwohl auch das ein Alleinstellungsmerkmal von Nvidia ist ;)
Ich rege mich auch nicht über AMD (ATI gibt es weiterhin nicht mehr ?!?) Werbung in Spielen auf, aber da gibt es auch nichts, was es nicht auch von Nvidia gibt, ausser Eyefinity. Aber ich bin schon bei 3 Monitoren mit 3D mehr als bedient :)
 
Butterbemme schrieb:
...

Wozu geb ich denn bitte hunderte Eur für eine Grafikkarte aus. Um alle Spiele in der besten Optik zu spielen natürlich. Mich würde es einfach richtig ankotzen, soviel Geld zu investieren und dann trotzdem ein paar sehr nette Effekte nicht sehen zu können.

Was hab ich dagegen von 5% mehr fps, sollte ATI bei einer bestimmten Karte schneller sein? Nichts. Absolut nichts. 30 oder 31,5 fps ist einfach mal komplett egal.

Und zwei Physx-Spiele im Jahr ist nicht so wenig wie du es hier hinstellen willst, vor allem wenn die Spiele zu den besten gehören.

Jo, jedem seine Meinung. Ich finde 2 Spiele pro Jahr deutlich zu wenig und "hunderte Euro" geb ich für eine Grafikkarte auch nicht aus und die Effekte kann ich mir notfalls am Zweitrechner geben, der hat Nvidia verbaut oder ich könnte mir eine alte Nvidia als 2. Karte einbauen.


Hast du das Video gesehen? Die Säulen haben gescriptete Sollbruchstellen wo Stücke herausbrechen, aber sie gehen niemals kaputt. Was ich kritisiere ist (und wenn du das Spiel gespielt hättest wüsstest du das), dass man auf diese Löcher unendlich lange draufhalten kann, die werden nie größer aber es kommen nach wie vor Betonsplitter - unendlich.

Grad waren die Effekte noch sehr nett, jetzt findest du sie unwichtig und störend... entscheid dich mal. Nebel, Fahnen und Fliesen waren in Batman toll gemacht, da scheinst du nicht zu widersprechen. Wenn dir dann ein paar Geldscheine zuviel wirklich die Atmosphäre zerstören oder du 5 minuten auf eine Säule schießt um die Illusion zu enttarnen, ist das dein Problem. o_O

Einige sind nett, einige störend (habe ich aber auch so dargelegt) und unwichtig finde ich sie allesamt. Wo siehst du da den Widerspruch?
Ich finde auch 8x AA unwichtig und downsampling. Das ist zwar auch "nett", aber ich renne nicht los und kauf mir eine 300€+ Karte oder gar zwei um das in jedem Spiel dann überall aktivieren zu können.


Ich hab nicht gesagt dass alle so sind, sondern dass man sich seinen Teil denken kann, wenn die allermeisten PhysX-Gegner "zufällig" ATI besitzen. Viele Leute sind offensichtlich gefrustet. Wären die Effekte objektiv scheiße, würden das auch ähnlich viele Nvidia-Kunden so sehen.

Gibt genug Nvidia-Kunden, die zugeben, dass GPU-PhysX völlig übertrieben wird (vor allem bei Mafia 2 war sich da auch die Fachpresse ziemlich einig). Aber du verfällst wieder in das alte Fanboy-Argumentationsschema.

Nein, wie die meisten willst du Nvidia dafür bestrafen, dass sie es wagen mit exklusiven Effekten Werbung zu machen. Hirnrissig.

Lächerlich, ich bestrafe niemanden. Sie können Werbung machen wie sie wollen, das ändert nichts daran, dass ich proprietäre Sachen nicht gut finde. Bei Nvidia GPU-PhysX nicht, bei Apple nicht, usw.

Jeder, der eine Meinung zu etwas hat oder es nicht gut findet bestraft automatisch dasjenige Produkt oder die Firma? DAS ist eine hirnrissige Annahme. Identifizierst du dich so sehr mit der Marke Nvidia, dass du dich da gleich persönlich angegriffen fühlst oder was läuft bei dir ab?

Weils generell einfach mal nicht so ist? Einzelne Karten liegen hier und da natürlich vorne, aber ATI ist nicht grundsätzlich billiger. Schau in die Grafikkartentests...

Sag ich doch dauernd. Bitte versuch verstehend zu lesen. Ich habe nie gesagt, dass ATI grundsätzlich billiger sei. Man entscheidet nach der jeweiligen Markt Situation und Preis/Leistung. Aber wenn jemand sagt wer ATI hat, kann sich die Qualität von Nvidia nicht leisten, aber gleichzeitig sagt, dass Nvidia gleich viel kostet wie ATI, dann ist das ein Widerspruch.
 
noxon schrieb:
Wo steht das das? Wofür man das einsetzt bleibt ja wohl dem Spieleentwickler überlassen. Für eine wirklich korrekte physikalische Simulation wie man sie für wissenschaftliche Anwendungen benötigt lässt die PhysX im übrigen überhaupt nicht einsetzen. Von Realismus kann hier also keine Rede sein. Es geht hier rein um Spielephysik. Die ist hochoptimiert, nicht deterministisch und mit sehr großen Ungenauigkeiten versehen.

Ein groteskeres "Argument" ist dir jetzt wohl nicht eingefallen, was?
Aber bitte, mal was direkt von der nvidia Homepage

"Mit NVIDIA® PhysX® Technologie liefert Mafia II das ultimativ realistische Spieleerlebnis"
"Erlebe extrem realistische Effekte wie dynamisch zerstörbare Säulen, Ziegel oder Statuen, die völlig lebensecht explodieren."
http://www.nvidia.de/object/physx_new_de.html

"Was ist die NVIDIA PhysX Technologie?
NVIDIA PhysX ist eine leistungsfähige Physik-Engine für Echtzeit-Physikberechnungen"
"Das Spiel sieht zwar gut aus, ist aber nicht so realistisch, dass man als Spieler das Gefühl hat, man wäre beim Geschehen wirklich dabei. "
"NVIDIA PhysX Technologie erweckt Spielewelten zum Leben"
"[...]mit vollkommen realistischen Physikeffekten, die alle vorgefertigten Animationen weit hinter sich lassen.
Quelle: http://www.nvidia.de/object/physx_faq_de.html

So und du willst mir erzählen PhysX wird also nicht beworben für total realistische Simulation? Wenn man dann Mafia spielt kriegt man dann total unrealistischen Scheiss vorgesetzt, wie beispielsweise das "unendliche Kieslager" aus einem kleinen Betonpfosten.:rolleyes:

Wie ich schon schrieb ist im Grunde der einzige Nutznießer vom weglassen solcher Details nvidia für Werbezwecke.
Der größte Verlierer ist wohl, wie so oft, eindeutig der Kunde. Aber das merken ja manche nicht mal.... :rolleyes:
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Ein groteskeres "Argument" ist dir jetzt wohl nicht eingefallen, was?
Das war kein Argument für oder gegen PhysX. Das war lediglich eine Tatsachenfeststellung, weil immer wieder behauptet wird, dass man mit PhysX realistische Simulationen durchführen könne.
Was nVidia in seiner Werbung dazu sagt ist mir dabei auch völlig egal. Keine Ahnung warum hier immer Werbemeldungen und Promotionvideos, wie das aus dem Artikel, als Argumente angeführt werden. Das die nicht den wirklichen Fakten entsprechen dürfte doch wohl jedem klar sein.

Wer weiß ob in dem Spiel wirklich die Nebeleffekte ohne PhysX komplett fehlen. Die wird nVidia sicherlich nur in diesem Video deaktiviert haben. Glaubt ihr wirklich, dass hier ein fiarer Vergleich angestellt wurde?
 
Das brauchst du mir nicht zu erzählen.
Ich bin zwar bald Besitzer einer GTX 570, nachdem ich jahrelang immer nur ATi / AMD Karten hatte (was nichts mit BQ, Treiber oder Feature "Märchen" zu tun hat, sondern einfach der Preis war attraktiv und warum nicht mal wechseln), aber ich bin sehr wohl ein "Gegner" wie PhysX derzeit eingesetzt wird - denn mit dem eigentlichen Sinn dahinter hat es in der Regel nichts zu tun.
Effekte mögen zwar ganz toll und schön sein, aber selbst Half Life 2 hatte eine bessere, korrektere Physik. Aber das sieht man halt eben nicht so wie ein schönes Effekt-Feuerwerk / Blendwerk. ;)

Ich bin auf jeden Fall gespannt was bsp Battlefield 3 macht, ob die Zerstörungen physikalisch "korrekt" sind, oder ob es einfach "nur" ein imposantes Geskripte ist. (wobei mir hier ein schönes Skript lieber ist als ein schlechtes PhysX Blendwerk, weil weniger Leistung verbraten wird für Pseudophysik.
 
PiPaPa schrieb:
Ich bin auf jeden Fall gespannt was bsp Battlefield 3 macht, ob die Zerstörungen physikalisch "korrekt" sind, oder ob es einfach "nur" ein imposantes Geskripte ist. (wobei mir hier ein schönes Skript lieber ist als ein schlechtes PhysX Blendwerk, weil weniger Leistung verbraten wird für Pseudophysik.
http://www.youtube.com/watch?v=cIcg5eotZlY

Sieht definitiv 10 mal hübscher, realistischer und glaubwürdiger aus. Zumindest geht dort auch was kaputt und wirft nicht einfach nur ein paar zehntausend Objekte ab und bleibt für sich selbst unangetastet.

Und das beste daran: Es läuft überall! Havok halt...
 
PiPaPa schrieb:
Ich bin auf jeden Fall gespannt was bsp Battlefield 3 macht, ob die Zerstörungen physikalisch "korrekt" sind, oder ob es einfach "nur" ein imposantes Geskripte ist. (wobei mir hier ein schönes Skript lieber ist als ein schlechtes PhysX Blendwerk, weil weniger Leistung verbraten wird für Pseudophysik.
Physik ist da zum großen Teil gescriptet. Wenn du Wände wegschießt verschwinden diese instantan hinter einer riesen Rauchwolke, sodass man es nicht sieht und nur die Trümmerteile werden simuliert. Diese verschwinden anschließend auch zum großen Teil im Boden. Einstürzende Gebäude sind immer gescriptet. Auch im Multiplayermodus, obwohl es nicht so aussieht. Pro Gebäude gibt es mehrere Skripte, damit es auf unterschiedliche Arten einstürzen kann, aber es ist keine echte Simulation.
Alles in Allem wird mit recht simplen Mittlen gearbeitet und trotzdem sieht das Ergebnis sehr gut aus. Am erstaunlichsten an der Sache finde ich eigentlich das Tracking und Synchronisieren der ganzen Elemente auf dieser riesigen Map.

Solche Dinge wie die wehenden Flaggen im Wind werden soweit ich weiß per Compute Shader berechnet. Also praktisch GPU Physics. Diese sind allerdings nicht interaktiv und daher weiß ich nicht, ob man es als Physiksimulation bezeichnen kann oder ob man es einfach nur als grafischen Effekt bewerten sollte.
Denn wo soll man dann die Grenze ziehen? Im Grunde genommen ist die Berechnung des Wassers ja auch eine Physiksimulation und selbst die Berechnung vieler grafischer Effekte haben ja physikalisjche Hintergründe. (Lichtbrechung und so weiter.)
 
boxleitnerb schrieb:
Bei gleichem Preis ist die 570 eigentlich immer vorzuziehen, es sei denn man braucht Eyefinity (wofür eine Karte dann eher doch zu langsam ist).

Zum vorziehen der 570 sag ich lieber mal nix;) Sonst wirfst Du mir wieder unnötiges gebashe vor:rolleyes: Aber die Aussage das für Eyefinity eine Karte eher nicht reicht ist Blödsinn! Da habe ich andere Erfahrungen!
Nehmen wir mal die HD 5970 und die HD 6990 und die HD 6850X2 aussen vor! Denn das wären theroretisch auch alles "eine Karte" *hüstel*

BFBC2 z. B. läuft unter 6048x1200 MIT ALLEN SETTINGS AUF HIGH astrein auf einer HD5870 mit 1GB RAM
Bis auf Metro2033 und ev noch Crysis2 laufen alle Games tiptop auf 6048x1200 mit einer HD6970;) Anders sieht es bei Deiner Fraktion aus! Ausser der Geforce GTX590 kann keine einzelne Karte mehr als 2 Bildschirme befeuern! Und wieso das?! RICHTIG: Auch hier will Nvidia Euch (die Kühe) so richtig abzocken (melken):lol:
Quelle: http://www.nvidia.de/object/3d-vision-surround-requirements-de.html

Nvidia lässt sich einfach alles sehr schön (über-)bezahlen! Und das untestütze ich nicht!
Oder willst Du mir sagen eine GTX580 3GB reicht nicht aus für 6048x1200:freak:
Und so Dinge sind bei AMD einfach fair gelöst! Meine HD 6990 kann 5 Monitore (WUXGA+) ansteuern! Jede normale Radeon HD ab Serie 5 kann mindestens 3 ansteuern. Es gibt sogar Eyefinity 12 Edition Karten:D
 
Zuletzt bearbeitet:
Viel spaß bei Zocken mit einer Karte auf 3 o 5 Monitoren, außer Tetris wirds wohl nix werden, und vielleicht Doom 1
 
Es ist einfach sowas von lustig wie sich die 2 Parteien aufschaukeln.

Da werden die einen als Fanboys abgestempelt, die anderen als Hater. Wieder andere haben zu viel Geld und wieder andere behaupten das die vielen Effekte sinnlos sind.

Spielt das Spiel, habt Spass und gut is, aber ne ihr wollt die Welt verändern...

Ihr kauft euch doch auch die Schuhe die euch gefallen, oder das Fahrrad xy weil es ne Farbe hat die euch besser gefällt.

...bleibt doch alle auf euren Meinungen sitzen. Die nimmt euch doch keiner. :lol:
 
Zuletzt bearbeitet:
Jubai schrieb:
Die nimmt euch doch keiner. :lol:
Pscht! Ein Forum ist doch dafür gemacht... Hol dir lieber eine Pizza, nen Kasten Bier dazu und ich kann dir garantieren, dass du sehr viel Spaß haben wirst. ;)
 
Zurück
Oben