News EA und Take 2 lizenzieren GPU-PhysX

@Übersoldier75
Informieren und dann posten. Schlag mal hier nach - am bestem den Text unter dem Video.
https://www.computerbase.de/2008-11/video-gpu-physx-in-mirrors-edge/

@Kasmopaya
Also wenn man keine GTX hat, muss man sich eine 2. Karte besorgen?

DX 10.1 und PhysX kann man sehr gut vergleichen. Aktuell möglich, aber keines braucht es, noch nicht! Mit dem Unterschied das NV 100%ig in ihrer nächsten Generation 10.1 bzw. DX 11 drin hat und ATI noch unschlüssig ist ob sie PhysX unterstützten werden.
Wo du Recht hast, hast du Recht.

Ich habe nochmal das ME-Video angeguckt - kommt mir trotzdem irgendwie ruckelig vor - vlt liegt es aber am Video selbst.

@the witcher
komischeweise findet man die gleiche Liste auf der offiziellen Nvidia-Seite.
http://www.nzone.com/object/nzone_physxgames_home.html
Andererseits ist die Cpu-Limitierung bei Strategiespielen nichts neues. Wird sich auch durch die PhysX nicht so schnell ändern. Daher ist die Fokusierung auf die Strategiespiele genauso vielsagend wie DX10.1.

Was CSS angeht - es ist bekannt dass die Engine sehr Cpu-fordernd ist. Für solche Spiele wäre PhysX tatsächlich vom Vorteil. Ich wiederhole mich nocheinmal(für die die nicht lesen können): Was ist mit Spielen die GPU-Limitiert sind? Wird sich die Perfomance dadurch nicht verschlechtern? Also wäre es angebrachter erstmals Fakten zu sammeln. Aber Hauptsache man unterstellt anderen ein angestellter von havok zu sein ;).

@Edit: Unverständige Ansprache korrigiert.
 
Zuletzt bearbeitet:
@Übersoldier75
Informieren und dann posten. Schlag mal hier nach - am bestem den Text unter dem Video.
https://www.computerbase.de/2008-11/video-gpu-physx-in-mirrors-edge/

Das Video ist schon alt, die Anforderungen sind eh etwas hoch gegriffen, ich wette ne 8800Gt kann das genau so gut, soviel schneller ist ne 9800GTX auch wieder nicht.

Ausserdem ist das nur ein Beispiel gewesen, das heisst nicht dass man jetzt für jede Phsik ne 9800GTX vorraussetzt. Das ruckeln liegt am Video, oder es ist noch ne Beta, das Spiel gibts schliesslich noch gar nicht für PC.

ich gebe the witcher Recht, und sag mal dass du wirklich nicht viel Ahnung hast, oder es passt dir nicht weil du "ATI-Fanboy" bist!:D

Ich muß weg!
 
@Übersoldier75
Das Video ist schon alt,

Der Bericht (mit Video) ist erst 1 Monat alt. Steht rechts oben in der Ecke. Aber wenn man eh nicht lesen kann...

die Anforderungen sind eh etwas hoch gegriffen, ich wette ne 8800Gt kann das genau so gut, soviel schneller ist ne 9800GTX auch wieder nicht.

Ausserdem ist das nur ein Beispiel gewesen, das heisst nicht dass man jetzt für jede Phsik ne 9800GTX vorraussetzt.
Zitat aus dem Bericht:
Nvidia empfiehlt generell, mindestens eine GeForce 9800 GTX+ zu nutzen, wenn man neben dem eigentlichen 3D-Rendering noch PhysX auf dem Rechenkern berechnen lassen möchten. Bei einer langsameren 3D-Beschleuniger rät Nvidia zu einer zweiten GPU, die dann alleinig für PhysX zuständig ist.
Wie es aussieht weisst du mehr als Nvidia selber. Respekt. Das hier:
Kam mir doch gleich spanisch vor die komische Liste von wiki!
zeigt wieder was du so alles weisst. Ich glaube gegen eine so knallharte Argumentation aus Einbildungen und Glaskugelprophezeihungen habe ich nicht den Hauch einer Chance. Selbst Nvidia hat da weniger Ahnung als du.

dass du wirklich nicht viel Ahnung hast, oder es passt dir nicht weil du "ATI-Fanboy" bist!
Dazu schreibe ich nichts - du hast dich selber bereits mit deinen kompetenten Kommentaren geoutet;).

@Topic
Die aktuelle Konsolen haben einen Ageia-Chip welches die PhysX ermöglicht. Wie sieht das mit der nächsten Generation an Konsolen aus? Werden alle auf PhysX setzen? Oder geht jeder Hersteller seinen eigenen Weg? Würde mich interresieren, da die Konsolen immer mehr an Land gewinnen. Nicht dass jeder Hersteller (mal wieder) sein eigenes Süppchen kocht und am Ende keiner durchblickt, welche Konsole/Spiele welchen Physikmodus unterstützt.
 
Jetzt musst du schon nicht releaste Spiele nehmen, um deine Argumentation zu stützen. Genau das, was du mir angelastet hast.
Bleib doch einfach mal bei UT3.

Herrlich, die Antwort auf "Die CPU kann (momentan) genauso gut PhysX berechnen." ist demnach Propaganda?
Noch mal ganz deutlich: das Wort "momentan" kann ich alleine mit dem Beispiel UT3 entkräften, ohne auch nur Warmonger oder GRAW2 ansprechen zu müssen.
Oder willst du behaupten UT3 gibt es nicht, bzw streitest du den Fakt ab, das UT3 mit CPU-PhysX beschissen läuft?

Es ist mir vollkommen unklar, wie du darauf kommst das irgendwo in den Worten des Postes #16 PhysX und demnach eine Geforce als unbedingt notwendig angepriesen wird.

Hier
Du behauptest demnach, das Wolgang lügt und die Ergebnisse falsch sind...
Ist das so unsachlich wie: " Hört doch auf, den Lesern hier, Märchen zu erzählen."
Mein Satz ist nur die Konsequenz daraus. Wenn ich einen Link poste, unterstellst du mir das ich Märchen verbreite. Da nicht ich den Inhalt dieses Links verfasst habe, beschuldigst du den Verfasser.

Wenn wir das weiter auf die Realität beziehen - würde das heissen, dass wenn ein Spiel PhysX unterstützt dann würde eine GTX280 das 3-fache an FPS liefern. Es ist aber nicht so.
In UT3 ist es die 3-6fache Performance. Ist UT3 eine Fiktion?
Nein, auch wenn es der Name "Unreal" vermuten lässt.


Du behauptest eine CPU hätte genug Ressourcen frei. Mag sein wenn man auf KI verzichtet.
Nimm den typischen Gamerprozessor: X2-6000+
Erklär mir mal, was da noch für ungehuere Ressourcen frei sind. Nicht vergessen, im nächsten Satz behauptest du, das eine 9800 GTX+ mit 705 G9x GFLOPs wäre zwingend erforderlich. Meinst du nicht, das du dir selbst wiedersprichst?
Wie siehts eigentlich bei UT3 aus, warum ist der QX9770 so langsam, obwohl doch so viele Ressourcen noch frei sind?

Vielleicht kannst du mal deutlich machen, welche CPU Vorstellung du hast.
 
Zuletzt bearbeitet:
Unyu schrieb:
Jetzt musst du schon nicht releaste Spiele nehmen, um deine Argumentation zu stützen. Genau das, was du mir angelastet hast.
Meinst du Mirrors Edge oder die Anspielung auf die weitere Entwicklung?

Herrlich, die Antwort auf "Die CPU kann (momentan) genauso gut PhysX berechnen." ist demnach Propaganda?
Noch mal ganz deutlich: das Wort "momentan" kann ich alleine mit dem Beispiel UT3 entkräften, ohne auch nur Warmonger oder GRAW2 ansprechen zu müssen.
Oder willst du behaupten UT3 gibt es nicht, bzw streitest du den Fakt ab, das UT3 mit CPU-PhysX beschissen läuft?
Nö, habe ich nicht bestritten. Selber testen kann ich das auch nicht da ich das Spiel nicht besitze. Allerdings ist UT3(neben ein paar anderen Spielen) eher eine Ausnahme die (noch) nicht zur Regel geworden ist. Diese Ausnahmen zeigen den Nutzen von PhysX. Generell bleibt es bei Ausnahmen - nicht mehr und nicht weniger. So wie es momentan aussieht wird sich das auch in der Zukunft nicht so schnell ändern(man verspricht seit Jahren eine Quadcoreunterstützung einzubauen - und bis jetzt hat sich bis auf einige Spiele nichts getan - damit kann man gewisse Paralellen zur PhysX ziehen). Fakt ist dass wir momentan am Anfang eines PhysX-Zeitalters sind, und niemand kann genau sagen wie das später aussehen wird. Wie bei jeder neuen Technologie, ist der Nutzen von PhysX eher relativ und liegt nur im Auge des Betrachters. Fakt ist dass es einige Spiele gibt (du hast sie genannt) die davon erheblich profitieren, für die Masse jedoch auch die CPU-Physik ausreicht.

Es ist mir vollkommen unklar, wie du darauf kommst das irgendwo in den Worten des Postes #16 PhysX und demnach eine Geforce als unbedingt notwendig angepriesen wird.
Habe ich das Gefühl gehabt als ich das hier gelesen habe:
Gut das jeder einen 10 Ghz Quad im Schrank stehen hat.
Ich verstehe dass du durch die Übertreibung, die Möglichkeiten der PhysX, etwas deutlischer machen wolltest. Ist dir auch gelungen. Sogar so gut dass es Eindruck entstehen kann, dass man heutzutage mit PhysX die Perfomance der Spiele generell erhöht(obwohl das eher bei wenigern Spielen der Fall ist). Umgekehrt entsteht ein Gefühl, dass wenn man keine 10 Ghz Quadcore hat, man umbedingt eine PhysX-fähige Karte braucht. Das stimmt wohl nur bei den wenigen Ausnahmen.
Ist das so unsachlich wie: " Hört doch auf, den Lesern hier, Märchen zu erzählen."
Mein Satz ist nur die Konsequenz daraus. Wenn ich einen Link poste, unterstellst du mir das ich Märchen verbreite. Da nicht ich den Inhalt dieses Links verfasst habe, beschuldigst du den Verfasser.
Keinesfalls. Hättest du nur einen Link gepostet wäre das kein Problem. Du hast es jedoch mit den 10 Ghz versucht das zu interpretieren. Ich habe keine Lust mich ständig zu wiederholen, mache jedoch noch 1 Ausnahme:
...Erkenntnisse zu manipulieren... (Post 36)
Der Verfasser hat den Bericht verfasst, um den Nutzen der Technologie dort zu zeigen, wo es am deutlichstem ist. Diese Erkenntnisse auf die Allgemeinheit zu beziehen ist bereits eine Manipulation. Denn die Realität sieht ein wenig anders aus.
In UT3 ist es die 3-6fache Performance. Ist UT3 eine Fiktion?
Nein, auch wenn es der Name "Unreal" vermuten lässt.
Unreal Tornament existiert. Ist UT3 denn der Maß aller Dinge? Besitzt die UT3 die einzige zukunftssichere Engine? Spielen alle nur UT3? Diese Fragen zwingen mich dazu deine Ansicht, wegen dem Bezug auf andere Spiele, anzuzweifeln.
Du behauptest eine CPU hätte genug Ressourcen frei. Mag sein wenn man auf KI verzichtet.
Nimm den typischen Gamerprozessor: X2-6000+
KI ist auch sone Sache. Bei normalen Ballerspielen ist die KI nicht die Rede wert. Die getriggerte KI konnte sogar meine Play Station1 super bearbeiten. Die KI wird erst bei den Strategiespielen so richtig gefordert. Für manche ist der X2-6000+ tatsächlich zu lahm. Wird die PhysX da soviel ändern? Momentan gibt es keine klare Beispiele dafür. Nur Ansätze.
Nicht vergessen, im nächsten Satz behauptest du, das eine 9800 GTX+ mit 705 G9x GFLOPs wäre zwingend erforderlich. Meinst du nicht, das du dir selbst wiedersprichst?
Hast du den Link angeguckt? Das behauptet Nvidia - nicht ich. Wenn du an den Worten des Herstellers zweifelst, brauchst du mir nichts vorzuwerfen.
Wie siehts eigentlich bei UT3 aus, warum ist der QX9770 so langsam, obwohl doch so viele Ressourcen noch frei sind?
Würde ich den Quellcode kennen, würde ich dir das auch antworten können. Aber vlt kennst du dich da aus?
 
Schnie schrieb:
Meinst du Mirrors Edge oder die Anspielung auf die weitere Entwicklung?
Mirrors Edge und dein Beharren auf der 9800 GTX+.

Selber testen kann ich das auch nicht da ich das Spiel nicht besitze. Allerdings ist UT3(neben ein paar anderen Spielen) eher eine Ausnahme die (noch) nicht zur Regel geworden ist.
Ich schon.
Nebenbei ist es völlig egal, ob UT3 die Regel ist oder nicht, UT3 zeigt eindeutig das die CPU in dem Fall nicht in der Lage ist das selbe Resultat zu bieten.
Und darum gings auch in den betroffenende Sätzen.

Umgekehrt entsteht ein Gefühl, dass wenn man keine 10 Ghz Quadcore hat, man umbedingt eine PhysX-fähige Karte braucht.
Nur das habe ich das nicht geschrieben habe.
Außerdem reicht ja bereits ein 3,2Ghz Quad aus, um in die Nähe der 9500 GT zu kommen.
Nur der Preisunterschied ist heftig, weswegen ich das Wörtchen "gleichgut" als unpassend erachte.

Du hast es jedoch mit den 10 Ghz versucht das zu interpretieren.
Ich habe 1&1 zusammengezählt:
1. CPU ist gleichgut für PhysX wie eine GPU & 1. Im Performancerating ist die CPU unter 9500 GT Niveau

Diese Erkenntnisse auf die Allgemeinheit zu beziehen ist bereits eine Manipulation.
Warum Allgemeinheit? Ich kann in meinen Posts keinen Zusammenhang zur Allgemeinheit sehen, nur das ich mit einem Beispiel den Satz "CPU so gut wie GPU für PhysX" entkräftet habe. Dieser Satz kann nur richtig sein, wenn es keinen einzigen Fall gibt, wo die GPU besser dasteht.

Denn die Realität sieht ein wenig anders aus.
Wie denn?
Es gibt faktisch 3 PhysX Spiele, weitere in der Pipeline.
Vollkommen klar, das die Spiele, die kein (GPU-)PhysX unterstützen keine Performanceunterschiede zeigen.

Ist UT3 denn der Maß aller Dinge? Besitzt die UT3 die einzige zukunftssichere Engine?
Zumindest eine häufig einesetzte.

Hast du den Link angeguckt? Das behauptet Nvidia - nicht ich. Wenn du an den Worten des Herstellers zweifelst, brauchst du mir nichts vorzuwerfen.
Dir ist klar, das nVidia Geld verdienen will?
Vielleicht solltest du mal die Luft anhalten und dich auf jedem zugängliche Demos und Spiele beschränken.
nVidia empfiehlt dem Gamer auch ein Triple SLI GTX 280 Gespann, ist das jetzt Allgemeingültig das man das zum Spielen braucht?

Würde ich den Quellcode kennen, würde ich dir das auch antworten können. Aber vlt kennst du dich da aus?
Ich kann dir auf die Sprünge helfen.
UT3 profitiert gut von Quads. Demnach sind nicht so viele Ressourcen frei.
UT3 hat eine Menge Physik eingebaut, mehr als man von Crysis kennt, das übrigens bei hoher Physik Last schnell jeden Quad überhart fordert.

KI ist auch sone Sache. Bei normalen Ballerspielen ist die KI nicht die Rede wert.
Bei Strategiespielen wirds dafür um so lustiger. Müssen wir jetzt auf einem KI Level stecken bleiben, damit dem X2-6000+ nicht die Puste ausgeht?
Und ja, der X2-6000+ ist schon schnell überfordert. Auch ganz ohne PhysX, ich sehe da nicht, das dort massig freie "Ressourcen" vorhanden sind, ganz im Gegenteil.

Wenn du GPU PhysX scheisse findets, gut, nimm doch deine CPU dafür oder verzichte auf die Effekte zwingt dich keiner dazu.
Ich zwinge niemanden GPU-PhysX auf, ich habe lediglich dem "momentan gleichgut" wiedersprochen.
 
Zuletzt bearbeitet:
Schnie schrieb:
So wie es momentan aussieht wird sich das auch in der Zukunft nicht so schnell ändern(man verspricht seit Jahren eine Quadcoreunterstützung einzubauen - und bis jetzt hat sich bis auf einige Spiele nichts getan - damit kann man gewisse Paralellen zur PhysX ziehen).
Die Behauptung, aktuelle Spiele wären nicht Multicore-fähig ist genauso falsch wie die Behauptung, die CPU würde für vernünftige Physik-Effekte reichen.

Daß heutige Games Physik-Effekte bislang noch nicht exzessiv nutzen liegt nämlich genau daran, daß die CPU damit einfach überfordert wäre. Und da PhysX noch nicht so lange populär ist und AMD/ATI sich im Moment immernoch quer stellt, gibt's halt NOCH nicht soviele Games, die da wirklich einen Nutzen draus ziehen.
Das wird in nicht allzu ferner Zukunft allerdings gaaanz anders aussehen.
 
Der Bericht (mit Video) ist erst 1 Monat alt. Steht rechts oben in der Ecke. Aber wenn man eh nicht lesen kann...

Und?... 1 Monat ist für ne News verdammt alt in der schnelllebigen IT-Branche!;)

die Anforderungen sind eh etwas hoch gegriffen, ich wette ne 8800Gt kann das genau so gut, soviel schneller ist ne 9800GTX auch wieder nicht.

Ausserdem ist das nur ein Beispiel gewesen, das heisst nicht dass man jetzt für jede Phsik ne 9800GTX vorraussetzt.
Zitat aus dem Bericht:
Zitat:
Nvidia empfiehlt generell, mindestens eine GeForce 9800 GTX+ zu nutzen, wenn man neben dem eigentlichen 3D-Rendering noch PhysX auf dem Rechenkern berechnen lassen möchten. Bei einer langsameren 3D-Beschleuniger rät Nvidia zu einer zweiten GPU, die dann alleinig für PhysX zuständig ist.

Jetzt muß ich mich schon selber zitieren!:D Die Frage hat Unyu schon beantwortet!;)

Dir ist klar, das nVidia Geld verdienen will?
Vielleicht solltest du mal die Luft anhalten und dich auf jedem zugängliche Demos und Spiele beschränken.
nVidia empfiehlt dem Gamer auch ein Triple SLI GTX 280 Gespann, ist das jetzt Allgemeingültig das man das zum Spielen braucht?

Sehe ich genauso!:evillol:

zeigt wieder was du so alles weisst. Ich glaube gegen eine so knallharte Argumentation aus Einbildungen und Glaskugelprophezeihungen habe ich nicht den Hauch einer Chance. Selbst Nvidia hat da weniger Ahnung als du.

Kannste mal sehen was ich alles weiß!;)

dass du wirklich nicht viel Ahnung hast, oder es passt dir nicht weil du "ATI-Fanboy" bist!
Dazu schreibe ich nichts - du hast dich selber bereits mit deinen kompetenten Kommentaren geoutet

Der war echt gut!(am Boden kringel):lol: In meinem Zweit-Rechner steckt ne HD3870 nur mal so neben bei!;) Ich will ATI auch nicht schlecht reden, weil ich eben unparteisch bin.;)

Nicht dass jeder Hersteller (mal wieder) sein eigenes Süppchen kocht

ATI hatte seine Chance gehabt auf den Zug aufzusteigen, doch nicht unsere Schuld dass die "NEIN" sagen, oder eben was eigenes basteln!

Kann mich noch genau erinnern wie ATI gesagt hatte, das sie keine Multi-GPU-Lösungen machen werden sowie eben SLI, und kurz danach kam Crossfire!

Genau wie neulich die News mit CUDA, und was ist jetzt, mit Catalyst 8.12 unterstüzten die das auch auf einmal! Das sind echt "Dummschwätzer":evillol: Zuerst behaupten die brauchen sowas nicht und dass es überflüssig sei, und dann machen sie nach, weil sie es doch einsehen das es was bringt!:D

Der Rest wurde schon von Unyu beantwortet! Und jetzt geh wieder Playstation spielen!:lol:
 
Schnie schrieb:
@the witcher
komischeweise findet man die gleiche Liste auf der offiziellen Nvidia-Seite.
http://www.nzone.com/object/nzone_physxgames_home.html
Andererseits ist die Cpu-Limitierung bei Strategiespielen nichts neues. Wird sich auch durch die PhysX nicht so schnell ändern. Daher ist die Fokusierung auf die Strategiespiele genauso vielsagend wie DX10.1.

Komisch, dass auf meinem spiel dick fett havok und nicht physX draufsteht:rolleyes:
Manche leute sollten sich echt mal überlegen bevor sie was schreiben, besonderst wenn sie das game scheins kein einziges mal gespielt haben geschweige den mal einen blick auf die verpackung geworfen haben:freak:
Und genau deshalb weil strategiespiele die CPU so sehr fordern ist es sinnvoll, da die CPU zu entlasten und PhysiX für die Physik berechnung einzusetzen, dass sollte auch dir einleuchten das man dadurch einen vorteil zur jetzigen situation hätte.
Bzw. was hat PhysX in diesem beispiel mit dx10.1 zu tun? wäre mir neu, wenn es die cpu in strategiespielen entlasten könnte....

mfg
 
@the witcher
Tja, AOE3 basiert tatsächlich auf Havoc(habe auf wiki nachgeschaut, auch wenn du deinen Misstrauen gegenüber der Enzyklopädie deutlich gezeigt hast). Wie es aussieht, ruht Nvidia auf fremden Lorbeeren aus. Ich werde daraus lernen und Nvidia keinen Vertrauen mehr schenken. Die Frage ist - in wie weit die anderen Spiele aus der Liste auf PhysX basieren?

@Konti
Klar unterstützen einige Spiele die Quads. Allerdings kommen immer wieder neue Spiele bei denen das nicht der Fall ist. Fazit: wer vor 2 Jahren nur nen Dual hatte, muss nicht auf Quad umsteigen(bis auf wenige Spiele wo Quads den Unterschied zwischen Spielbarkeit und Ruckeln darstellen). Und PhysX ist nicht direkt wegen ATI noch so selten. Spieleschmieden sind in der Hinsicht viel wichtiger. Solange diese nicht mitmachen bleibt die PhysX eine Randerscheinung.

@Unyu
Mirrors Edge und dein Beharren auf der 9800 GTX+
Ich habe mich auf offiziele Aussagen gestützt. Wenn Du behauptest dass Nvidia "übertreibt" werde ich mich dir gerne anschliessen(siehe Antwort@the Witcher). Allerdings wenn du selbst bei offizielen Ankündigungen ihre Richtigkeit anzweifelst, sagt das schon etwas über die Seriösität der Firma aus.
****
Nebenbei ist es völlig egal, ob UT3 die Regel ist oder nicht, UT3 zeigt eindeutig das die CPU in dem Fall nicht in der Lage ist das selbe Resultat zu bieten.
Es ist nicht egal. Nur wenn ATI im Spiel XY 10 FPS mehr liefert als Nvidia, heisst es auch nicht dass es auch bei anderen Spielen der Fall ist(Ist nur ein Beispiel um die Relativität der zitierten Aussage zu verdeutlichen). Was die PhysX kann und die Cpu nicht - wissen wir, aber wie weit stimmt das im Vergleich zu anderen Spielen?
****
Nur das habe ich das nicht geschrieben habe.
Du hast das hier geschrieben:
Deshalb wird ein QX9770 von einer 9500 GT geschlagen? https://www.computerbase.de/artikel/h...formancerating
Gut das jeder einen 10 Ghz Quad im Schrank stehen hat.
Jetzt versetze dich in einen User der diese Zeilen liest...
Ich habe keinen Quad und keine PhysX-Karte. Trotzdem kann ich meine Spiele(und ich zocke sehr viel) ruckelfrei genissen. Aber kann sein dass ich auch nur falsche Games zocke;)
Gleichgut ist nicht gleich Gleichgünstig.
****
Im Performancerating ist die CPU unter 9500 GT Niveau
Dass moderne GraKas mehr Power haben als die CPUs ist nichts neues. Die Frage ist wie und ob man das ausnutzt. In den meisten Fällen reicht auch eine Cpu um für die Physik zu sorgen. Ob das an schlechter Programmierung liegt oder am Unwillen der Spieleschmieden noch mehr Aufwand zu betreiben weiss ich nicht. Das führt dazu dass die meisten User mehr auf einen stärkeren Prozzi achten, als auf PhysX bei Nvidia karten. Wenn du mir nicht glaubst - schau hier im CB in den entsprechenden Kaufberatungsforen. Kann auch sein dass sich alle irren. Vor allem weil :
"Ist UT3 denn der Maß aller Dinge? Besitzt die UT3 die einzige zukunftssichere Engine?"
->Zumindest eine häufig einesetzte.
****
Ich kann in meinen Posts keinen Zusammenhang zur Allgemeinheit sehen...
Dann les das hier:
Es gibt faktisch 3 PhysX Spiele, weitere in der Pipeline.
Vollkommen klar, das die Spiele, die kein (GPU-)PhysX unterstützen keine Performanceunterschiede zeigen.
Du nennst UT3 als Beispiel. Dann schreibst du die gerade zitierten Worte. Und behauptest dass dass PhysX (aus heutiger Sicht, für Gamer) mehr bringt als ein Quad.
****
Dir ist klar, das nVidia Geld verdienen will?
Wäre nichts neues für mich:D. Wie das in Wirklichkeit aussieht wissen wir beide nicht. Uns bleibt dann nur auf die Richtigkeit der Aussagen zu verlassen. Wenn du selbst dran zweifelst, wieso glaubst du dann dass sich die PhysX über kurz oder lang tatsächlich in der Form durchsetzen wird?
****
nVidia empfiehlt dem Gamer auch ein Triple SLI GTX 280 Gespann, ist das jetzt Allgemeingültig das man das zum Spielen braucht?
Wenn du den Text genauer gelesen hättest, hättest du gesehen dass Nvidia die Aussage für Mirrors Edge macht und nicht allgemein behauptet - das ist der Unterschied.
****
Ich kann dir auf die Sprünge helfen.
UT3 profitiert gut von Quads. Demnach sind nicht so viele Ressourcen frei.
UT3 hat eine Menge Physik eingebaut, mehr als man von Crysis kennt, das übrigens bei hoher Physik Last schnell jeden Quad überhart fordert.
Antwortet nicht auf meine Frage bezüglich Quellcode. Ohne das Wissen können wir genauso eine Glaskugel befragen woran das Ganze liegt. Ansonsten glaube ich dir gerne. Vor allem wenn mehrere Effekte aufeinmal berechnet werden müssen(bei eifrigen Gefechten). Überfordert Crysis auch den Quad? Was ist mit anderen Spielen? Sind die "Überforderungen" so fatal dass es zum Ruckeln kommt? Soll ich mich (mal wieder) wiederholen?
****
Bei Strategiespielen wirds dafür um so lustiger. Müssen wir jetzt auf einem KI Level stecken bleiben, damit dem X2-6000+ nicht die Puste ausgeht?
Und ja, der X2-6000+ ist schon schnell überfordert. Auch ganz ohne PhysX, ich sehe da nicht, das dort massig freie "Ressourcen" vorhanden sind, ganz im Gegenteil.
Dazu habe ich im Post 46 Folgendes geschrieben:
Die KI wird erst bei den Strategiespielen so richtig gefordert. Für manche ist der X2-6000+ tatsächlich zu lahm. Wird die PhysX da soviel ändern? Momentan gibt es keine klare Beispiele dafür. Nur Ansätze.
****
Wenn du GPU PhysX scheisse findets, gut, nimm doch deine CPU dafür oder verzichte auf die Effekte zwingt dich keiner dazu.
Zitat aus Post 28
Ich persönlich finde die PhysX gut.
---- Wenn das so weiter geht, brauche ich nur meine alten Aussagen nur zu kopieren. Ist wohl nicht der Sinn der Sache.:(
****
...ich habe lediglich dem "momentan gleichgut" wiedersprochen.
Indem du 2-3 Spiele nimmst die von PhysX mehr profitieren als vom Quad? Was ist mit all den Spielen die mitm Quad mehr FPS liefern als mit PhysX? Davon gibt es einiges mehr.
Dein Wiederspruch hast du nicht auf diese speziellen Spiele begrenzt. Dadurch hat deine Aussage einen allgemeinen Charakter angenommen. Wahrscheinlich war dir das zu dem Moment gar nicht bewusst - ich weiss es nicht.
 
@Schnie
Das habe ich nie behauptet, dass ich etwas gegen wikipedia habe. Ich habe lediglich gesagt, dass der autor dieses artikels mist gebaut hat, sollte aus meinem ersten post klar und deutlich hervorgehen eig.
In wie weit sich diese aussage auf die anderen games auswirkt kann ich nicht sagen, da ich diese zum allergrößten teil nicht spiele. hier würde aber abhilfe schaffen, wenn man sich auf der jeweiligen seite des herstellers die infos zusammenträgt, den so bin ich z.b. auf den fehler mit dem PhysX support bei AOE 3 gestoßen in dem ich einfach mal auf der verpackung nachgeschaut habe, wo mit havok und nicht mit physX geworben wird.
Von daher sollte man aufpassen wo man sich informiert, den wiki z.b. ist eine freie enzyklopädie und da trägt allein der autor die verantwortung über die richtigkeit seines beitrages.

mfg
 
Du machst es auch nicht leicht.
Schnie schrieb:
Überfordert Crysis auch den Quad? Sind die "Überforderungen" so fatal dass es zum Ruckeln kommt?
Ja, ruckeln würde ich das übrigens nicht mehr nennen, eine Kaffeepause zwischen 2 Frames ist schon drin.
Hängt natürlich von der Situation ab, im Allgemeinen Spielbetrieb gibts eben nur wenig Physik, weil Crytek ja ein auf vielen Systemen lauffähiges Spiel wollte und somit erreicht hat.
So sind wir eben bei Crysis quasi noch auf HL2 Niveau, 3,4 rollende Fässer, mehr nicht. Die Engine macht locker 30000 explodierende Fässer mit, nur der Quad macht Welten vorher schlapp.

Wir lernen:
Crysis lechzt nach Quads, die es auch nicht in 3 Jahren geben wird.
Wir befinden uns im Jahre 2008, Physikmäßig sind keine Welten zwischen dem tatsächlichen Crysisspielablauf und Hl2 sichtbar, der Dank gebührt der CPU.

Du nennst UT3 als Beispiel. Dann schreibst du die gerade zitierten Worte. Und behauptest dass dass PhysX (aus heutiger Sicht, für Gamer) mehr bringt als ein Quad.
Ich schreibe, das UT3 PhysX mit einem Quad heute nicht realisierbar ist, auch nicht mit 1000€.
Der durschnittliche Gamer hat wenig Spass, mit 2 FPS (Achtung geschätzt) dank seinem X2-6000+, zu spielen.
Ich schreibe (oder wollte es), das der Gamer auch heute einen Dual kaufen soll, guck mal in die Kaufberatungsfreds, mit einem Quad wirst du da belächelt.
Ich schreibe, das dank dem Quad die Physik in Crysis limitiert wird.

Was ist mit all den Spielen die mitm Quad mehr FPS liefern als mit PhysX? Davon gibt es einiges mehr.
Welche wären das, wo ich per Schalter wählen kann: CPU PhysX/CPU Havok, GPU PhysX?

wieso glaubst du dann dass sich die PhysX über kurz oder lang tatsächlich in der Form durchsetzen wird?
Habe ich in diesem Fred derartiges behauptet? Nein, noch nicht.
Nur so viel dazu: PhysX ist unbestreibar jung, seit Sommer 2008 für die breite Basis verfügbar, es sind Titel in der Pipeline und es ist konkurrenzlos und wirf mal einen Blick auf die Überschrift.

Gleichgut ist nicht gleich Gleichgünstig.
Stimmt, der QX9770 kostet mehr als eine 9500 GT.
Dann muss ich zugeben, das habe ich nicht bedacht, das gut und günstig nicht in einem Wort gekoppelt sein können.

Ich habe keinen Quad und keine PhysX-Karte. Trotzdem kann ich meine Spiele(und ich zocke sehr viel) ruckelfrei genissen. Aber kann sein dass ich auch nur falsche Games zocke;)
Applaus, du hast begriffen, das GPU-PhysX erst von 3 Spielen genutzt wird. Zufallig spielst du diese nicht. Nur allgemeingültig wird das dadurch nicht.

" ...ich habe lediglich dem "momentan gleichgut" wiedersprochen."
Indem du 2-3 Spiele nimmst die von PhysX mehr profitieren als vom Quad?
Richtig.
Gleichgut, bedeuted gleichgut und nicht gleichgut bis auf X,Y und Z.
 
Zuletzt bearbeitet:
Zurück
Oben