Welche physix karte zu meiner RTX 3070 er

Wenn du Gsync + Vsync benutzt brauchst du weder im Spiel die FPS zu begrenzen, noch mit Rivatuner. Das hat sowieso keinen Effekt. Vsync begrenzt deine FPS schon auf die maximalen Hz die dein Monitor schafft. Zumindest ist das bei FreeSync + Vsync der Fall. Ich gehe mal davon aus, das Prinzip bei Gsync ist dasselbe. Allerdings solltest du dir überlegen ob du Vsync nicht lieber deaktivierst. Trotz Gsync verursacht Vsync eine minimale Verzögerung die man gerade bei FPS wie CoD lieber vermeiden möchte.
 
Zuletzt bearbeitet:
Sry aber das ist leider falsch.Man soll immer Gsync mit Vsync im Treiber aktivieren und Vsync im Game auf Aus stellen und die Latenz im Treiber auf Ultra stellen und ggf noch zusätzlich die Framerate 3-4 fps unter des Monitors einstellen.

 
RobinSword schrieb:
Wie kommst du drauf, dass nur ein paar Spiele PhysX unterstützen? PhysX wird nach wie vor von vielen Spielen genutzt, auch neueren. Ist inzwischen sogar Open Source und wird von vielen Entwicklern genutzt. Die Unity Engine nutzt es zum Beispiel, die CryEngine soweit ich weiß auch.
Wie viele aktuelle Spiele nutzen GPU-beschleunigtes PhysX? Nicht verwechseln! PhysX ist seit Jahren eine generelle Physikbibliothek, die so erstmal rein auf der CPU läuft. U.a. in den Standartvarianten in Unity, CryEngine etc.

Für GPU-Beschleunigung müssen spezielle PhysX Klassen genutzt werden.

Hier geht es spezifisch um eine zweite Karte für GPU-PhysX. Und da gibts seit einigen Jahren so gut wie nichts mehr in Spielen.
Ergänzung ()


Nur bevor dieser Satz aus deinem Post:
RobinSword schrieb:
Und bevor die Frage kommt: Wenn man eine GraKa von AMD hat, dann werden genauso die PhysX-Bibliotheken genutzt, nur finden die Berechnungen dann eben auf der CPU statt.
jemanden in diesem Zusammenhang verwirrt...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Otsy
ScottytoHotty schrieb:
Sry aber das ist leider falsch.Man soll immer Gsync mit Vsync im Treiber aktivieren und Vsync im Game auf Aus stellen und die Latenz im Treiber auf Ultra stellen und ggf noch zusätzlich die Framerate 3-4 fps unter des Monitors einstellen.


Gut, dann scheint es doch Unterschiede zu Freesync zu geben.
Offizielle Aussage von AMD ist, dass man die FPS nicht limitieren sollte, sondern entweder Freesync + Vsync nutzen oder bei Spielen wo so wenig Input-Lag wie möglich vorhanden sein sollte, Freesync + Enhanced Sync.
Hab seit kurzem einen Freesync Monitor und hatte extra nochmal direkt bei AMD nachgefragt.

ScottytoHotty schrieb:
Mir ist was aufgefallen zu Cold war wo die Microruckler ja auftreten.Ich habe die Latenz auf Ultra gestellt Vsync ein und Gsync an im Treiber nun gehe ich auf das Spiel drauf und begrenze die framerate auf 300 fps nun ist es so dass ich konstant bei sehr hohen einstellungen und 1440p meine 162fps erreiche ohne dass die frame rate nach unten hin weggbricht und die fps limitiert habe ich mit Riva tuner weil das laut informationen nochmals eine bessere latenz nach sich zieht und schon habe ich das problem zumindestens in Cold war gelöst mit den Microrucklern.Damit will ich sagen sobald die fps nach unten hin weggbrechen merke ich ein leichtes Microruckeln was ich nun beseitigt habe.

Vg

Ich versteh nur immer noch nicht wieso du die Frames auf 300 im Spiel begrenzt und dann nochmal mit Rivatuner auf 162 und zusätzlich noch Vsync an ist. Die 300 FPS erreichst du doch nie.
 
Turr1caN schrieb:
Ich versteh nur immer noch nicht wieso du die Frames auf 300 im Spiel begrenzt und dann nochmal mit Rivatuner auf 162 und zusätzlich noch Vsync an ist. Die 300 FPS erreichst du doch nie.

Das komische ist wenn ich die fps nicht auf 300 im Spiel begrenze dann sackt ständig die fps unter 130 ab wenn ich die fps begrenze auf 300 bleibt die fps konstant auf 162 stehen.Keine ahnung wieso das so ist.Finde es auch merkwürdig. Probiere es einfach mal aus.

PS: Ich habe es jetzt mal mit Vsync aus Probiert und auch da scheint die fps weil ich diese auf 300 limitiert habe im Spiel immer am Maximum zu laufen zusätzlich habe ich wie gesagt im Rivatuner die fps auf 162 begrenzt. Eventuell habe ich jetzt dank dir eine geringere latenz.Vielen dank :) .Wie gesagt dass die fps am limit läuft die ganze zeit geht aber bei mir nur wenn ich diese im Spiel auf 300 begrenze
VG
 
Zuletzt bearbeitet:
Powl_0 schrieb:
Wie viele aktuelle Spiele nutzen GPU-beschleunigtes PhysX? Nicht verwechseln! PhysX ist seit Jahren eine generelle Physikbibliothek, die so erstmal rein auf der CPU läuft. U.a. in den Standartvarianten in Unity, CryEngine etc.
Da sagt Wikipedia aber was anderes:
---
Im Februar 2008 übernahm der Grafikchiphersteller Nvidia Ageia und integrierte die PhysX-Engine in das hauseigene CUDA-System, um sie auf Grafikkarten der GeForce-Serie lauffähig zu machen. Damit können die Physikberechnungen auch von der Grafikkarte durchgeführt werden, was zusätzliche Physikbeschleuniger optional macht. Allerdings muss die Grafikkarte CUDA unterstützen und ein aktueller Grafikkartentreiber installiert sein. Dies ist bei Nvidia seit der Grafikkartentreiberversion 177.83 der Fall. Es ist zudem möglich, eine separate Grafikkarte nur als Physikbeschleuniger zu verwenden.
---
Und so hatte ich das auch im Kopf: Nvidia hat Ageia PhysX aufgekauft und in die Geforce-Karten integriert. Diese können demnach sehr wohl die Physik-Berechnungen übernehmen und die CPU entlasten. Dass die Entwickler bei der Entwicklung speziell beachten müssen, ob die Berechnungen auf GPU oder CPU laufen, wäre mir neu.

Wenn du überzeugt bist, dass PhysX heute nur noch auf CPU genutzt wird, dann verlinke doch bitte eine entsprechende Quelle.
 
RobinSword schrieb:
Im Februar 2008 übernahm der Grafikchiphersteller Nvidia Ageia und integrierte die PhysX-Engine in das hauseigene CUDA-System, um sie auf Grafikkarten der GeForce-Serie lauffähig zu machen. Damit können die Physikberechnungen auch von der Grafikkarte durchgeführt werden, was zusätzliche Physikbeschleuniger optional macht. Allerdings muss die Grafikkarte CUDA unterstützen und ein aktueller Grafikkartentreiber installiert sein. Dies ist bei Nvidia seit der Grafikkartentreiberversion 177.83 der Fall. Es ist zudem möglich, eine separate Grafikkarte nur als Physikbeschleuniger zu verwenden.

Weiter unten aber auch:

"Im März 2015 kündigte Nvidia in Teilen die kostenlose Freigabe des PhysX-Quellcodes auf GitHub an, mit Beschränkung auf die CPU-berechneten Codeteile."

Physx läuft schon länger mit auf der CPU, der Grund hierfür ist auch das nur sehr wenige Titel Physx auch nutzten. Daher die Freigabe, der Platzhirsch ist halt nun mal nach wie vor Havoc.
 
Pocketderp schrieb:
Weiter unten aber auch:

"Im März 2015 kündigte Nvidia in Teilen die kostenlose Freigabe des PhysX-Quellcodes auf GitHub an, mit Beschränkung auf die CPU-berechneten Codeteile."
Hmm... das reicht mir als Beleg aber nicht. Der Quellcode ist eine Sache... die Entwickler und die Engines nutzen ja nicht den Quellcode, sondern die zur Verfügung stehenden Libraries. Du bindest physx.dll & Co. ein - wo das dann läuft kann doch der Grafikkartentreiber entscheiden. Zumindest ist es für mich nicht logisch, warum die Geforce die Berechnung nicht übernehmen sollte, wenn sie es schneller kann, und der Fallback eben die CPU ist. Dass der (Game-)Code für Berechnung auf GPU völlig anderes aussehen muss als auf CPU wäre mir neu. Aber ich lasse mich gerne noch überzeugen, dass PhysX auf GPU nicht mehr geht.


Pocketderp schrieb:
Physx läuft schon länger mit auf der CPU, der Grund hierfür ist auch das nur sehr wenige Titel Physx auch nutzten. Daher die Freigabe, der Platzhirsch ist halt nun mal nach wie vor Havoc.
Das würde ich jetzt mal frech bezweifeln. Wikipedia ist sicher nicht das Maß aller Dinge, aber in der List of games using Havok sehe ich da nur eine Handvoll Spiele in den letzten Jahren.

PhysX-Dlls sehe ich aber in allen möglichen Spielen. Quasi jedes Unity-Game nutzt PhysX. Cyberpunk 2077 wie gesagt auch. Wenn wohl auch nur die CPU-Variante. Für mich sieht es aber eher so aus als würde PhysX durch die Integration in die Engines als Physik-Middleware ziemlich viel genutzt. Bekommt halt keiner mehr mit, weil es jetzt eben nur noch ein Engine-Feature ist wie viele anderen auch...
 
  • Gefällt mir
Reaktionen: Klever
RobinSword schrieb:
Da sagt Wikipedia aber was anderes:
---
---
Und so hatte ich das auch im Kopf: Nvidia hat Ageia PhysX aufgekauft und in die Geforce-Karten integriert. Diese können demnach sehr wohl die Physik-Berechnungen übernehmen und die CPU entlasten. Dass die Entwickler bei der Entwicklung speziell beachten müssen, ob die Berechnungen auf GPU oder CPU laufen, wäre mir neu.

Wenn du überzeugt bist, dass PhysX heute nur noch auf CPU genutzt wird, dann verlinke doch bitte eine entsprechende Quelle.
Du vermischt da Dinge. Ja, ursprünglich kaufte Nvidia Ageia für die HW beschleunigte Physik Engine. PhysX beinhaltet seit vielen Jahren aber nicht nur diese Komponente, sondern auch eine klassische CPU-Physik-Engine. Die hat Nvidia u.a. als Konkurrenz zu zB Havok positioniert.

Die Art PhysX, die bei Unity und Co ab Werk genutzt wird, läuft immer auf der CPU, da es in diesen Fällen schlichtweg eine normale Physik Engine ist. Auf der GPU beschleunigt werden nur spezielle, optionale Klassen der Bibliothek.

PhysX läuft also NICHT automatisch auf der GPU, sondern muss dafür erst entsprechend aufgesetzt werden.

Nein, eine Quelle werde ich dafür nicht raussuchen, dafür ist mir die Diskussion hier zu unwichtig.

Ob GPU PhysX in einem Spiel aktiv ist, kannst du auch ganz einfach bei dir lokal ausprobieren. Über das Nvidia Control Panel kann man sich per Overlay Marker anzeigen lassen, wenn eine Applikation die GPU Beschleunigung für PhysX nutzt.
 
Powl_0 schrieb:
Ob GPU PhysX in einem Spiel aktiv ist, kannst du auch ganz einfach bei dir lokal ausprobieren. Über das Nvidia Control Panel kann man sich per Overlay Marker anzeigen lassen, wenn eine Applikation die GPU Beschleunigung für PhysX nutzt.
Ok, werde ich ausprobieren.

Eine Frage, was heißt dann das rot Markierte hier:

physx.png
 
RobinSword schrieb:
- wo das dann läuft kann doch der Grafikkartentreiber entscheiden. Zumindest ist es für mich nicht logisch, warum die Geforce die Berechnung nicht übernehmen sollte, wenn sie es schneller kann, und der Fallback eben die CPU ist.
Nein. Nur bestimmte Objekte der Bibliothek können auf der GPU ausgeführt werden, da eben die Berechnung anders funktioniert als bei CPU Physik. Ebenso kann auf GPU Physikobjekte nicht einfach so zugegriffen werden wie auf CPU Physikobjekte. Zeitkritische Physik erfolgt zB in der Regel auf der CPU, weil dort direkt im gleichen Frame darauf zugegriffen werden kann. GPU Physik muss erst mit dem RAM zurück synchronisiert werden, was mitunter >1 Frame dauert.

Der Treiber kann entscheiden, welche Komponente im System die PhysX Beschleunigung übernimmt. Ob aber PhysX Objekte beschleunigt werden oder direkt klassisch auf der CPU berechnet werden, hängt vom Objekttypen ab.
Ergänzung ()

RobinSword schrieb:
Ok, werde ich ausprobieren.

Eine Frage, was heißt dann das rot Markierte hier:

Anhang anzeigen 1039669
Das heißt, dass PhysX Beschleunigung (!) - falls vom Spiel unterstützt - von der 2070 übernommen wird.


PhysX hat eine pure CPU Komponente, klassische Physikengine ohne Hardwarebeschleunigung.
PhysX hat daneben noch eine beschleunigte Komponente, die je nach Hardware von der GPU beschleunigt werden kann oder als Fallback ebenso auf der CPU ausgeführt wird.

Die klassische Komponente und die beschleunigte Komponente nutzen unterschiedlichen Code und unterschiedliche Objekttypen.

Das was in Spielen heutzutage verwendet wird, ist zu 99% die klassische Komponente und kann nicht durch Hardware beschleunigt werden.

Ist verwirrend, ich weiß. Hat Nvidia in der Nomenklatur ungünstig gelöst, weil beides den gleichen Namen PhysX trägt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever
So, ich hab jetzt mal die PhysX-Anzeige im Nvidia Control Panel aktiviert und alle Spiele gestartet, die ich aktuell installiert hab (ja, ich bin ein wenig RPG-lastig unterwegs ^^). Hier das Ergebnis:

Call of the SeaPhysX
ELEX PhysX
Flight Simulator?
Gothic Playable TeaserPhysX
GreedFall ?
Horizon Zero DawnHavok
Kingdom Come Deliverance?
No Man's SkyHavok
OperenciaPhysX
Quern ?
Skyrim Havok
The Outer WorldsPhysX

"?" bedeutet, dass ich keine Anzeige bekommen hab und ich daher nicht weiß, ob/welche Physik-Engine verwendet wird
"Havok" bedeutet, dass ich keine Anzeige bekommen hab, aber herausgefunden hab, dass das Spiel Havok nutzt (z.B. durch SplashScreen am Anfang).
"PhysX" bedeutet, Anzeige zeigt an, dass PhysX aktiv ist.

Und ja: Bei den PhysX-Spielen steht tatsächlich ausschließlich PhysX CPU dran, von daher hat Powl_0 völlig recht gehabt. :)
Also Danke @Powl_0, dass du dir doch die Mühe gemacht hast, es verständlich zu erklären. Jetzt ist es mir klar geworden!

Fakt bleibt aber, dass PhysX an sich nicht tot, sondern quicklebendig ist. Nur eben in der CPU-beschleunigten Variante. Die GPU-beschleunigte Variante scheint in der Tat der Vergangenheit anzugehören.

Wobei ich mir am Schluss dann doch die Frage stelle: Was hat Nvidia die Übernahme von Ageia PhysX denn jetzt eigentlich genau gebracht? War das lediglich ein gescheiterter Versuch, ein Alleinstellungsmerkmal zu implementieren (wie aktuell Raytracing, DLSS, etc.)? Und da daraus nichts wurde, haben sie es Open Source gemacht... aber wo ist da dann jetzt noch was dran verdient?
 
Ich denke, das Know How von Ageia hat ihnen bei der Entwicklung von CUDA und generell GPGPU geholfen. Und das ist ja heutzutage eins der größten Standbeine für Nvidia.

Hardware-PhysX an sich war Mitte der 2000er nicht extrem relevant, aber ein gutes Marketingmittel.
 
RobinSword schrieb:
Und ja: Bei den PhysX-Spielen steht tatsächlich ausschließlich PhysX CPU dran, von daher hat Powl_0 völlig recht gehabt. :)

Ja, wenn du eine Nvidia-GPU hast, dann läufts natürlich in der Hardwarefassung. Hättest eine von den Amd, dann wäre es dann in Software. Aus diesen Grund wurde es Open Source, damit es auch auf Systemen Anwendung fand die eben nicht eine GPU von Nvidia verfügen. Es lagt dann also auch an den anderen Spieleschmieden die Unterstützung mit zu implementieren.
 
Pocketderp schrieb:
Es lagt dann also auch an den anderen Spieleschmieden die Unterstützung mit zu implementieren.
Für viele Spielentwickler war es vorher auch an sich uninteressant, da nVidia wohl happige Lizenzkosten veranschlagte.

nVidia ist noch immer ein Wirtschaftsunternehmen und seinen Aktionären und Angestellten verpflichtet.

Um es mit Lothar Matthäus zu halten "wäre, wäre...Fahrradkette", aber kein Wirtschaftsunternehmen würde ein wirklich erfolgreiches und etabliertes Produkt (wofür man selbst auch irgendwann mal eine große Summe X bei der Übernahme ausgegeben hat), mit dem man auch noch Lizenzeinnahmen generieren kann, mal eben so zur OpenSoure erklären.

Aber das ist nur meine persönliche Meinung dazu.
 
Ltcrusher schrieb:
Um es mit Lothar Matthäus zu halten "wäre, wäre...Fahrradkette", aber kein Wirtschaftsunternehmen würde ein wirklich erfolgreiches und etabliertes Produkt (wofür man selbst auch irgendwann mal eine große Summe X bei der Übernahme ausgegeben hat), mit dem man auch noch Lizenzeinnahmen generieren kann, mal eben so zur OpenSoure erklären.

Es sei denn, es lief eben außerhalb der "Gameworks-Bubble" eben nicht so wie erhofft mit Physx. Und das Nvidia nun alles als Opensource veröffentlich hat kann man hier nachlesen.
 
Zurück
Oben