News Turing für Spieler: Nvidia enthüllt GeForce RTX 2070, 2080 und 2080 Ti

Hill Ridge schrieb:
PhysX nutzt über die CPU aber kein SSE, AVX,... das ist Steinzeitcode, damit es schön langsam läuft...
Als die Nummer mit der unterirdischen CPU Unterstützung von PhysX durch die Presse ging war 2010, seinerzeit wurde gesagt das mit PhysX 3.0 eine Multicore und SSE Unterstützung einziehen würde und die aktuell angebotene PhysX System Software von 2016 unterstützt was? *Trommelwirbel*
Unterstützt die Beschleunigung von NVIDIA PhysX auf GeForce für die SDK-Versionen 2.7.1, 2.7.3, 2.7.4, 2.7.5, 2.7.6, 2.8.0, 2.8.1, 2.8.3 und 2.8.4.
https://de.wikipedia.org/wiki/PhysX#Kritik
https://www.nvidia.de/object/physx-9.16.0318-driver-de.html

Die entsprechende aufgewertete Version wurde meines Wissens nach nur für den professionellen Bereich angeboten.
 
  • Gefällt mir
Reaktionen: Apocalypse und Mcr-King
Es geht hier um Preis/Leistung. Das hat, wie man sehen kann, 2 Bestandteile, nämlich Preis und Leistung. Wenn die 2070 doppelt so schnell ist wie eine 1080ti, hätte sie ein Super P/L Verhältnis. Da wir die Leistung aber nicht kennen, kann man dazu noch keine Aussage machen.

Ich versteh nicht ganz, was viele hier von Nvidia fordern. Also was müssten sie machen, damit Raytracing "offen" wäre?
 
Apocalypse schrieb:
Nur Nvidia ging sogar soweit, das die CUDA implementation deaktiviert wurde, wenn auch nur ein AMD Produkt im System detektiert wurde, selbst wenn man eine dedizierte Nvidia Karte für PhysX hatte, wurde diese nicht mehr genutzt, sobald das System auch AMD/ATI Karte hatte. Also in Zeiten als eine dedizierte PhysX Karte noch eine Option war. ;-)
Es wurde nicht PhysX deaktviert sondern die Ausführung über die GPU. Da ATI damals keinen Beschleuniger hatte, der PhysX hätte irgendwie GPU beschleunigt ausführen können und nV die Ageiakarten schnell abschaffte, wurde die Ausführung auf die CPU verlagert, eben mit den Beschränkungen die Waddenbeisser beschreibt. Man durfte keine nVidia Karte hinzustecken wenn der Treiber installiert war und die PhysX beschleunigt. Gibt ja Mods die bewiesen das es trotzdem geht.

Früher nutzen Spiele aber meist nur einen CPU-Kern und das war vermutlich zu lahm, was die zusätzliche Threadanzahl angeht.

Ob Entwickler bei der PhysX Prozessorauswahl dann bei Nichtvorhandensein der GPU Beschleunigung, eben nicht die CPU wählten und es lieber abschalteten (oder zu faul waren es anzupassen), muss man die fragen.
 
Zuletzt bearbeitet von einem Moderator:
pclovely schrieb:
@Waddenbeisser
Limitationen machen immer dann Sinn, wenn keine "freien" Threads in Programmierung verfügbar sind. 4Core=4T und dann hau ich bei 4 verfügbaren T=3T mit hoher Priorität nur für PhysX weg? Früher, wie du es beschreibst.

Es war aber Entwickler kontrolliert, warum dann nur 1C frag die.
Der einzige Sinn dieser Limitierung ist es die Konkurrenz auszubremsen um es als Alleinstellungsmerkmal zu behalten, daher auch der Abschaltmechanismus im Treiber. Wo kämen wir denn hin wenn nur eine billige Geforce für die Beschleunigung gekauft wird oder gar die Multicore CPUs schnell genug für die Berechnungen wären?
 
  • Gefällt mir
Reaktionen: Apocalypse
Du wirst lachen, ich hatte eine als PhsyX Beschleuniger. nVidia hat verloren...weil ATI mit nVidia schneller war (logisch extra Beschleuniger). Nachteil ich musste das Dingsta bezahlen, wars mir wert.;)

Beschränkungen gibt es nur wenn man sie sich gefallen lässt.

Was das andere angeht, gibt AMD Nvidia jetzt ihre Primitive Shader? Die brauchen ja auch was damit man ihre Kundschaft bei Laune hält, man sollte das nicht so aus der Fanboyecke betrachten. Wir wollen ja alle spielen, wenns geht mit allem neuen zu fantastischem Preis, natürlich wollen die Hersteller uns dafür alles verkaufen. VW baut auch keine BMW oder umgekehrt.

Nur wenn die ausrasten und Preise verlangen wie für eine Ferrari, der keiner ist, sollte man hellhörig werden.

Ray Tracing und Ray Tracing Hybrid um wieder zum Thema zu kommen.
 
Zuletzt bearbeitet von einem Moderator:
Nvidia hat PhysX auch zugekauft und wollte wohl den Kauf refinanzieren. Intel hat sich Havoc geschnappt, hat daraus aber nur wenig gemacht. Obsolet wurden beide aber sowieso mit der Einführung von Physik in DX.
 
Hier für alle die glauben die Karten werden nicht schneller sein! :freak::daumen::evillol:
In den meisten Games um die 50% schneller und das ohne DLSS! :rolleyes:

https://wccftech.com/nvidia-geforce-rtx-2080-gaming-performance-benchmarks-2x-over-gtx-1080-4k/

NV-GeForce-RTX-2080-Performance-1480x833.jpg
 
Das will ich sehen das Ark in 120 fps läuft.
 
  • Gefällt mir
Reaktionen: Apocalypse
Und diese konnte von der Presse verifiziert werden? Nein. Korrekt, da noch eine NDA läuft.

Hersteller-Angaben sind immer Cherry-Picking.

@Zock:

Haha, ja da musste ich auch lachen. Ark 120 FPS....ja wenn ich reinzoome und auf den Boden starre mit Sicherheit. :freaky:
 
  • Gefällt mir
Reaktionen: Mcr-King
WAS? Es wird mit einer GTX 1080 verglichen und die sagen bloß das es 1.5-2 mal so schnell ist wie mit einer GTX 1080. Wer sagt das eine 1080 bei Ark 60FPS hat?
 
Ja und das nennt sich Cherry-Picking. Das bestmögliche Ergebnis rauspicken und angeben, auch wenn es zu 99% der Zeit eben nicht so ist. Grade nVidia ist bei solchen Angaben immer sehr kreativ.

Warum lassen sie denn keine Reviews und Tests bisher zu ? ;)
 
xexex schrieb:
Nvidia hat PhysX auch zugekauft und wollte wohl den Kauf refinanzieren. Intel hat sich Havoc geschnappt, hat daraus aber nur wenig gemacht. Obsolet wurden beide aber sowieso mit der Einführung von Physik in DX.
Direct Physics fasst alle Schnittstellen zusammen und alle arbeiten daran auch mit. Das war auch der große Konsens. Es braucht ja einen Abstractionslayer zwischen Karte und Grafiktreiber.

Aber jetzt lassen wir das.
 
Hauwexis schrieb:
Sorry aber du hast den Bezug dazu verloren. Wie kann man solche Preis nur gut heißen? Schau dir die vergangenen 6 Jahre an wie unverschämter die Preise wurden.
Einfach nur nicht kaufen und fertig.
Ist mir schleierhaft wie man sowas auch nur verteidigen kann.
Ich habe weder den Bezug verloren, noch verteidige ich irgendetwas. Ich sage lediglich, dass man jetzt noch nicht weiß wie das Preis-Leistungs-Verhältnis konkret ist; vielleicht wird man ja überrascht.
Abgesehen davon heiße ich solche Preise ganz sicher nicht gut, ich verabscheue Nvidias ekelhafte Praktiken (Gameworks, ausnutzen der Marktmacht, überhöhte Preise) und wahrscheinlich wird das Leistungsplus nur das übliche sein und die Preise dreist und überhöht, ja - aber das ist eben nur Spekulation zum aktuellen Zeitpunkt und das wollte ich aufzeigen ;-)
 
Davon mal abgesehen wie die Leistung der Grafikkarten letztendlich wird bedeuten die Preise einfach das die Masse gar nicht die finanziellen Mittel dafür hat oder haben wird.

Das ist der Punkt an dem ich die Preispolitik von nVidia nicht verstehe. Was soll ich mit einer Grafikkarten Generation wo ich mir die Benchmarks anschauen kann?

Und zum Theme NVIDIA und exclusive features stellen sich bei mir die Nackenhaare auf. Monate hat’s gedauert bis der gsync fix für windowed applications kam und dann gibts Microruckler unter 60fps. Damit’s überhaupt funktioniert muss ich den 2.Monitor abklemmen x_x
 
  • Gefällt mir
Reaktionen: Mcr-King
Nein wie kannst du sowas sagen NV ist doch klasse die Treibern. ;)
 
xexex schrieb:
PhysX ist kein "zwischenprogramm" sondern eine API die eine Ebene über CUDA angeordnet ist. Im Gegensatz zu Gameworks unterstützt die API nur Nvidia Grafikkarten weil sie eben auf CUDA basiert. Gameworks hingegen setzt auf DX auf und läuft auf allen Grafikkarten. Darunter ist nur noch der Treiber und die Hardware.

Nvidia HAT eine proprietäre RT Schnittstelle für professionelle Karten namens OptiX. Die ist aber nicht für Spiele sondern für professionelle Anwendungen gedacht und optimiert.

Der Fallback Layer funktioniert ohne jegliche Hardwareseitige RT Unterstützung - mit entsprechender Leistung.
Also die API auf der API, womit wir wiede beim Thema Umweg wären?
Wenn OptiX eine RT API ist was ist dann RTX was hier nvidias Software Unterbau für DXR darstellen soll? Und sag jetzt bloss nicht "Treiber". Seit wann haben einzelne Teile des GPU Treibers separate Namen?
Es ist ja nichts neues das es bestimmte Funktionen in unterschiedlichen Ausführungen für unterschiedliche Geschäftsbereiche gibt.

Wenn du lesen würdest was ich schreibe dann wäre dir vielleicht auch aufgefallen das ich in dem von dir zitierten Posting bereits auf den Fallback Modus einging. Keine Beschleunigung heißt wohl eher nichts anderes als das es über die normalen Shader und nicht von speziellen Funktionseinheiten berechnet wird und schon sind wir beim Compute Bereich angelangt.
 
  • Gefällt mir
Reaktionen: Mcr-King
pclovely schrieb:
Es wurde nicht PhysX deaktviert sondern die Ausführung über die GPU. Da ATI damals keinen Beschleuniger hatte, der PhysX hätte irgendwie GPU beschleunigt ausführen können und nV die Ageiakarten schnell abschaffte, wurde die Ausführung auf die CPU verlagert, eben mit den Beschränkungen die Waddenbeisser beschreibt. Man durfte keine nVidia Karte hinzustecken wenn der Treiber installiert war und die PhysX beschleunigt. Gibt ja Mods die bewiesen das es trotzdem geht.

Früher nutzen Spiele aber meist nur einen CPU-Kern und das war vermutlich zu lahm, was die zusätzliche Threadanzahl angeht.

Ob Entwickler bei der PhysX Prozessorauswahl dann bei Nichtvorhandensein der GPU Beschleunigung, eben nicht die CPU wählten und es lieber abschalteten (oder zu faul waren es anzupassen), muss man die fragen.

Wobei man dazu sagen muss, das die CPU Implementierung so grottig damals war (heute wohl auch?), das Abschalten grundsätzlich oft die richtige Entscheidung war. Und wie gesagt, das man eben eine Nvidia Karte für GPU Beschleunigung nutzen konnte, auch Graphik von ATI/AMD kam ... jap, mit Mods konnte man diese Sperre von Nvidia umgehen. Manchmal zumindest, manchmal auch nicht, je nachdem wie sehr der Treiber gerade aktive gegen den Nutzer arbeitete. Nvidia halt.

Und btw, ich hab geschrieben das die CUDA Implementation deaktiviert wurde, das ist der Teil der auf der GPU läuft. ;-)
 
Wadenbeisser schrieb:
Wenn OptiX eine RT API ist was ist dann RTX was hier nvidias Software Unterbau für DXR darstellen soll?

1534971006322.png


Gerne nochmal für dich. RTX heißt der neue Chip und ebenfalls die gesamte neue Plattform.

1534971198477.png

https://developer.nvidia.com/rtx
Es gibt keinen Software "Unterbau". Wenn du halbwegs mal bereit wärst deinen Kopf einzuschalten, wüsstest du das DX12 grundsätzlich schon im Gegensatz zu DX11 sehr nah an Hardware arbeitet. DX ist eine Low Level API die letztlich direkt mit der Hardware kommuniziert.

Oder möchtest du jetzt behaupten AMDs GCN wäre auch ein Software Unterbau?
 
Zuletzt bearbeitet:
Zurück
Oben