Laphonso schrieb:
GSync ist ein Traum, RTX bringt sichtbare Facetten an Immersion und Atmosphäre.
Ob das Gimmicks sind oder nicht, entscheidet dann ja der Konsumer- und Gamermarkt.
adaptive sync ist ein traum - gsync ist die nvidia methode, um den markt einer freien technologie zu berauben, und diese als mauer einzusetzen, durchgesetzt mit der marktmacht von nvidia.
nvidia nimmt ein problem mit einer vermeintlich einfachen lösung, verkompliziert das ganze, bastelt eine proprietäre hardware drum herum, und eine software. dadurch entsteht ein hardware-software schlüssel-schloß system.
wie adaptive sync vs. gsync. das selbe geht ohne gsync modul, ohne zusatzkosten, ohne nvidia hardware lock. bei nvidia ist das (wie immer) wohl etwas in die hose gegangen und der freie standard hat sich durchgesetzt. weil es nvidia aber hasst, wenn es "nice things" gibt, wird da sofort irgendwas unternommen, um ein "nvidia ding" draus zu machen, das entweder geld oder monopolstellung bringt.
und hier ist sie: die feindliche übernahme von freesync. das ist marketingtechnisch geschickt gemacht, aber eben auch typisch nvidia. anstatt, dass nvidia "adaptive sync" unterstützt, werden auf einmal monitore auf "gsync kompatibilität" geprüft - adaptive sync/freesync heißt jetzt "gsync compatible". fast alle "freesync" monitore werden jetzt nicht mehr mit "freesync" sondern mit "gsync compatible" beworben.
https://www.asus.com/de/Monitors/TUF-Gaming-VG27AQ/ ist ein normaler adaptive sync monitor - also "freesync" - trotzdem ein fettes "gsync" logo vorne drauf und "freesync" wird in keinem wort erwähnt.
es werden auch produkt pages nachträglich angepasst:
es ist hier wichtig das große ganze zu sehen:
https://www.igorslab.media/intel-unterstuetzt-vesa-adaptive-sync/
intel will auch vesa adaptive sync unterstützen. nur bis intel mit den eigenen gpus ums eck kommt, gibts nur noch nvidia gsync (compatible) - und schon kauft man zur intel gpu einen nvidia feature monitor - oder doch lieber direkt eine sicher kompatible nvidia gpu?!
dass es jetzt für amd gpu besitzer ein gutes stück schwieriger geworden ist, einen freesync monitor als solchen auszumachen, kommt ja auch erst noch oben drauf. für den rest der welt, der nicht so tief in der materie steckt, sieht das ganze jetzt allerdings so aus: "freesync gibts nicht mehr, freesync ist tot, adaptive sync for amd ist tot."
eigentlich hat nvidia aber mit gsync gegen freesync/adaptive sync verloren. die adaption von adaptive sync auf dem desktop markt haben nvidia kunden am wenigsten nvidia zu verdanken.
Zero_Point schrieb:
HL2 war lange vor PhysX und kann mit diesem nicht mithalten. 4 Jahre sind es, um genau zu sein.
der kauf von ageia durch nvidia war 2008 - die technologie von ageia wurde von 2004 an entwickelt. hier die tech demo:
dagegen die half life 2 E3 demo aus 2003:
da liegen schon 3 jahre dazwischen, zu gunsten von hl2 (älter).
welchen grund hat nvidia ageia zu kaufen? wie war das weiter oben noch?
nvidia nimmt ein problem mit einer vermeintlich einfachen lösung, verkompliziert das ganze, bastelt eine proprietäre hardware drum herum, und eine software. dadurch entsteht ein hardware-software schlüssel-schloß system.
klar - ageia kaufen, die physx funktionen der karten in geforce implementieren, und ati besitzer von physx ausschließen:
https://www.pcgameshardware.de/Graf...pdate-AMD-sagt-Physx-werde-irrelevant-696067/
und gleichzeitig will man auch cpus ausschließen (wir denken wieder an intel) - daher wird für den physx fallback auf eine cpu das instruction set x87 und nicht SSE2 genutzt.
igor hat dazu folgendes zu sagen:
With SSE2 optimizations and good threading management for the CPU, modern quad-core processors would be highly competitive compared to GPU PhysX. Predictably, Nvidia’s interest in this is lackluster.
https://www.tomshardware.com/reviews/nvidia-physx-hack-amd-radeon,2764-9.html
und was ist jetzt aus physx geworden?
es wurde in die eingekaufte unreal engine integriert - insgesamt ist die adaptionsrate außerhalb von software physx außerhalb der unreal engine sehr gering:
https://en.wikipedia.org/wiki/List_of_games_with_hardware-accelerated_PhysX_support
man sieht sehr gut, wie die meisten titel aus der "physx-zeit" stammen - danach hat das feature an relevanz verloren und nur studios mit großer nvidia nähe setzen noch auf hw-physx.
flüssigkeitssimulation in portal 2 in der source engine:
aus 2011.
physx ist irrelevant. totgemolken von nvidia.
gameworks tessellation:
wir erinnern uns nochmal an folgenden leitsatz:
nvidia nimmt ein problem mit einer vermeintlich einfachen lösung, verkompliziert das ganze, bastelt eine proprietäre hardware drum herum, und eine software. dadurch entsteht ein hardware-software schlüssel-schloß system.
INCREDIBLY DETAILED VISUALS
Experience an unprecedented level of detail and realism in the latest games. Tessellation- one of the biggest new features of Microsoft DirectX11- helps developers create more detailed characters and terrain in games, bringing you sharper, crisper images and a more realistic experience. GeForce GTX 400 GPUs deliver up to 8x the tessellation performance compared to competition*, bringing your games closer to reality without sacrificing the high frame rates you enjoy.
https://web.archive.org/web/20150318072556/https://www.nvidia.com/object/GTX_400.html
sehr witziges detail auf der seite der 400er serie:
Futuristic Graphics:
Prepare yourself for the future of gaming. GeForce GTX 480 powers interactive raytracing, bringing spectacular, photo-realistic renderings to your screen for the first time. Go ahead, spoil your eyes.
dann schauen wir uns mal das GCN paper von amd über tessellation an:
sub pixel tessellation verringert performance? oder sind amd gpus einfach nur schlecht in tessellationsaufgaben?
sicherlich ist zweiteres der fall, oder? hört man ja ständig. aber schauen wir uns das mal genauer an:
DX11 tessellation:
https://www.pcgameshardware.de/Snip...ecials/Technikanalyse-und-Benchmarks-1127251/
nvidia hairworks tessellation 64-fach:
https://www.hardwareluxx.de/index.p...d-tressfx-und-nvidia-hairworks-im-detail.html
faktor 64 auf den haaren? das ist doch ultra fein aufgelöst - das sind ja mehrere polygone pro pixel -OHHHH. verstopft das etwa die GCN render pipeline? wie war das noch mit der tessellationsleistung ab der 400er serie?
GeForce GTX 400 GPUs deliver up to 8x the tessellation performance compared to competition*, bringing your games closer to reality without sacrificing the high frame rates you enjoy.
das sind sicherlich nur zufälle, oder?
physx + geforce physx hardware beschleunigung -> schlechte performance für alle anderen
gameworks tessellation + tessellations einheiten in geforce gpus -> schlechte performance für alle anderen
gsync modul + geforce gpu -> teure proprietäre monitore und gekapertes adaptive sync
RTX??????
Laphonso schrieb:
😂 Man kann auch alles wörtlich nehmen. AMD kann jetzt, 13 Monate später, immer noch kein Hardware(Hybrid)Raytracing anbieten.
wie wärs denn damit:
nvidia sucht nach dem nächsten heißen shit nach physx und gameworks als köder für die eigene kundschaft und microsoft braucht dringend ein mittel gegen vulkan, damit man dx12 und damit auch win10 noch weiter in den markt drücken kann?
intel hat sich wohl eher auf vulkan statt auf dx12 eingeschossen:
https://software.intel.com/en-us/articles/practical-approach-to-vulkan-preface
wir erinnern uns an nvidias proaktive maßnahmen gegen intel.
nvidia und microsoft setzen sich zusammen, tüfteln aus dem nichts real time raytracing aus, und schieben das gemeinsam in den markt. die verlierer sind: vulkan, amd, intel.
intel hat mit sicherheit bei Xe raytracing bis turing nicht vorgesehen gehabt - das selbe gilt für navi von amd. und auch vulkan hat man knallhart auf dem falschen fuß erwischt. real time raytracing für spiele war absolut nicht absehbar bis turing.
wie war das mit dem hardware schlüssel vom software schloss? der unterschied liegt bei RTX darin, dass die API diesmal von microsoft kommt. trotzdem hat keine andere firma eine vergleichbare technik für die echtzeitberechnung von raytracing, weil das niemand auf dem schirm hatte.
im endeffekt bleibt aber alles beim alten.
und wenn man dann hier lesen muss "nvidia hat halt raytracing, und die anderen nicht, ist das ein grund nvidia zu kaufen" könnte ich mir nicht vorstellen, wie nvidias strategie hätte besser aufgehen können. das argument gibts so lange wie es nvidia gibt.
und bisher hat immer jeder verloren, außer nvidia.