Marcel55
Fleet Admiral
- Registriert
- Nov. 2007
- Beiträge
- 18.044
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Ich denke, das wird so ähnlich funktionieren, wie Google hier die Gesichter hochrechnet.Botcruscher schrieb:Das nehm ich dir erst ab wenn dazu ordentliche Tests vorliegen. Bis dahin bleibt es eine Interpolation.
PrinceVinc schrieb:Ich finde es immer so interessant das AMD versucht Technologien zu nutzen/weiter zu entwickeln die schon Vorhanden sind um das gleiche zu erreichen wie Nvidia, aber Nvidia immer versucht ihr eigenes ding zu machen um extra ab zu Kassieren.
FreeSync>G-Sync, TressFX>Hairworks, DirectML>DLSS
benneque schrieb:Jetzt geht dasselbe Spielchen wohl wieder von vorne los... In 3 Jahren gibt's dann auch DirectML von Nvidia
Man erinnere sich an CUDA, Physix, G-Sync, und was es nicht noch so alles Nvidia exklusives gibt.
Wonder Boy schrieb:Ich bin gespannt, ob das überhaupt noch benötigt wird, wenn wir 8k flüssig im Griff haben. Lange dürfte das nicht mehr dauern, aber, doch sinnvoll, sofern man davon überhaupt einen Nutzen hat. Was nützt es nämlich, wenn überall immer noch Motion Blur vorherrscht.
Moriendor schrieb:Das ist kompletter Unsinn im Hinblick auf DirectML und Du solltest es besser wissen, da es hier im Thread schon mehrfach thematisiert wurde.
DXR und DirectML haben (DXR in 10/2018) bzw. werden (DML in 03/2019) in DirectX auf Grund einer sehr engen Zusammenarbeit zwischen Microsoft und nVidia Einzug halten (zu DML siehe z.B. MS Blog hier).
Richtig ist, dass nVidia für DLSS ein eigenes Backbone (DL Serverfarm) betreibt. Ist ja auch logisch. Irgendwo muss das "Training" und "Learning" ja erst mal stattfinden.
DirectML und DLSS sind aber eher als sich ergänzend und nicht als exklusiv anzusehen (dies ist hier von CB etwas unglücklich dargestellt).
Jedenfalls hat nVidia maßgeblich dafür gesorgt, dass beide Technologien in DirectX integriert werden, so dass diese damit jedem Entwickler mit Internetzugang zur Verfügung stehen, solange der in der Lage ist, sich das DirectX SDK zu saugen. Der Ball liegt nun bei den Entwicklern und was die aus DXR und DML machen.
Sicherlich wird nVidia da mit Blick auf ihr DLSS gelegentlich finanziell nachhelfen oder bestimmten Entwicklern anbieten, dass das nVidia Developer Support Team die Implementierung vor Ort gleich ganz übernimmt.
Und ist inzwischen zu 99,9% auf der CPU berechnet. GPU PhysX ist tot und zudem nicht mal aus der Feder von nvidia, sondern es wurde schlichtweg Knowhow einer dritten Firma sich einverleibt und auf die eigenen GPU umgebogen.Dural schrieb:PhysX ist heute die meist verwendete physik bibliotek, auch auf konsolen.
Das liegt weniger an G-Sync, sondern wohl eher an den Monitor Herstellern, welche Panels verwendet werden uswG-Sync ist technisch überlegen,
Autsch und dann muss nvidia extra ein G-Sync Modul entwickeln, obwohl es das bereits gibt?zudem AMD an Freesync nichts erfunden hat, die technik war vorhanden.
Komisch, Mantle und somit dem Grundgerüst von Vulkan, und damit der Anstoß für DX12 ist von wem nochmal kopiert?Der einziger grund wie so AMD immer nur kopiert und nichts "erfindet" liegt wohl daran das sie nicht die mittel dazu haben was eigenes auf die beine zustellen. Die nehmen das was sie am biligsten kriegen.
Ich behaupte, Du drückst dich hier etwas unglücklich aus. Ja, es wird lange dauern. Und selbstverständlich ist 100% RT das Ziel. Warum denn nicht?Krautmaster schrieb:Denke der ganze Prozess dürfte viele Jahre anhalten, 100% RT wird es wohl nie geben und das is auch nicht das Ziel.
Exakt- Die Technik steht einfach vor dem Durchbruch.Krautmaster schrieb:Wir sehen hier eher die Grundsteinlegung die Nvidia auch zum richtigen Zeitpunkt macht.
Vorsicht- Auch da passieren gerade Revolutionen, wenn es um GPU gestütztes Path Tracing geht:Denke der ganze Prozess dürfte viele Jahre anhalten, 100% RT wird es wohl nie geben und das is auch nicht das Ziel.
TheBeastMaster schrieb:Was kann denn G-Sync besser als Freesync? Der Hauptvorteil bei G-Sync resultiert doch daraus das Nvidia aktuell einfach die schnelleren GPUs hat oder nicht?
DayMoe schrieb:Ich verstehe nach wie vor nicht, weshalb in diesem Forum sehr oft davon gesprochen wird, dass 'AMD keine Konkurrenz für nVidia' ist ...
DayMoe schrieb:da diese reine PhysX Karten verkaufen wollten! NEBEN den GPUs!
DayMoe schrieb:Es ging denen nicht um die Software sondern darum Hardware zu verkaufen.
benneque schrieb:Den KI optimierten upscaler sollte jede CPU berechnen können. Hoffentlich auch die Recheneinheiten der GPU.
Postman schrieb:Auch in diesem Interview mit der AMD Chefin liest man leider zwischen den Zeilen, dass man bei den Grafikkarten weiterhin Mühe hat mitzuhalten.
...
Nun wird es aber Zeit bei den Grafikkarten mal wieder etwas Bahnbrechendes zu bringen.
..
Die letzte Karte die wirklich besser als von NVIDIA gewesen ist, war die 1900 XTX aus dem Jahr 2006.
Najaaa. Ich denke da auch eher an 2009. Die HD 5850 und 5870 haben gegenüber GTX 470 und 480 bis zuletzt bei Performance pro Watt die Nase vorn gehabt. Ca. 15 Prozent Mehrleistung der 480 standen 30 Prozent höhere Leistungsaufnahme gegenüber. Bei Crysis in FHD, max. Details bedeutete das konkret 41 anstatt 39 fps (jaaa, die ATI/AMD-Karte performte hier überdurchschnittlich).Postman schrieb:...
Die letzte Karte die wirklich besser als von NVIDIA gewesen ist, war die 1900 XTX aus dem Jahr 2006 ...
Du widersprichst dir doch, merkste oder?DocWindows schrieb:Nein, der Hauptvorteil ist, dass G-Sync Monitore "einfach funktionieren". Und das auch so gut wie immer in der gleichen Range. 30 Hz bis Maximafrequenz des Monitors. Die Ausnahmen die es davon gibt sind bei Adaptive Sync die Regel. Kein Flackern, keine gelegentlichen Blackscreens, etc.
Also dieser Thread zeigt erstmal nur auf wie sich diese Monitore an einer nvidia GPU verhalten.Die Threads zu G-Sync Compatible Monitoren hier im Forum zeigt mit jedem Tag mehr was für ein Wildwuchs an Hardware Adaptive Sync hervorgebracht hat. Möglicherweise ist die Spezifikation nicht streng genug ausgelegt, so dass jede Adaptive Sync Bildausgabeeinheit mit jeder Adaptive Sync Bilderzeugungseinheit fehlerfrei zusammenarbeiten kann.