News AMD: Mögliche Antwort auf Nvidias DLSS via DirectML

Ich hab auch noch einen Vergleich gefunden :lol:

Spaß bei Seite, gucken wir mal was dabei rum kommt.
Wobei ich es nicht gut finde, dass jeder sein eigenes Süppchen kocht, wäre es nicht einfacher wenn man gemeinsam an eine gute Lösung für jeden arbeitet?
 

Anhänge

  • comp.jpg
    comp.jpg
    1 MB · Aufrufe: 636
Vielleicht kann man damit die brachliegende Rohleistung der AMD Karten richtig gut benutzen.
 
Ne Lösung für beide? Am besten über ne gemeinsame Schnittstelle? Z.B. DirectX? nennt sich DirectML ;-)

Ist halt die Frage wie gut das auf den NV Karten dann tatsächlich läuft... aber es ist zumindest ein allgemeingültiger Weg und kein proprietärer.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich finde es immer so interessant das AMD versucht Technologien zu nutzen/weiter zu entwickeln die schon Vorhanden sind um das gleiche zu erreichen wie Nvidia, aber Nvidia immer versucht ihr eigenes ding zu machen um extra ab zu Kassieren.

FreeSync>G-Sync, TressFX>Hairworks, DirectML>DLSS
 
  • Gefällt mir
Reaktionen: Mcr-King
Jetzt geht dasselbe Spielchen wohl wieder von vorne los... In 3 Jahren gibt's dann auch DirectML von Nvidia ;)
Man erinnere sich an CUDA, Physix, G-Sync, und was es nicht noch so alles Nvidia exklusives gibt.
 
Gut dass es Konkurrenz gibt!
Wobei man sagen muss dass auch DLSS bis jetzt nicht sehr viel gezeigt hat und da es bis jetzt nur für 4k geplant ist für viele Leute wohl nicht nutzbar.
 
PrinceVinc schrieb:
Ich finde es immer so interessant das AMD versucht Technologien zu nutzen/weiter zu entwickeln die schon Vorhanden sind um das gleiche zu erreichen wie Nvidia, aber Nvidia immer versucht ihr eigenes ding zu machen um extra ab zu Kassieren.

FreeSync>G-Sync, TressFX>Hairworks, DirectML>DLSS

Das ist kompletter Unsinn im Hinblick auf DirectML und Du solltest es besser wissen, da es hier im Thread schon mehrfach thematisiert wurde.

DXR und DirectML haben (DXR in 10/2018) bzw. werden (DML in 03/2019) in DirectX auf Grund einer sehr engen Zusammenarbeit zwischen Microsoft und nVidia Einzug halten (zu DML siehe z.B. MS Blog hier).

Richtig ist, dass nVidia für DLSS ein eigenes Backbone (DL Serverfarm) betreibt. Ist ja auch logisch. Irgendwo muss das "Training" und "Learning" ja erst mal stattfinden.
DirectML und DLSS sind aber eher als sich ergänzend und nicht als exklusiv anzusehen (dies ist hier von CB etwas unglücklich dargestellt).

Jedenfalls hat nVidia maßgeblich dafür gesorgt, dass beide Technologien in DirectX integriert werden, so dass diese damit jedem Entwickler mit Internetzugang zur Verfügung stehen, solange der in der Lage ist, sich das DirectX SDK zu saugen. Der Ball liegt nun bei den Entwicklern und was die aus DXR und DML machen.

Sicherlich wird nVidia da mit Blick auf ihr DLSS gelegentlich finanziell nachhelfen oder bestimmten Entwicklern anbieten, dass das nVidia Developer Support Team die Implementierung vor Ort gleich ganz übernimmt.
 
  • Gefällt mir
Reaktionen: Hoebelix, Luzifer71 und Mcr-King
Ich bin gespannt, ob das überhaupt noch benötigt wird, wenn wir 8k flüssig im Griff haben. Lange dürfte das nicht mehr dauern, aber, doch sinnvoll, sofern man davon überhaupt einen Nutzen hat. Was nützt es nämlich, wenn überall immer noch Motion Blur vorherrscht.
 
benneque schrieb:
Jetzt geht dasselbe Spielchen wohl wieder von vorne los... In 3 Jahren gibt's dann auch DirectML von Nvidia ;)
Man erinnere sich an CUDA, Physix, G-Sync, und was es nicht noch so alles Nvidia exklusives gibt.

Genau. Da nVidia Microsoft die DirectML Spezifikationen quasi ins Gerät diktiert hat, wird es bestimmt so kommen. Ganz klar. Die haben sich mit MS extra zusammengesetzt, um eine Technologie für AMD zu entwickeln, die sie selbst aber erst in drei Jahren nutzen wollen.

Au Mann... :n8:
 
  • Gefällt mir
Reaktionen: kisser, Mort626, Hoebelix und eine weitere Person
Wonder Boy schrieb:
Ich bin gespannt, ob das überhaupt noch benötigt wird, wenn wir 8k flüssig im Griff haben. Lange dürfte das nicht mehr dauern, aber, doch sinnvoll, sofern man davon überhaupt einen Nutzen hat. Was nützt es nämlich, wenn überall immer noch Motion Blur vorherrscht.

Wir haben noch nicht mal 4k annähernd flüssig im griff xD also wird 8k noch sehr lange auf sich warten lassen.

Moriendor schrieb:
Das ist kompletter Unsinn im Hinblick auf DirectML und Du solltest es besser wissen, da es hier im Thread schon mehrfach thematisiert wurde.

DXR und DirectML haben (DXR in 10/2018) bzw. werden (DML in 03/2019) in DirectX auf Grund einer sehr engen Zusammenarbeit zwischen Microsoft und nVidia Einzug halten (zu DML siehe z.B. MS Blog hier).

Richtig ist, dass nVidia für DLSS ein eigenes Backbone (DL Serverfarm) betreibt. Ist ja auch logisch. Irgendwo muss das "Training" und "Learning" ja erst mal stattfinden.
DirectML und DLSS sind aber eher als sich ergänzend und nicht als exklusiv anzusehen (dies ist hier von CB etwas unglücklich dargestellt).

Jedenfalls hat nVidia maßgeblich dafür gesorgt, dass beide Technologien in DirectX integriert werden, so dass diese damit jedem Entwickler mit Internetzugang zur Verfügung stehen, solange der in der Lage ist, sich das DirectX SDK zu saugen. Der Ball liegt nun bei den Entwicklern und was die aus DXR und DML machen.

Sicherlich wird nVidia da mit Blick auf ihr DLSS gelegentlich finanziell nachhelfen oder bestimmten Entwicklern anbieten, dass das nVidia Developer Support Team die Implementierung vor Ort gleich ganz übernimmt.

Huh, ok. Hab tatsächlich nicht den ganzen Thread gelesen, war nur mein erster Gedanke xD

Danke fürs aufklären.
 
Dural schrieb:
PhysX ist heute die meist verwendete physik bibliotek, auch auf konsolen.
Und ist inzwischen zu 99,9% auf der CPU berechnet. GPU PhysX ist tot und zudem nicht mal aus der Feder von nvidia, sondern es wurde schlichtweg Knowhow einer dritten Firma sich einverleibt und auf die eigenen GPU umgebogen.
G-Sync ist technisch überlegen,
Das liegt weniger an G-Sync, sondern wohl eher an den Monitor Herstellern, welche Panels verwendet werden usw
zudem AMD an Freesync nichts erfunden hat, die technik war vorhanden.
Autsch und dann muss nvidia extra ein G-Sync Modul entwickeln, obwohl es das bereits gibt?
Scheint mir ja ein ziemlich inkompetenter Laden zu sein. :evillol:
Scheinen wohl bei AMD die schlaueren Köpfe zu sitzen, welche bestehende Technik aus dem mobilen Bereich vom eDP Anschluss auf Desktopgeräte mit DP und später HDMI zu adaptieren.
Weshalb da wohl nvidia nicht selbst drauf gekommen sind? 😓 Ach nein, sie verwenden ja auch nur dieselbe Technik als G-Sync in Notebooks. Ach herrje, so einen Schrott verkauft nvidia also in hochpreisigen Gaming G-Sync Notebooks... 😂

Der einziger grund wie so AMD immer nur kopiert und nichts "erfindet" liegt wohl daran das sie nicht die mittel dazu haben was eigenes auf die beine zustellen. Die nehmen das was sie am biligsten kriegen.
Komisch, Mantle und somit dem Grundgerüst von Vulkan, und damit der Anstoß für DX12 ist von wem nochmal kopiert?
Asynchronous Shader hat AMD nochmal von wem kopiert?
AMD 64 ist auch nur kopiert? Komisch, komisch, komisch.
AMD hat vielleicht nicht das meiste Geld, aber dafür clevere Lösungen und Ansätze.
 
  • Gefällt mir
Reaktionen: DaToni, katamaran3060, Mort626 und 6 andere
Krautmaster schrieb:
Denke der ganze Prozess dürfte viele Jahre anhalten, 100% RT wird es wohl nie geben und das is auch nicht das Ziel.
Ich behaupte, Du drückst dich hier etwas unglücklich aus. Ja, es wird lange dauern. Und selbstverständlich ist 100% RT das Ziel. Warum denn nicht?
Das ist DER Fixstern für HW-Entwickler, ach was alle Entwickler, in Sachen Graphik.
Hast Du schon mal Nerds erlebt, die für ihre Sache brennen und dann sagen, och nö, ist zwar geil, aber lieber doch nicht? Ich nicht. Finanzabteilungen, Business-Vertreter, ja, Entwickler, nein.
Es mag ja noch dauern, allerdings bin ich fest überzeugt, dass viele, jetzt, nachdem nVidia die Tür aufgestoßen hat, Blut geleckt haben und alles daran setzen werden, die 100% Wirklichkeit werden zu lassen.
 
  • Gefällt mir
Reaktionen: Mort626
Ähm nein dass muss sich erst zeigen Physix war auch erst der renner und dann. Deswegen niemals den Tag vor dem Abend loben und zu weilen ist RTX und DXR sehr selten und auch DX12 ist noch selten wie lange gibt es dass schon. Genau NV sagte ja immer DX11 ist besser mh komisch. 😉
 
  • Gefällt mir
Reaktionen: Hatch und Benji18
Krautmaster schrieb:
Wir sehen hier eher die Grundsteinlegung die Nvidia auch zum richtigen Zeitpunkt macht.
Exakt- Die Technik steht einfach vor dem Durchbruch.

Denke der ganze Prozess dürfte viele Jahre anhalten, 100% RT wird es wohl nie geben und das is auch nicht das Ziel.
Vorsicht- Auch da passieren gerade Revolutionen, wenn es um GPU gestütztes Path Tracing geht:
https://home.otoy.com/render/brigade/

Wenn man ein wenig rechnet,kann man sich der Schwächen der Rasterisierung, deren Aufwand ja proportional zur Komplexität der Szene kostet, ab einem gewissen Leistungsgrad der Hardware für Raytracing sparen.

Bei Raytracing fällt das Argument der Komplexität der Szene weg, da die Geschwindigkeit der Berechnung bei realtime- Raytracern größteneteils an die Anzahl der berechneten Bildpunkte geknüpft ist.
Für jeden Bildpunkt kann man dann noch die Anzahl der Abtastungen, Strahlentiefe, Bounces etc. bestimmen.
Das werden später einmal die einzigen Quality Settings werden, an welchen man bei den Spielen drehen kann.

Die klassischen offline- Raytracer brauchen ja nur deshalb so lange für ein Bild, weil jedes Pixel bis zum Totpunkt und mit extremer Strahlenanzahl zurückverfolgt wird. Diese letzten % Rückverfolgung und eine Abtastung mit einer Strahlenanzahl ab um die 50 tragen nur noch relativ wenig zur Bildqualität bei und kosten dabei unmengen an Rechenzeit. Das ist bei einem Realtime- Raytracer garnicht notwendig.

Was ich damit sagen will - Wir sind glücklicher Weise näher an "the real thing", als viele hier vermuten würden.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser, Unnu und Luzifer71
TheBeastMaster schrieb:
Was kann denn G-Sync besser als Freesync? Der Hauptvorteil bei G-Sync resultiert doch daraus das Nvidia aktuell einfach die schnelleren GPUs hat oder nicht?

Nein, der Hauptvorteil ist, dass G-Sync Monitore "einfach funktionieren". Und das auch so gut wie immer in der gleichen Range. 30 Hz bis Maximafrequenz des Monitors. Die Ausnahmen die es davon gibt sind bei Adaptive Sync die Regel. Kein Flackern, keine gelegentlichen Blackscreens, etc.

Die Threads zu G-Sync Compatible Monitoren hier im Forum zeigt mit jedem Tag mehr was für ein Wildwuchs an Hardware Adaptive Sync hervorgebracht hat. Möglicherweise ist die Spezifikation nicht streng genug ausgelegt, so dass jede Adaptive Sync Bildausgabeeinheit mit jeder Adaptive Sync Bilderzeugungseinheit fehlerfrei zusammenarbeiten kann.
Ergänzung ()

DayMoe schrieb:
Ich verstehe nach wie vor nicht, weshalb in diesem Forum sehr oft davon gesprochen wird, dass 'AMD keine Konkurrenz für nVidia' ist ...

Weil sie unter anderem nur 50% so effizient sind wie nVidia. Sie wären konkurenzfähig wenn man nVidia Grafikkartenbesitzer zwingen würde beim Spielen noch ne 100W Glühbirne einzuschalten. Leider gibts keine 100W Glühbirnen mehr. Sind verboten. Zu viel Energieverbrauch.

DayMoe schrieb:
da diese reine PhysX Karten verkaufen wollten! NEBEN den GPUs!

Nein, Ageia wollte reine Physikkarten verkaufen. nVidia wollte die Physik in ihren GPUs berechnen die sie sowieso verkaufen. Nicht auf Extrachips.

DayMoe schrieb:
Es ging denen nicht um die Software sondern darum Hardware zu verkaufen.

Ja, nVidia ist eine Hardwarefirma. Die wollen echt Hardware verkaufen.

Google geht es übrigens bei Android nicht um mit Software, die im Prinzip alle nutzen können, gutes zu tun, sondern darum Marktmacht zu generieren um ihre Services durchdrücken zu können.

benneque schrieb:
Den KI optimierten upscaler sollte jede CPU berechnen können. Hoffentlich auch die Recheneinheiten der GPU.

Ich gehe einfach mal davon aus, dass die trainierten Netze die nVidia erstellt auch nur auf nVidia Komponenten laufen werden. Ich denke das ist nicht zu pessimistisch gedacht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Moriendor, Hoebelix und Luzifer71
Postman schrieb:
Auch in diesem Interview mit der AMD Chefin liest man leider zwischen den Zeilen, dass man bei den Grafikkarten weiterhin Mühe hat mitzuhalten.
...
Nun wird es aber Zeit bei den Grafikkarten mal wieder etwas Bahnbrechendes zu bringen.
..
Die letzte Karte die wirklich besser als von NVIDIA gewesen ist, war die 1900 XTX aus dem Jahr 2006.

Wenn es nur um "High-End" Grafikkarten ginge. Aber das ist nicht die ganze Wahrheit. Zur Zeiten von Fermi, die 480GTX hatte AMD eine weit aus effizientere 5870 parat und die 5850 war einer der gefragtesten Grafikkarten und auch beim Release der 580 GTX war AMD mit der 6970 sehr gut dargestellt und auch die 6950 wurde hier am Forum am meisten weiter empfohlen. Mit der 7970 war man dann eine Zeit lang der Konkurrenz dann auch weit voraus, bis die 680 GTX kam, die in der gleichen Performance Liga war, aber effizienter.
Erst ab dem Punkt kam es dann dazu, dass AMD zwar mit der Performance und mit dem "Alter" mithalten konnte, weil 7970 und R9 290 waren Karten, die meist mehr verbraucht haben, als die Konkurrenz, die Konkurrenz karten mit dem Alter aber dann auch überholt haben. Es ist aber merkbar, dass AMD nachgelassen haben, als das Forschungs-Geld eben in erster Linie in den CPU Sektor geflossen ist.

Doch es gibt bereits Interviews aus dem Letzten Jahr, dass der Fokus nach einer neuen CPU Architektur (Ryzen) jetzt im GPU Sektor ist. Sprich es ist nicht schwer abzuschätzen, dass wenn was von AMD kommt, dann erst nach Navi, weil es eben eine neue GPU Arch ist, woran auch ehemalige Ryzen Ingenieure arbeiten, welche für Taktrate und Effizienz verantwortlich sein sollen. Das übrigens naiv gesagt, das eigentliche Problem von GCN ist.

Der Ansatz von AMD, eine Arch für alle Bereiche, Notebook, Gaming und HPC hat am Anfang ja gut geklappt und war mit dem Ansatz APUs auch nachvollziehbar. Doch da man die Kehrtwende Richtung Chiplet gegangen ist, erlaubt es AMD den Ansatz zu ändern, eben doch wieder mehrere Archs zu verwenden.
Persönlich hoffe ich, dass man GCN für HPC weiterentwickelt und eine neue Arch vorstellt, welche für Notebooks und Gaming ect gedacht ist. Man kann einfach nur abwarten, was 2020 vorgestellt wird.

Trotzdem hoffe ich, dass AMD den Ansatz Async Compute zur besseren und kompakteren GPU weiter vorantreibt.
 
  • Gefällt mir
Reaktionen: katamaran3060, Mcr-King und neofelis
Postman schrieb:
...
Die letzte Karte die wirklich besser als von NVIDIA gewesen ist, war die 1900 XTX aus dem Jahr 2006 ...
Najaaa. Ich denke da auch eher an 2009. Die HD 5850 und 5870 haben gegenüber GTX 470 und 480 bis zuletzt bei Performance pro Watt die Nase vorn gehabt. Ca. 15 Prozent Mehrleistung der 480 standen 30 Prozent höhere Leistungsaufnahme gegenüber. Bei Crysis in FHD, max. Details bedeutete das konkret 41 anstatt 39 fps (jaaa, die ATI/AMD-Karte performte hier überdurchschnittlich).
Der erste Wurf von Fermi war meines Erachtens klar unterlegen und kam auch ein ganzes Stück später in die Gänge. Neues Fertigungsverfahren 40nm bei TSMC, riesiger Chip, Holzattrappe etc. pp. Nein, es war keine gute Generation. Nvidia hat das später alles deutlich besser gemacht.
 
  • Gefällt mir
Reaktionen: Mcr-King
DocWindows schrieb:
Nein, der Hauptvorteil ist, dass G-Sync Monitore "einfach funktionieren". Und das auch so gut wie immer in der gleichen Range. 30 Hz bis Maximafrequenz des Monitors. Die Ausnahmen die es davon gibt sind bei Adaptive Sync die Regel. Kein Flackern, keine gelegentlichen Blackscreens, etc.
Du widersprichst dir doch, merkste oder?
Erst sagst du das G-Sync Monitore "einfach funktionieren" um es als Vorteil zu verkaufen, um dann im übernächsten Satz zu sagen "Die Ausnahmen die es davon gibt.." 😐😂
Also funktioniert G-Sync auch nicht immer einfach trotz dieser ach so hochwertigen Bedingungen.

Die Threads zu G-Sync Compatible Monitoren hier im Forum zeigt mit jedem Tag mehr was für ein Wildwuchs an Hardware Adaptive Sync hervorgebracht hat. Möglicherweise ist die Spezifikation nicht streng genug ausgelegt, so dass jede Adaptive Sync Bildausgabeeinheit mit jeder Adaptive Sync Bilderzeugungseinheit fehlerfrei zusammenarbeiten kann.
Also dieser Thread zeigt erstmal nur auf wie sich diese Monitore an einer nvidia GPU verhalten.
Und dieser Thread widerspricht auch deiner Aussage es sei die Regel das diese oder jene Probleme bei den Adaptive Sync Monitoren vorhanden seien.

Und dann stellen wir fest das es doch tatsächlich schlechtere und besser Monitore gibt? Nein! Doch! Oh! Und das bei einem Verhältnis von 352 AS fähigen Monitoren zu 56 G-Sync Monitoren.
Verdammt, muss der Kunde sich doch tatsächlich etwas selber informieren. So ein Mist aber auch.
 
  • Gefällt mir
Reaktionen: katamaran3060, Hatch, Herr Melone und 4 andere
Zurück
Oben