News AMD: Mögliche Antwort auf Nvidias DLSS via DirectML

coole Videos ;)

sehe grad das wurde ja auch wohl neu aufgelegt

Finde aber der Schwerpunkt ist zu sehr auch Hochglanz gelegt. Matte Reflektionen und Schatten machen auch viel aus.
 
Zuletzt bearbeitet:
Volkimann schrieb:
Welche aber noch federführend unter ATi entwickelt wurde. Nach dem Kauf von ATi hat ja AMD recht schnell reagiert und die gröbsten Designfehler mit der HD 3870 beseitigt.

Weiß ich , es war die letzte von ATI entwickelte Karte (mMn die schlechteste Karte von ATI).
Die 3870 war aber auch nur ein kleines update, da man Designfehler nicht raus-patchen kann (hatte 2 3870 im Einsatz mit selbst modifiziertem Bios um den Stromverbrauch zu minimieren)
 
@Krautmaster
was erwartest du von einer Tech Demo ... , recht witzig ist sie Ja :D

Natürlich wäre ein Anzug mit Gebrauchs und Schmutzspuren realitätsnäher , aber das war schon bei der Star Wars Demo so , alles auf Hochglanz poliert um ja deutliche Reflexionen zu erzeugen ..

Sieht das alles in einem Video recht hübsch aus , in einem echten Spiel fällt es kaum auf , weil man mit allem möglichen beschäftigt ist anstatt sich an Reflexionen zu ergötzen , zumal man wohl auf FHD angewiesen ist um RTX in hoher Detailstufe mit hohen FPS Raten spielen zu können

Persönlich reicht es mir wenn sich in einer Pfütze der Himmel wiederspiegelt und nicht dazu noch eine in der Nähe zufällig ereignende Explosion bzw ein Feuer .
Ich denke nicht das die erste Generation der RTX Karten wirklich dafür geeignet ist wenn man dafür die Auflösung zurückschrauben muss .
Unter 7 nm mit dem zusätzlichen Transistorbudget das man erhält mag das anders aussehen , jedoch bleibt dort abzuwarten ob große Die s wirklich einen ausreichenden Yield bieten
 
cbmik schrieb:
Die 3870 war aber auch nur ein kleines update, da man Designfehler nicht raus-patchen kann (hatte 2 3870 im Einsatz mit selbst modifiziertem Bios um den Stromverbrauch zu minimieren)
Findest du? Wenn ich mich recht entsinne hat AMD mit der 3870 das größte Sorgenkind, den Verbrauch, erstmal angegangen und sowohl im Idle (von 229W auf 167W) als auch unter Last (von 351 auf 252W) die Leistungsaufnahme um 1/3 gesenkt und dabei die Leistung sogar etwas gesteigert.

https://www.computerbase.de/2007-11/test-ati-radeon-hd-3870-rv670/31/
 
Krautmaster schrieb:
In vielen Fällen ist Rasterizing fixer, und auch nicht wirkich schlechter. Das mögen am Ende nur noch 2% sein die dafür draufgehen, denke aber nicht dass das so schnell der Fall sein wird oder dass man je 100% RT hier sehen wird.
Die Wette halte ich.
Wir kommen von Sprites und 240x320. Da geht noch was. :)
Ergänzung ()

ZeroZerp schrieb:
Und pling- Wie es der Teufel so will ein proof of concept:
Na, das ging ja jetzt mal schnell.
Danke für den Link.
Ich muss mir das mal in Ruhe zu Gemüte führen. :)
 
Zuletzt bearbeitet: (Top much)
  • Gefällt mir
Reaktionen: Mcr-King
TroubleMachin schrieb:
Nvidia wettet also auf Deep Learning und ist AMD in diesem bereich bereits weit voraus.
Ob das so ist, wage ich nicht zu beurteilen. Allerdings muss es nicht so sein.

Deep Learning machen derzeit tausende Firmen und Forscher und es gibt auch sehr gute Open Source Codes. Das Ganze ist kein Hexenwerk und erfordert auch keine Super-Computer.

Das Resultat ist immer nur so gut wie die Datenbank, auf die zurück gegriffen wird. NVidia scheint derzeit zu glauben, daß man die besten Ergebnisse bekommt, wenn man für jedes Spiel eine eigene Datenbank anlegt (bzw. "anlernt").
Das mag stimmen, oder auch nicht. In jedem Fall müssen sie dabei für jedes Spiel eine neue Datenbank erstellen. Fangen also ständig wieder bei 0 an.

Kann gut sein, daß AMD je nach Spiel bessere oder schlechtere Ergebnisse mit ihren eigenen Datenbanken erzielt. Einen essentiellen Vorsprung hat NVidia nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Volkimann schrieb:
Findest du? Wenn ich mich recht entsinne hat AMD mit der 3870 das größte Sorgenkind, den Verbrauch, erstmal angegangen und sowohl im Idle (von 229W auf 167W) als auch unter Last (von 351 auf 252W) die Leistungsaufnahme um 1/3 gesenkt und dabei die Leistung sogar etwas gesteigert.

https://www.computerbase.de/2007-11/test-ati-radeon-hd-3870-rv670/31/
Das ist die Aufnahme des gesamten Systems. Wenn man nur die Karten vergleichen würde, wäre die prozentuale Einsparung noch wesentlich größer.
 
MK one schrieb:
@Krautmaster
was erwartest du von einer Tech Demo ... , recht witzig ist sie Ja :D
Viel erwartet man da nie, aber wenigstens was Brauchbares in Echtzeit was ja zeigen kann wo die Reise hingeht. Das Video von Remedy ist auch echt top und zeigt ganz unabh von Nvidia / AMD was gehen kann und wie viel Optimierung noch drin ist. Auch bei RT gilt es ja erstmal zu lernen und auch da wird man viele Tweaks anwenden um die Performance zu verbessern.
Ich kann mir auch vorstellen dass erstmal nicht mehr so einfach die BQ vergleichbar sein muss. Ggf ist Nvidia und AMD erstmal vollkommen selbst überlassen wo und wie sie die Ray's hinter der DX12 DRX API aufteilen, wie sie denoisen usw..

Intelligentes AA / Super Sampling kann ich mir gut vorstellen dass AMD auch zeitnahe ne eigene Implementierung bringt. Bin gespannt wie das aussehen wird. DLSS ist ja auch sehr weit von der Performance der reinen Render Auflösung entfernt. Mir fehlt da aber noch nen Test wie sich das Verhältnis bei verschiedenen Frameratem verschiebt, genau wie bei RT. Ggf ist der RT / Tensor Bereich bei hohen FPS eher das Limit als bei zb 30 FPS. Wie CPU Limit auch.
 
Direct ML Supersampling arbeitet mit beiden , AMD und NV , bei AMD über die Async Shader = Software , bei NV können die Tensor Cores direkt angesprochen werden = Hardware , das Ergebnis sollte gleich aussehen , warten wir es ab , ich gebe dieser Lösung jedenfalls mehr Chancen sich durchzusetzen als NV DLSS welches NV only ist

RT ist was anderes , das halte ich für zu aufwendig um in Software in Echtzeit bzw mit 60 FPS zu laufen . Da braucht es ein paar festverdrahtete Funktionen , ich bezweifle das das Rapid Math der Vega Karten dafür ausreicht , aber man wird sehen .. , es ist noch viel zu früh um da was zu sagen
 
  • Gefällt mir
Reaktionen: Sun-Berg und Mcr-King
RT ist soweit entfernt wie DLSS und ML von realen Anwendung einziger Vorteil von ML ist die Xbox da sie DX12 hat. Deswegen wird sich dass vielleicht schneller durchsetzen.
 
MK one schrieb:
Sieht das alles in einem Video recht hübsch aus , in einem echten Spiel fällt es kaum auf , weil man mit allem möglichen beschäftigt ist anstatt sich an Reflexionen zu ergötzen , zumal man wohl auf FHD angewiesen ist um RTX in hoher Detailstufe mit hohen FPS Raten spielen zu können

Warum geht man bei Raytracing ständig nur von Spiegelungen aus?
Weil BF V es hauptsächlich dafür einsetzt?

Schon Metro macht mit dem Beleuchtungssystem einen ganz anderen Ansatz. Ebenfalls Tomb Raider wo es auch nicht um Spiegelungen geht.

Versteift euch doch nicht immer darauf dass es nur um Reflexionen geht. Jeder Entwickler wird es für sein Game anders einsetzen. Solange man noch nicht ein komplettes Bild in Echtzeit mit einer GPU packt muss man sich halt entscheiden was verbessert wird.
Je nach Engine und Fähigkeit ist da auch in der Performance noch einiges drin. PCGH spricht es sogar im neuen Benchmark-Test zu BF an dass es jetzt halt nur angetackertes RT ist. Deswegen es auch zu überzeichneten Effekten kommen kann. Die Entwicklung und Engine aber erst mal in Zukunft von vornherein darauf ausgelegt sein muss.

Wird sich noch alles etwas wandeln wenn man es gleich mit Entwicklungzeit einplanen kann.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Genau was Games noch teurer macht für nix im Prinzip, denn es muss ja bezahlt werden von GPU Preisen mal zu schweigen denkt an meine Worte 2020. 😉

Davon ab gesehen müssen alle Engines neu aufgesetzt werden sonst bringt dass null.

RT, DSSL, ML, selbst DX12 VR ist noch eine Niesche nix für die Masse. 😉

Zu den anderen Games erstmal müssen die erscheinen Sorry ohne Unabhängie Test kann man dort keine Aussage Treffen.
 
  • Gefällt mir
Reaktionen: Benji18
DocWindows schrieb:
Was haben Treiberprobleme mit der Definition der Anforderungen zu tun? Softwareprobleme gibts immer mal wieder. AMD wurschtelt auch ständig an ihrem FreeSync rum und trotzdem gibts immer mal wieder Probleme.

Es soll sogar Hardwaredefekte geben die man durch einfaches Umtauschen eines Geräts beheben kann. Bei dir ist aber immer alles gleich ein Prinzipproblem.



Auch das hat nichts mit der Definition der Anforderungen zu tun. Warum lenkst du immer von konkreten Aussagen ab? Und wenn das nicht möglich ist kommste mit Themen von vor 10 Jahren oder noch früher. Und vor allem in Themen die gar nichts damit zu tun haben?
Es wurde nach Vorteilen von G-Sync gefragt und die habe ich genannt. Wozu musst du jetzt wieder derailen? Ich wette wenn ich noch 2x antworte sind wir wieder bei Intel und wie böse die AMD benachteiligt haben. Ist immer das Gleiche. Darum darfste dich jetzt gerne weiter mir dir selber unterhalten.

LOL. Du drehst dir auch alles so hin wie du es gerne hättest. Hauptsache Nvidia steht gut da und AMD ist Scheiße.
 
  • Gefällt mir
Reaktionen: Volkimann und Mcr-King
RT bei Quake2 unter Vulkan: http://brechpunkt.de/q2vkpt/

Allerdings kann ich nicht ganz rauslesen welche Hardware vorrausgesetzt wird.
Ich denke mal AMD fehlt es auch unter Vulkan am Renderbackend?
Oder muss das wirklich eine Eben drüber vom Treiber selbst schon unterstützt werden?
 
Naja sieht klasse aus für 2019 😉 und eine RTX2080 ti für 60 FPS @ WHDQ klasse.
 
KuroSamurai117 schrieb:
Warum geht man bei Raytracing ständig nur von Spiegelungen aus?
Weil BF V es hauptsächlich dafür einsetzt?
Vielleicht weil es bei den NV RT Tech Demos immer darum geht ? Alles auf Hochglanz poliert , ob bei der Star Wars Demo oder der weiter oben ...
Und Ausleuchtung incl Schatten kriegt man auch ohne RT ganz gut hin ... , das muß sich das Gaming Studio nur etwas Mühe geben beim setzen der Beleuchtungsquelle(n) und der Schatten .
 
  • Gefällt mir
Reaktionen: Mcr-King
MK one schrieb:
Und Ausleuchtung incl Schatten kriegt man auch ohne RT ganz gut hin ... , das muß sich das Gaming Studio nur etwas Mühe geben beim setzen der Beleuchtungsquelle(n) und der Schatten .

Gerade dieses "Mühe geben" aka Entwicklungsaufwand und Zeit will man in Zukunft an die Soft-Hardware abgeben.
Denn diese Fake-Effekte kosten halt auch Zeit um sie in jedem Level exakt anzupassen.
Paar Situationen funktionieren sie dann auch nicht richtig. Thema Blickwinkel.

Deswegen sind ja Entwickler dahinter her dass man es in einigen Jahren nicht mehr per Hand alles einfügen und durchtesten muss. Dann bleibt die Zeit andere Dinge aufzupolieren. Manche Entwicklungen dauern jetzt schon 4-5 Jahre. Da willst du dass dke noch weiter alles haarklein einfügen. Sieh nur mal welche Personalpower und Zeit für ein Red Dead Redemption 2 draufgegangen ist.

Klassische Erstellung ist irgendwo auch mal am Ende. Da helfen irgendwann keine Erhöhung.der Shader und Co mehr.

Irgendwo beginnt halt der Anfang von was Neuem. Dauert dann immer einige Jahre aber gleich wegen paar Demos und einem Game die Zukunft zu sehen ist halt schwer möglich.
Da AMD sogar mitzieht kann man ja schwer davon ausgehen dass es nur etwas bleibt was Nvidia fördert. Selbst Sony zeigt schon bei der GT Demo erste Raytracing-Versuche.
 
Na , bleib mal auf dem Teppich ... , man kauft sich keine 1200 Euro Karte um dann FHD mit NV RTX zu Gamen , sondern in 4K . Solange bei der Nutzung von RTX die Auflösung zurückgenommen werden muß , sieht das bestimmt nicht ganz so rosig aus , wie du das gerne hättest ...
Die 1 st Gen der RTX Karten ist das was sie ist , die erste Generation ....
 
  • Gefällt mir
Reaktionen: TheUngrateful
MK one schrieb:
, man kauft sich keine 1200 Euro Karte um dann FHD mit NV RTX zu Gamen , sondern in 4K . .

4k machen den ganzen Rasterizer-Fake auch nicht realistischer. Ray-Tracing hingegen schon. Das ist der Unterschied.
 
RT auch nicht weil im Prinzip ist es immer noch Raster Berechnung nur halt mit Fake Auflösung (Dssl, ML) damit die RT zu nutzen können. Wie gesagt mal sehen was draus wird Intel hat es ja auch mal probiert. 😉
 
Zurück
Oben