News AMD: Mögliche Antwort auf Nvidias DLSS via DirectML

kisser schrieb:
4k machen den ganzen Rasterizer-Fake auch nicht realistischer. Ray-Tracing hingegen schon. Das ist der Unterschied.

auch auf einmal , irgendwer sprach immer von Augenkrebs wenn ich sagte , mir persönlich reicht FHD , hat immer einen wahren Shitstorm ausgelöst , warst nicht du aber .... , witzig wie sich die Ansichten ändern wegen etwas Ausleuchtung und ein paar Reflektionen , oder glaubst du es wird tatsächlich alles berechnet bei RT ?
Wie Realitätsnah ist es wenn ein Feuer oder eine Explosion eine Reflektion in einer Pfütze oder blank polierten Autotür erzeugt , aber das Blatt von einem Baum das per Zufallsgenerator abfällt um Wind zu simulieren nicht ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Terminator-800, TheUngrateful und Mcr-King
Selbst für eine 2080 Ti würde ich nur einen WQHD-Monitor kaufen, 144 Hz ziehe ich vor. Und für dem angemessene Frameraten in 4k ist auch die 2080 Ti zu langsam.
 
MK one schrieb:
Na , bleib mal auf dem Teppich ... , man kauft sich keine 1200 Euro Karte um dann FHD mit NV RTX zu Gamen , sondern in 4K . Solange bei der Nutzung von RTX die Auflösung zurückgenommen werden muß , sieht das bestimmt nicht ganz so rosig aus , wie du das gerne hättest ...

Erst mal geht schon locker 1440 bis 1600p bei BF V nach dem Patch wo zu viele Ray's auf Objekte geschossen wurde.
Wie es letzten Endes bei den anderen Games aussieht weißt du ebenso wenig wie ich. Wie gesagt müssen sich Engine auch entwickeln. Aber dazu muss auch Hardware da sein um sie anzusprechen.
Nur hat auch nicht Jeder mit einer 2080/2080 Ti einen UHD Monitor. Es gibt genug die noch Jahre bei WQHD oder Ultrawide mit 3440x1440p sitzen.

Dass UHD mit so einer aufwendigen Berechnung wie Raytracing auf einer GPU nicht bei der ersten Gen geht sollte man selber darauf kommen.
Es gibt genug Games mit Ultraeinstellung wie sehr aufwendige Umgebungsverdeckung, volumetrischer Beleuchtung, Partikelberechnung bei Rauch (The Division 1) wo du selbst eine klassische Titan auf Full HD zwingst.
Effekte die dann fast nur mit 30fps einhergehen hab es schon vor Raytracing.
Ist deswegen jede Karte gleich untauglich oder nicht wert veröffentlich zu werden. Wirst immer Software haben die voll aufgedreht erst 1-2 GPU Generationen später flüssig laufen.

Raytracing ist für mich nichts anderes als eine Demo für spezielle Ultraeinstellung.

Für Performance musste man bisher jede neue Technik abschalten. War schon vor den RTX Karten so.
Aber man hat halt schon mal die Wahl.
Dass es einem die Sache Preis/Leistung bei Nvidia zu teuer ist kann man auch nachvollziehen.

Aber rein die Technik betrachtet werden wir in 1-2 Jahren Fortschritte sehen.

Dabei können auch Hilfsmittel wie DLSS und DirectML helfen.
Solange das Gesamtergebnis am Bildschirm gefällt muss man ja nicht jeden Pixel mit der Lupe betrachten.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
KuroSamurai117 schrieb:
.
Dass es einem die Sache Preis/Leistung bei Nvidia zu teuer ist kann man auch nachvollziehen.

Aber rein die Technik betrachtet werden wir in 1-2 Jahren Fortschritte sehen.

Dabei können auch Hilfsmittel wie DLSS und DirectML helfen.
Solange das Gesamtergebnis am Bildschirm gefällt muss man ja nicht jeden Pixel mit der Lupe betrachten.
Nicht nur das Gesamtergebnis am Bildschirm muss stimmen, es muss auch so stimmen. Was bringt es der Masse wenn Raytracing zwar voll ermöglicht wird, der benötigte Chip aber riesige Ausmaße annimmt, da vollgestopft mit spezialisierten Einheiten und deswegen in der Produktion Unmengen kostet?

Wenn man den Folien von AMD glaube kann, steigen die Kosten für einen Shrink gewaltig. Chipfläche wird also immer "wertvoller". Diese Fläche dann mit spezialisierten Einheiten zu zupflastern welche nur für gewisse Features einen Nutzen haben erscheint in meinen Augen sehr abwegig.
Sony, MS und Nintendo werden sich sicher nicht darum reißen.
 
  • Gefällt mir
Reaktionen: Mcr-King
TheUngrateful schrieb:
Nicht nur das Gesamtergebnis am Bildschirm muss stimmen, es muss auch so stimmen. Was bringt es der Masse wenn Raytracing zwar voll ermöglicht wird, der benötigte Chip aber riesige Ausmaße annimmt, da vollgestopft mit spezialisierten Einheiten und deswegen in der Produktion Unmengen kostet?

Was bringt klassische Rohpower wenn sie wie bei AMD häufig nicht auf die Straße kommt?
Software und Hardware müssen immer zusammenpassen für optimale Ergebnisse.

Man sieht ja bei den Konsolen was exklusive Entwicklung aus Hardware holt gegen über Multiplatt.

Selbst vei den Konsolen hast du Lösungen speziell in Hardware. Eben wie es die Pro mit Checkerboard gemacht hat. Gehe mal schwer davon aus dass über 70% ein God of War oder Horizon Zero Dawn trotz Checkerboard als sehr ansehnlich empfinden.

Deswegen lässt sich Raytracing sicherlich auch mit solchen Methoden gut umsetzen.

Irgendwann brauch halt spezielle Hardwarelösungen um weiterzukommen. Ebenso wie man irgendwann eine komplett andere CPU Architektur braucht weil klassischen Aufbau immer kleiner machen auch keine großen Sprünge mehr zulassen.

Irgendwann werden auch die Tensor und RT-Core immer leistungsfähiger. Dann müssen die nicht mehr anwachsen.
Es wird immer Möglichkeiten geben mit Co-Prozessoren was zu koppeln.

Wie es jetzt aussieht sind aber mehr an Raytracing interessiert als Nvidia alleine.
Werden ja dann sehen wie es AMD umsetzt trotz 7nm Fertigung.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Richtig deswegen ist sowieso nur eine Lösung MCM von AMD und sage nur Intels igpu ist was effektiver als NV und AMD zusammen. Leider sind die Treiber Müll was den Effekt wieder zu nichte macht.

Lustig finde ich auch RT und DSL ist ja so cool naja Früher haben all die NV Anhänger über Checkerboard und Co gelästert genau wie über Win10 und DX12. 😉
 
KuroSamurai117 schrieb:
Was bringt klassische Rohpower wenn sie wie bei AMD häufig nicht auf die Straße kommt?

Werden ja dann sehen wie es AMD umsetzt trotz 7nm Fertigung.
Ich bin der Meinung die Umsetzung über universelle Einheiten ist sinnvoller, auch wenn diese ineffektiver sein sollten. Zumindest Stand jetzt ohne dabei genaue Daten zu kennen.
Vielleicht ist dann wirklich endlich mal die Rohpower der AMD Karten nutzbar.
 
  • Gefällt mir
Reaktionen: Mcr-King
TheUngrateful schrieb:
Ich bin der Meinung die Umsetzung über universelle Einheiten ist sinnvoller, auch wenn diese ineffektiver sein sollten.

Man sieht doch schon an der Titan V dass es selbst mit den Tensor-Core geht aber bei viel RT-Darstellung erheblich hinter die 2080 Ti fällt.

Es wird auf klassischen Chipsaufbau wohl nicht gehen. Da müsste man doch erst recht einen Mega-Chip entwerfen um genug Power zu bekommen.
Sonst hätte man es doch schon lange umgesetzt.

Wenn man 4 Titan zusammenkleben muss um die Star Wars Demo mit 24 Bilder dazustellen dann weiß man doch wie lange es dauert bis sowas in der Mittelklasse ankommt.

Für manche Dinge braucht man einfach spezialisierte Hardware.

Irgendwann werden ja die RT-Core den Hauptchip wirklich entlasten können. Dann wird Rechenleistung eher frei als eingespannt.
Mag jetzt noch nicht mit Turing gehen aber 1-2 Generationen weiter kann es schon ganz anders aussehen.

Schwieriges Thema aber letzten Endes sind wir auf die Entwicklung der GPU Hersteller angewiesen.

Ich sehe nur noch nich so viele Anzeichen dass es eine klassische GCN Architektur mit wirklich spielbarer Framerate packt.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
KuroSamurai117 schrieb:
Man sieht doch schon an der Titan V dass es selbst mit den Tensor-Core geht aber bei viel RT-Darstellung erheblich hinter die 2080 Ti fällt.
Man sieht doch aber genauso, dass eine 1200€ GPU ohne dabei das volle RT Feature set umzusetzen erheblich an Performance einbüßt. So schön Echtzeit RT auch ist bzw. sein kann, man ist bis jetzt nicht auf den Gedanken gekommen es umzusetzen weil ein extremer Rechenaufwand dafür nötig ist. Mit den RT Cores wird dieser Rechenaufwand zwar besser bewältigt, trotzdem ist es aber noch sehr fordernd.

Spiele werden auch so immer fordender für die Hardware. Man kann es also nicht einfach bei den Recheneinheiten belassen und nur die RT Core Anzahl erhöhen. Man muss jetzt also an zwei Stellen verbessern.

Ich finde Echtzeit RT ja auch super, aber ich sehe nicht dass es in naher Zukunft eine starke Verbreitung erfahren wird, zumindest über spezialisierte RT Cores. Auch wenn diese dabei sehr viel effektiver sind.
 
Spätestens wenn Streaming im Gaming-Bereich angekommen ist, macht RT Sinn, da es woanders berechnet wird

Aber wir schweifen ab. Hier geht's es eigentlich um Direct ML als DLSS-Alternative
 
Zuletzt bearbeitet:
Ja Streaming ist klasse in der Stadt und auf dem Land naja bei unserer Internetverdindung klasse, die meisten bei uns haben 1000-2000 Verbindungen.

Auch wenn du schnelles Internet hast kannst du nur Telkom nehmen was arsch Teuer ist. Denn dank der Regierung kann die Telekom andere Anschlüsse einfach abschalten oder langsamer machen klasse Regierung die wir haben. Naja Streaming ist klasse nur ohne Internet kacke beim Film kann ich sie mir runter laden wenn ich mal kein Internet habe und beim Gaming. 😉
 
MK one schrieb:
, oder glaubst du es wird tatsächlich alles berechnet bei RT ?

Nein, aber es ist ein Anfang. Die Technik der Rasterizer ist am Ende. Bestimmte Sachen funktionieren damit entweder garnicht oder der Aufwand (=geforderte Rechenleistung) ist so extrem hoch, dass es nicht lohnt für 5% mehr Qualität 100% mehr Rechenleistung zu verbraten.
 
MK one schrieb:
oder glaubst du es wird tatsächlich alles berechnet bei RT ?
Wenn du dir meinen Link ansiehst von Quake2, ja, da wird alles geraytraced.
Bevor man sich lustig über die Grafik macht, sollte man sich mit der Technik näher vertraut machen.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
r4yn3 schrieb:
Wenn du dir meinen Link ansiehst von Quake2, ja, da wird alles geraytraced.
Bevor man sich lustig über die Grafik macht, sollte man sich mit der Technik näher vertraut machen.
Die Auflösung ist nicht grad die höchste , oder ? , auch die Anzahl der Objekte ist ziemlich eingeschränkt , nicht ? , dennoch braucht man bereits Hardware RTX der NV Karten ....
und ich mache mich nicht lustig , ich sage nur die 1 st Gen RTX Karten haben nicht genug Power um das ganze in höheren Auflösungen Gaming tauglich zu machen oder tatsächlich realitätsnah . Es ist ein Anfang , nicht mehr ...
 
  • Gefällt mir
Reaktionen: Mcr-King
Nee Vollständiges RT ist nicht möglich zumindest nicht jetzt und auch nicht in 10 Jahren da die Rechenleistung dafür einfach zu hoch ist selbst mit RT und Tensor Kerne.

Auch bei RT gibt es verschiedene Wege der Berechnung was die Qualität beeinflusst und auch die Leistung die benötigt wird.

Also warten wir es ab und sehen mal was kommt.
 
MK one schrieb:
Die Auflösung ist nicht grad die höchste , oder ?
1440p 60fps.
Der Detailgrad ist für Raytracing eher Nebensache. Die Anzahl der Lichtquellen und Rays ist entscheidend, und Lichter gibt es eben in Q2 schon einige.
Quake wird halt gerne verwendet weil ed scheinbar gut zu modden ist, und hier auch schon viel dokumentiert ist.
Optisch könnte das auch Crysis 4 sein, das ist dann schon egal.
 
Egal ist es nicht saga nur noch die Ganzen NV Freaks die mit 144 und mehr FPS zocken möchten und immer sagen 60 ist zu wenig. 😉 Davon abgesehen ist eine offene Welt noch mal eine ganz andere Nummer.
 
r4yn3 schrieb:
1440p 60fps.
Der Detailgrad ist für Raytracing eher Nebensache. Die Anzahl der Lichtquellen und Rays ist entscheidend, und Lichter gibt es eben in Q2 schon einige.
Quake wird halt gerne verwendet weil ed scheinbar gut zu modden ist, und hier auch schon viel dokumentiert ist.
Optisch könnte das auch Crysis 4 sein, das ist dann schon egal.

Ich schrieb es schon mal , für reine Ausleuchtung braucht man kein Raytraying , alles ist RT bei Quake ? , wieso haben dann die Figuren oder Gegenstände keine z.B Schatten ? Klar , war nicht vorgesehen seinerzeit .
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
TheUngrateful schrieb:
Ich bin der Meinung die Umsetzung über universelle Einheiten ist sinnvoller, auch wenn diese ineffektiver sein sollten.
Wieso sollte das sinnvoll sein? o.O

Wenn man z.B. für 100€ zusätzliche Produktionskosten entweder noch mehr klassische Recheneinheiten auf eine GPU packen kann oder spezielle RT-Einheiten, und die RT-Einheiten dann 3 mal so viel leisten, wäre es doch total banane, nur auf die "universellen" Einheiten zu setzen.
Das wäre eine totale Verschwendung von Ressourcen.

Und RT ist here to stay.
Und das wurde jetzt nicht nur deshalb plötzlich umgesetzt, weil die Leistung so langsam ausreichend ist, sondern auch wegen den Fortschritten im Bereich "Deep Learning AI".

Die Strahlen decken ja längst nicht alles ab. Auch bei dieser Quake-Version erhält man eigentlich nur ein extrem lückenhaftes (verrauschtes) Bild. Aber seit einigen Jahren gibt es nun eben Algorithmen, die aus sowas ein vernünftiges Bild konstruieren können.

Eigentlich müsste man NVidia (trotz Verärgerung über erstmal hohe Preise bei vergleichbar wenig klassischer Leistung) dankbar sein. Sie haben den Stein für Gaming in's Rollen gebracht. Und AMD hat bereits angekündigt nachzuziehen. Auch die werden in Zukunft extra Recheneinheiten für RT auf ihre GPU packen.
 
Zurück
Oben