News Licht in Spielen: AMD patentiert eigene Raytracing-Technologie

Was ist ein Texturprozessor?
 
Sun-Berg schrieb:
Die da wären? Ich finde Raytracing gut, weil es ganz neue Wege öffnet Grafik zu erzeugen. Spannender war Grafik schon lange nicht mehr.
Ich fände Techniken, welche die Performance weiter nach vorne bringen beim Darstellen höherer Detailgrade, bspw Objektdichte etc. sehr viel sinnvoller. Stattdessen bekommen wir hier eine Technik die für marginalste Lichteffekte die man aktiv vermutlich nur beim zuschauen in einem Benchmark verfolgt und die Performance massiv nach unten zieht. Nicht falsch verstehen, neue Technologie ist immer gern willkommen, aber hier wird aus einem bestenfalls Beta-Status ein Feature-Hype aufgebaut, der weder dem Ergebnis noch den Anforderungen um es halbwegs brauchbar nutzen zu können, gerecht wird. Sowas in die Consumer-Sparte fließen zu lassen ist einfach nur Geldmacherei und ein saftiger Preis für Vorschusslorbeeren in meinen Augen...
Ergänzung ()

Herdware schrieb:
Und so sollte es doch sein. Nur dann gibt es Anreize sich zu verbessern und den Konkurrenten zu überflügeln.
Wenn die beiden einzigen Hersteller dedizierter GPUs einen "Waffenstillstand" schließen und die exakt selbe RT-Technik nutzen, bleibt die Entwicklung (in dem Bereich) doch stehen.
Käse. Die RT-Technik krankt in erster Linie an ihrer Performance und da gibt es immens viel potential nach oben bei dem sich alle Hersteller von GPUs massiv profilieren könnten. Proprietäre Technologien sind in der Regel nie etwas, im Sinne des Kunden. Siehe AdaptiveSync vs. G-Sync. Letzteres ist nicht (viel) anderes als ersteres mit einem Preisaufschlag-Dongle weil Grün und Marketing.
 
  • Gefällt mir
Reaktionen: nap
DrFreaK666 schrieb:
Wer spielt 2020 noch freiwillig in 1080p?
Das ist so old-school
2020 4K-8K, HDR, Raytracing @30FPS-15FPS
Da ist soo old-school :daumen:
Die Hersteller sollen mal vernünftige Grafikkarten für 4K@60FPS machen, dann kann ich von FHD auf 4K umrüsten. Ab 2030 rechne ich mit einer guten Xbox Konsole 4K@120FPS+HDR+Raytracing
 
1440p auf UHD hochskaliert sieht auch schon deutlich besser aus als 1080p
Ergänzung ()

Aslo schrieb:
Was ist ein Texturprozessor?

Wieso stellst du die Frage nicht Google?? ;)
 
7hyrael schrieb:
Proprietäre Technologien sind in der Regel nie etwas, im Sinne des Kunden.

Das ist doch nicht mehr propritär wie z.B. 3D-Beschleunigung auch. Es gibt die gemeinsamen Schnittstellen (Direct3D, Vulkan usw.), aber wie das dann von der GPU-Architektur (RDNA oder Turing) am besten gerendert wird, entscheidet der jeweilige Hersteller für sich. Ich sehe da keinerlei Notwendigkeit für eine Standardisierung der internen, technischen Umsetzung, und hielte das nur für schädlich.
 
  • Gefällt mir
Reaktionen: Fraggball
Ganz ehrlich, finde ich sehr gut. In der Vergangenheit hat ATI/AMD massiv Marktanteile an Nvidia verloren als die dieses "Physix" überall verbreitet haben und die Studios genötigt hatten das Extra per Zwang laufen zu lassen, so das Spieler mit ATI/AMD Karten immer im Nachteil waren und aktuell noch sind - wegen dem Patent. (Dank der aktuell schnellen CPU's, kann man das verschmerzen die können per Softwareemulation die Berechnung übernehmen, aber vor 10 Jahren war das noch nicht denkbar mit der Gurkenleistung damals.
Direct X12 ist übrigens - lob an MS. Mal eine Schnittstelle die einfach die Hersteller nötigt bis zu einem gewissen Grad zusammen zu arbeiten. Nvidia untersagt und verbietet ja standardmäßig per Treiber das verwenden einer Geforce Karte für Physix in Verbindung mit einer AMD-Karte. Dank DX12 kann man die Zusammenarbeit erzwingen und Nvidia kann sich nicht dagegen wehren, weil das Auflagen von MS sind (DX12 Standard Feature)

Ich träume immer noch in naher Zukunft beides unter einer Haube zu bekommen um von den Features und technologischen Errungenschaften beider Hersteller zu profitieren... Gerade im Hinblick auf PCIE 4.0 mit Multi-GPU mode wie Ashes of Singularity gezeigt hat, alle machbar und eine Frage der Implementierung. Nvidia und AMD müssen in dem Bereich das Kriegsbeil begraben, AMD hat dies schon in der Vergangenheit getan und zugegeben für Highend Leistungstests Nvidia Grafikkarten zu verwenden um die CPU-Leistung bis zum Anschlag zu testen damit die GPU nicht den Flaschenhals Spiele Benchmarks abbildet. Nvidia hat sich auch zumindest kürzlich etwas geöffnet durch die Unterstützung von FreeSync... naja schon mal ein Anfang

mfg
 
Unnu schrieb:
Stimmt ja so eigentlich auch nicht, oder?
Stimmt so auch nicht.

Die RT-Cores in den Turnings sind sogar "relativ" simpel, da sie primär dazu dienen um herauszufinden, ob ein Strahl auf ein Objekt trifft und eben die dazu nötigen Daten schneller zu finden. Am Ende steht aber auch bei nVidia der normale Shader, der dann die restlichen Berechnungen ausführt.

@RYZ3N es wäre vielleicht gut, wenn du die News etwas anpasst. Auch nVidia setzt ja nicht auf eine reine Hardware-Lösung, sondern auf eine Mischung aus Hardware + Software. Die RT-Cores dienen auch hauptsächlich dazu - stark stark vereinfacht - heraus zu finden, ob ein Strahl auf ein Objekt trifft und welche Kaskade das dann zur Folge hat, anschließend werden die finalen Effekte aber auch per Shader berechnet.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, .Sentinel. und Unnu
Roche schrieb:
Und NVidia bekommt damit wieder noch mehr Grafikkarten verkauft, dank AMD. Das sollte eigentlich nicht das Ziel sein, glaube ich.

Es kommt aber dem Kunden zugute denn wenn RT sich überall hardwareseitig etabliert dann kommen die Spielehersteller ja wirklich nur schwer umher es nicht zu nutzen. ^^
 
Teralios schrieb:
Stimmt so auch nicht.

Die RT-Cores in den Turnings sind sogar "relativ" simpel, da sie primär dazu dienen um herauszufinden, ob ein Strahl auf ein Objekt trifft und eben die dazu nötigen Daten schneller zu finden. Am Ende steht aber auch bei nVidia der normale Shader, der dann die restlichen Berechnungen ausführt.

@RYZ3N es wäre vielleicht gut, wenn du die News etwas anpasst. Auch nVidia setzt ja nicht auf eine reine Hardware-Lösung, sondern auf eine Mischung aus Hardware + Software. Die RT-Cores dienen auch hauptsächlich dazu - stark stark vereinfacht - heraus zu finden, ob ein Strahl auf ein Objekt trifft und welche Kaskade das dann zur Folge hat, anschließend werden die finalen Effekte aber auch per Shader berechnet.


Ich dachte die dienen dazu nur zu bestimmen wann der Effekt anwendet werden muss, d.h Das der Effekt nur auftritt wenn der Betrachter hinschaut, ähnlich wie bei Quantenmechanik .. nach dem Motto der ist nur solange da jemand zuschaut.
 
Fraggball schrieb:
was das ganze deiner meinung nach mit dem von amd angemeldeten patent zu tun hat bleibt mir ein rätsel...
Battlefied 5 läuft ja auf einer gtx 1070 mit dxr medium auch auf 50fps mit 1% 36fps, das sagt genausoviel über das neue amd patent aus, nämlich das man DXR halt auch mit shadern berechnen kann...
Ich will ja gar nicht die technischen Hintergründe und Patente vergleichen, sondern nur Vorfreude darauf generieren, was wir am Ende erwarten können. Und zwar basierend auf der Softwarelösung von Crytek, die auf einer Vega 56 lief. Dass man Raytracing auf Shadern realisieren kann, ist natürlich klar. AMD wird also einen Hybrid aus Hardware und Software anbieten. Letztere wird vielleicht auch downloadbare Updates erhalten. So können wir wohl von Ergebnissen ausgehen, die besser als das sein werden, was wir in der Crytek-Demo sahen. Und da diese wiederum
auf einer Mittelklasse-Grafikkarte bereits prächtige Ergebnisse lieferte, können wir vielleicht am Ende sogar mehr erwarten als von Nvidias Lösung.

Möglicherweise sollte ich mich nicht zu sehr freuen :D es sieht einfach sehr vielversprechend aus!
 
  • Gefällt mir
Reaktionen: Cpt.Willard, Unnu und Fraggball
Ich gehe davon aus durch die Softwarelösung spart man sich die "Hilfschips" die aktuell locker durch die CPU ersetzt werden können. mein 8 Kerner langweilt sich in der Regel bei Spielen...
 
@HardRockDude prinzipiell stimme ich dir dabei zu das ich mich freue das Raytracing inzwischen eine breite adaptierung bekommt und auch amd mitmacht.
überraschend ist es allerdings nicht wirklich, es ist ja schon länger bekannt das ps5 und die neue xbox raytracing haben werden.
das es dafür einer lösung von amd bedarf is ja klar.
was die performance angeht habe ich noch keine meinung, allerdings ist entgegen der landläufigen meinung RT auf RTX-Karten ziemlich gut spielbar sofern man mit 1440p und minimum 60 fps leben kann und es beherrscht den raytracing regler evtl von ultra auf hoch oder medium zu schieben...
Ob AMD das hinbekommt werden wir sehen, unwahrscheinlich ist es aber nicht, schliesslich haben sie ja noch n bisschen zeit für den feinschliff der konsolen und nächsten gpu gen.
alles andere als zumindest gleichwertige leistung mit einer 2080 wäre eine ziemliche enttäuschung, aber das werden sie schon hinbekommen.

Ergänzung ()

n3cron schrieb:
Ich gehe davon aus durch die Softwarelösung spart man sich die "Hilfschips" die aktuell locker durch die CPU ersetzt werden können. mein 8 Kerner langweilt sich in der Regel bei Spielen...
Die CPU wird auch schon bei nvidias RTX/DXR implementierungen stark beansprucht, allerdings "nur" mit notwendigen Drawcalls und ähnlichem. die CPU last steigt mit RT massiv an. nicht umsonst fordert BF5 in seinen recommended specs für RT einen 8700.
dein "serieller" 8 Kerner ist allerdings extrem ungeeignet für extrem stark paralleliserte BVH berechnungen die der Kern von RT sind. liegt in der natur der sache und dem unterschied zwischen CPUs und GPUs.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HardRockDude
DrFreaK666 schrieb:
Wieso stellst du die Frage nicht Google?? ;)

Gib das selber mal auf Google ein...da kommen nur links zu News mit dem selben Inhalt wie hier.
 
Fraggball schrieb:
Die CPU wird auch schon bei nvidias RTX/DXR implementierungen stark beansprucht, allerdings "nur" mit notwendigen Drawcalls und ähnlichem. die CPU last steigt mit RT massiv an. nicht umsonst fordert BF5 in seinen recommended specs für RT einen 8700.
dein "serieller" 8 Kerner ist allerdings extrem ungeeignet für extrem stark paralleliserte BVH berechnungen die der Kern von RT sind. liegt in der natur der sache und dem unterschied zwischen CPUs und GPUs.

Ja mag sein, aber es liegt auch an noch nicht sauber laufenden Treibern etc. ich denke man kann dies in naher Zukunft noch optimieren. Im Falle von AMD die aktuell auf ihrem "Endless - Core" Trip sind kann ich mir auch gut für Next-Gen Konsolen einen 12 Kerner vorstellen, die alte war schon ein 8 Kerner, zumal in Bezug auf Konsolen die Anbindung so kurz sein wird und der RAM so fix, das dies kein Problem darstellt. Wenn ich den CPU Cache von 70 MB beim 3900x anschaue.. das ist Brutal. Mich würde da ein Vergleich mit unterschiedlichen CPUs interessieren Intel vs AMD in BF5 mit einer RTX Karte, ob es mit RTX zu einer differenz führt zwischen AMD und Intel Architektur, AMD hat aktuell mehr Cache in der Regel. EDIT: Dabei spielt eigentlich INTEL oder AMD weniger eine Rolle sonder eher Corecount cache und MHZ.
 
n3cron schrieb:
Ich gehe davon aus durch die Softwarelösung spart man sich die "Hilfschips" die aktuell locker durch die CPU ersetzt werden können. ...

Ganz ohne Hardwarebeschleunigung durch die GPU (oder einen anderen, darauf spezialisierten "Coprozessor") wird Echtzeit-Raytracing wohl nicht funktionieren. Man kann sich ja z.B. in Cinebench anschauen, wie lange selbst eine moderne Multicore-CPU an einem komplexen RT-Bild rechnet.
 
  • Gefällt mir
Reaktionen: .Sentinel.
@n3cron das die neuen konsolen beide einen zen2 8 kerner beinhalten werden wurde schon offiziell bestätigt.
ob ryzen 2000er mit bf5 rtx besser performen weiss ich nicht, bezweifle es aufgrund der generell geringeren gaming leistung gegenüber intel allerdings ein bisschen.
vermutlich wird es aber auf einem ryzen 5 2600 problemlos laufen.
was ich sagen kann ist das BF5 mit RT auf meinem "alten" i5 8400 stotterer hatte und mit meinem "neuen" i7 9700k absolut butterweich unter 1440p mit 70 bis 100fps läuft.
Ergänzung ()

Herdware schrieb:
Ganz ohne Hardwarebeschleunigung durch die GPU (oder einen anderen "Coprozessor") wird Echtzeit-Raytracing wohl nicht funktionieren. Man kann sich ja z.B. in Cinebench anschauen, wie lange selbst eine moderne Multicore-CPU an einem komplexen RT-Bild rechnet.
das liegt schlicht daran das CPUs serielle rechner sind, egal wieviele Kerne sie haben im prinzip bleiben sie das.
GPUs hingegen sind auf parallelisierung ausgelegt.
Raytracing ist im grunde die mutter aller parallelisierten berechnungen, eine heutige serielle CPU wird niemals eine ausreichende rechenleistung erzielen um dabei annähernd performant zu sein. das widerspricht schlichtweg der architektonischen grundlage einer CPU.
 
  • Gefällt mir
Reaktionen: Unnu
Mar1u5 schrieb:
Die Konsolen werden dann bestimmt mit 8k, 144Hz, HDR, Raytracing beworben :freak:

Natürlich. Sieht besonders gut aus auf dem Karton, und der kleine Kevin denkt sich nur "voll krass, und das für nur 399€".
 
  • Gefällt mir
Reaktionen: n3cron und Mar1u5
Replay86 schrieb:
Natürlich. Sieht besonders gut aus auf dem Karton, und der kleine Kevin denkt sich nur "voll krass, und das für nur 399€".

;D klar 8 k bei 24FPS, 144HZ bei 1080P und Raytracing bei 720P :volllol:
Ergänzung ()

Herdware schrieb:
Ganz ohne Hardwarebeschleunigung durch die GPU (oder einen anderen, darauf spezialisierten "Coprozessor") wird Echtzeit-Raytracing wohl nicht funktionieren. Man kann sich ja z.B. in Cinebench anschauen, wie lange selbst eine moderne Multicore-CPU an einem komplexen RT-Bild rechnet.

Nur weil Nvidia da gerade Probleme hat ...vielleicht haben die das einfach nicht sauber hinbekommen aktuell. Du hast etwas missverstanden, die CPU soll nicht das Bild rendern, sondern mittel Software-KI/AI den Zeitpunkt ermitteln wann gerade die Shader ein RT-Bild rechnen sollen. Wenn das System nur dann RT-Berechnungen durchführen muss wen man mit seinem Avatar hinschaut und erst mal nur ein grobes Bild zeichnet und das nur beim Zoomen oder annähern "schärft" dann ist das auf jeden Fall eine mögliche Lösung. Wie das genau ablaufen soll, weiß nur AMD, so eine ähnliche Technik gibt es ja schon für 4K die "Details" außerhalb des Sichtbereiches ausblendet oder einfach in niedrigster Qualität rendert. Die Hardware/CPU ist nur so effizient wie ihr Algorithmus.
Da gibt es schon ein Haufen Beispiele beim RAM Verbrauch, CPU-Auslastung etc. das hat ja nix zu heißen nur weil die CPU 100% ausgelastet ist das die CPU schuld daran ist.
 
Zuletzt bearbeitet:
Meine Frage an AMD : Warum vermarktet ihr das nicht als ´´Raytracing Now´´
wie seiner Zeit 3DNOW ?:p
 
Aus enthusiasten Sicht würde mir in Zukunft eine Extrem starke "klassische" GPU mit dezidierter Raytraycingkarte im zweiten x16 slot gefallen. Also wie Dual GPU in der Vergangenheit, aber hier ist eine Karte nur für die Texturierung und die Effekte zuständig und die andere kümmert sich komplett um die Physik und die Beleuchtung. Mit spezialisierter Hard und Software extrem schnell und dank PCI 4.0 und mehr mittlerweile wohl gar schnell genug was durchsatz und Latenz angeht (wobei ich hier nicht sicher bin, aber faszinierend wäre es :D) dann kann man endlich wieder multi GPU Setups bauen, alte spiele funktionieren trotzdem dank der "klassischen" gpu und zusätzlich kann man moderne Entwicklungen gut implementieren. Damit ist wohl auch 8k in Reichweite und bedarf keine riesenchips.

Aber naja, sind ja nur so ein paar Gedanken dazu, die hersteller werden da schon ihren Plan haben.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Zurück
Oben