Novasun schrieb:
@BAR86 TensoCores heißen sie bei NV.
Ich weiß natürlich was TensoR Cores sind, ich wollte auf den Rechtschreibfehler hinweisen, aber du hast ihn erneut gemacht. Danke eine Erklärung ist nicht nötig, ich habe einige Jahre im Bereich Parallel/Scientific Computing gearbeitet und dort auch diverse RT Simulationen gemacht/betreut.
Bitte beim Erklären die Fachbegriffe auch richtig verwenden und schreiben. Sie heißen Tensor Cores, nicht "Tensacors" wie du sie weiter oben beschrieben hast und auch nicht TensoCores.
Novasun schrieb:
Wie du weißt nicht was die sind? Ok ursprünglich hat NV die für Ki entworfen. Nur musste man die teure Hardware iegendwie auch an Gamer verscherbeln. Weglassen hätte eigenes Chipdesign bedeutet was sehr teuer ist. Irgendwer hat (im Zweifel durch Zufall) bemerkt dass die Teile Raytracing in Hardware beschleunigen... Tata die Marketing Abteilung NV's konnte die Sache als neue Funktion vermarkten. (echtzeit Raytracing)
So wie du das darstellst ist es absoluter Nonsense. Die RT Forschung von Nvidia geht auf die späten 90er Jahre zurück. Da ist überhaupt nichts durch Zufall entstanden. Die Fähigkeiten der Tensor Cores sind auch nicht Zufall und auch nicht zufällig im Gamingchip. Denn diese wären ohne Tensor Cores und RT Cores schlanker - würden aber eben kein Echtzeit-Raytracing beherrschen (zumindest nicht in praktikablen Frameraten)
Novasun schrieb:
Spannend wird sein wie NV es dieses Jahr löst. AMD hat die Aufspaltung der Professionellen Grafikkarte zu Gamerkarten vollzogen. [Vega/Rdna2] Das bringt Vorteile mit sich.
Das hat Nvidia schon längst. Etwa bei Volta. Oder hast du viele Gamer-GPUs mit Volta drauf gesehen? Aja die Titan V. Günstiges Teil
Novasun schrieb:
Da die Ansprüche von Ki Beschleunigern andere sind als von Gamer-Gpus. Man munkelt NV hat das noch nicht.
"man munkelt". Entschuldigung, wie kommt man zu solchen Aussagen. Schreib doch einfach "ich wüsste von keiner Nvidia-Lösung, vielleicht irre ich mich". Dann kann man dir deine Wissenslücke auch freundlich ergänzen.
Aber so provozierst du fast mit einer Falschaussage und der Andeutung, dass es viele so denken würden.
Novasun schrieb:
Das würde bedeuten das die neuen Karten recht teuer sein könnten (auf der anderen Seite nix neues bei NV).
Da aber Raytracing noch immer nur eine überschaubare Nische darstellt... Und AMD eben eine Hybridlösung anstrebt (weil man Raytracing auch ohne spezielle Cores auf ner GPU recht gut hin bekommt...) könnte die Strategie diesmal nicht aufgehen für NV..
Ob gewisse Prozesse nun ein extra RT Core löst, oder ob diese Fähigkeiten direkt in die Pipeline integriert sind, ist fast völlig schnuppe. Nvidas Ansatz hat den Vorteil, dass RT und Tensor Cores recht einfach aus einer bestehenden Architektur auch entfernt werden können (GTX 16xx), bei AMDs Ansatz ist das weniger einfach möglich.
Spezielle Hardware für RT hat also auch AMD an Board, die große Frage ist aber: hat AMD auch Tensor Cores mit denen sich das Bild nachher entrauschen lässt oder per AI Hochskalieren lässt, ODER muss AMD das über die Shader lösen, die aber eigentlich schon voll mit anderen Berechnungen sind -> Leistungsdefizit.
Und der Teil mit "weil man Raytracing auch ohne spezielle Cores auf ner GPU recht gut hin bekommt..." ist leider völlig falsch. Wenn die GPUs mal 100-500x mehr Leisten als heute, kann man meinetwegen darüber reden
Novasun schrieb:
Aber nix genaues weiß man.. Wir dürfen gespannt sein.
Das AMD aber seine offene "Softwarebibliothek" pflegt ist ganz klar zu begrüßen.
Da sowieso beide auf DX-R aufbauen als API und Raytracing ein wirklich deppeneinfacher Algorithmus ist, hilft Geheimniskrämerei bei der Software hier wenig. Das eigentliche Geheimnis ist in der Hardware. Und da muss AMD noch zeigen, ob deren Lösung mit Nvidias mithalten kann. Was man weiß ist, dass AMD RT spezifische Funktionen/Funktionseinheiten (bzw. in den Folien "Raytracing in Hardware" verbaut.
Wenn du mehr über Nvidias SM erfaren möchtest ist hier ein interessanter Lesestoff
https://fabiensanglard.net/cuda/index.html und hier
https://towardsdatascience.com/what-on-earth-is-a-tensorcore-bad6208a3c62 (über Tensor Cores und deren Nutzen, auch bei RTX)