tomgit
Commodore
- Registriert
- Nov. 2015
- Beiträge
- 4.451
Naja, das war in den Release-Notes zu 5.0 und wir sind bei 5.0.2 angekommen... aber gut, man stößt ja auch bei Nvidia und Microsoft oft genug auf veraltete DokumentationDevPandi schrieb:Na, sollten Sie mal machen, aber lassen wir denen mal etwas Zeit.
Würde ich nicht ganz so unterschreiben? Auch wenn ROCm als Layer gute Arbeit leisten sollte, ist es immernoch ein zusätzlicher Teil der Kette, welcher Probleme machen kann.DevPandi schrieb:Und sein wir mal ehrlich: Die meisten Entwickler in dem Bereich, die ohnehin auf Linux arbeiten, scheren sich nicht so sehr um den offiziellen Support während der Entwicklung auf ihren eigenen Rechnern und Co, sondern für die ist dann wichtig, dass dann auf den Systemen, wenn der Code ausgeführt wird, alles passt mit dem Support.
Ich mein, klar, ab einer gewissen Größe ist es dann auch beinahe egal, ob man die Software für CUDA anpasst oder einfach per Vorschlaghammer skaliert, Problem sind aber eher die Edge- und Client-Cases, wo AMD entweder fast keine oder gar keine Alternative anbieten kann. Nehmen wir doch mal die offiziell unterstützten RDNA-GPUs als Beispiel: Ja, die W6800 wird unterstützt (TIL ), aber das lässt dann auch wieder zig Grafikkarten von AMD außen vor. Würde ich als Unternehmen also einen Prototypen erstellen wollen, müsste ich mich a.) darauf einlassen, dass ich für die günstigste Alternative mindestens 2k€ hinzublättern habe und b.) dass der Layer keine Kompatibilitätsprobleme zu Nvidia-Frameworks hat. Und ob sämtliche Teile von Metropolis, des TAO Toolkits usw. drauf laufen, ist dann eben die nächste große Frage.
Das ist aber wieder das nächste Problem. So geschlossen wie CUDA ist, ist es aber eine Architektur, die zumindest weitestgehend funktioniert und zueinander ebenso weitestgehend kompatibel ist (dass ältere CUDA-Versionen nicht neuere Frameworks unterstützen, ist mir bewusst )DevPandi schrieb:Intel versucht aktuell mit ihrer OneAPI die CUDA-Dominanz zu brechen - was Intel auch dazu bewegt für AMD GPUs zu optimieren, was irgendwie zeigt, wie Dominant NVIDIA wirklich ist.
Aber dann kommen eben Intel und AMD mit zig verschiedenen "offenen" Frameworks daher (Vulkan Compute, OpenVK, OneAPI, OpenCL (noch), und dann noch Microsofts eigenes DirectML-Süppchen), wo ich mir auch denken kann, es für die Entwickler schwierig ist sich darauf festzulegen. Selbst wenn es wieder nur Layer für CUDA wären, müsste man dennoch die Funktion verifizieren.
Ich ging auch nicht davon aus, dass es eine einfache Aufgabe wäre Aber ich stimme dir zu, das Problem war halt nur, dass Nvidia zur richtigen Zeit die richtigen Investitionen tätigen konnte, um CUDA so dominant werden zu lassen. AMD war am Boden und Intel hatte einfach kein Interesse daran für nicht-CPUs etwas bereitzustellen. Entsprechend haben wir ja unseren Status Quo: Entweder CUDA oder halt über CPU, bzw. das bisschen etwas, woran Apple noch damals mitgearbeitet hatte.DevPandi schrieb:AMD geht mit ROCm einen Weg, den man in einer idealen Welt hätte nicht gehen müssen, weil die Entwickler CUDA den Finger gezeigt hätten und stattdessen OpenCL nutzen, aber so muss AMD die bittere Pille schlucken und muss CUDA weitgehend auf Radeons zum laufen bringen und das ist keine wirklich leichte Aufgabe.
Und letztere bekommen ja nicht einmal Tensorflow passend integriert (toll, läuft über CPU und GPU, und ignoriert die Neural Cores )