Das Problem bei AMD war und ist immer der Software-Support gewesen. Die Hardware ist absolut solide. Wenn ich "kleiner Student" oder "kleiner Unternehmer" meine Software unter AMD nicht testen kann, dann verwende ich halt CUDA. Da kann man bereits mit einer 3060 12GB extrem gut einsteigen, über die 4060 16GB weiter experimentieren und schließlich mit 3090 Ti 24GB für aktuell ca. ~800€, ggf. über NVLink sogar 2-mal, auch mal ein paar ausgefallenere Sachen lokal ausprobieren. Wenn da mal was richtig gutes dabei ist, dann miete ich mir irgendwas in der Cloud und kann bei CUDA generell davon ausgehen, dass ich keine bösen Überraschungen/Inkompatibilitäten zu erwarten habe.
Intel ist software-technisch deutlich besser aufgestellt als AMD, aber auch hier gibt es noch viel zu tun. Außer Acht darf auch nicht gelassen werden, dass (eher schlechte als rechte) dedizierte Intel GPUs erst seit 2 Jahren erwerblich sind - im kleinen Rahmen konnte man also nicht wirklich lange in diesem Ökosystem rumexperimentieren. Insgesamt geht es nicht "nur" über den Preis der GPUs bzw. Speicher. Es müssen auch Risiken mit einberechnet werden (Library Fehler, Inkompatibilitäten, Edge Cases) und da fährt man mit Nvidia aktuell und auf absehbare Zeit besser. Zumindest kann ich das von mir behaupten: wenn ich Budget-Verantwortung von zig Millionen bis Milliarden Dollar hätte, würde ich lieber "Safe" spielen.
Meine Meinung: das Billionen-Dollar Datacenter-Geschäft fängt beim "kleinen Studenten" und "kleinen Unternehmer" an. So, wie es Nvidia bereits vormacht.