ix.tank schrieb:
Ich habe ja nur gesagt das es geht, nicht das es gut ist
. Abgesehen davon sind die Anwendungsgebiete von OpenCL auf dem PC schon gering und mobil auch nicht gerade das wichtigste.
Eigentlich war das nicht direkt auf dich bezogen, sondern dass die Programierer aus Kostengründen (=leicht programierbar = weniger Zeit = billiger) stark auf OpenCL schielen/liebeugeln. Im PC mag OpenCL noch nie so wichtig sein, aber bei Tablet & Smartphone umsomehr, wo Apple eben OpenCL mitgegründen & gepusht hat.
Und hier stellt sich die Frage wo läuft Nvidia denn wirklich hinterher? In GLBenchmark und auf dem Papier! Und das ist ein Problem?
Tegra 4 ist ja noch nicht draußen und Tegra4-Produkte wird es auch nicht nächste Woche geben. Apple A6X gibts schon eine Zeit lang.
Nein, denn es interessiert niemanden. Alle Spiele laufen, Videos werden dekodiert, etc. . Es gibt keine Anwendung, die die Masse interessiert wo man in der Grafik einen unterschied zwischen einem A6X und einem T33 sehen kann, also was macht Nvidia falsch? Genau, nichts.
Wie ich schon sagte, mit GPGPU-Computing Power kann man eine effizientere Arbeitsleistung anbieten, die den Stromverbrauch reduziert hätten und so Tegra für mehr Tablet, aber vorallem für mehr Smartphones interessant geworden wäre. Also, es geht bei Big-New-GPUs nicht nur um Spiele, sondern mit OpenCL/Cuda geht es sehrwohl um mehr Computing-Power oder geringere TDPs.
Oder einfach gesagt. Wozu soll man dann Tegra 4 kaufen, wenn es die Konkurrenz auch kann und dazu mit integrierten Funk (sowie generellen Last-Stromverbrauch) bessere Akku-Zeiten besitzt?
Nvidia ist noch nicht beständig in diesem Markt, weil Tegra mit -40 Mio. $ noch immer ein nicht unerhebliches Verlustgeschäft ist.
Das soll nicht heißen, dass ich Unified-Shadern keinen Vorteil abgewinnen kann, sondern dass Nvidia sich vllt. etwas dabei gedacht hat und sich in der Praxis erstmal zeigen muss ob dem Tegra 4 dadurch wirklich etwas fehlt.
Was hier komisch ist, dass Nvidia normalerweile mit Technologien vorpresht. (Siehe Optimus, Project Shield, CUDA, PhysX, ...)
Sonst hatte Nvidia immer das gewisse Extra an Technologie, welches sich deswegen entschieden haben, währen die Konkurrenz für die Masse zumindestens das Notwenigste hatten.
Nur weil es komisch ist, muss Nvidia aber noch lange nicht schlecht arbeiten. Denn sie können bei dieser Tegra-Entwicklung (gegenüber den Konkurrenten) ein recht kleines R&D-Team/Budget haben. Vorallem, wenn sie mit Project Denver ein weiteres ARM-Projekt laufen haben.