naja. Auch 2009 war KI, Deep/Machine Learning nichts Neues mehr.Laphonso schrieb:Toller Beitrag @Colindo !
Prof. Gunter Dueck hatte bereits um 2009 (!) angekündigt, dass das Thema "AI" auf die nächsten 20+ Jahre der größte Treiber der Chip- und Prozessor-Weiterentwicklung/Innovationen wird, branchenübergreifend.
Auch da hat er - wieder einmal - recht gehabt.:
13 Jahre später ist das, was Nvidia hier fertigt, ein Testament dessen und beeindruckt mit dem Momentum für die Rechenpower von AI workloads.
Wahnsinn, was die Forschung und Fertigung mittlerweile leistet.
btw, lesenswert:
https://www.zdnet.com/article/nvidi...se-in-data-centers-the-cloud-and-at-the-edge/
Das wusste eigentlich jeder der sich auch nur annähernd mit Themen wie die obigen oder Big Data auseinander gesetzt hat.
Man braucht also hier nicht einen einzelnen Prof zitieren, das war jedem klar, dass diverse kommerzielle Anwendungsfelder von KI vom Wachstum her explodieren würden
Ergänzung ()
naja das Problem bei dem Spruch ist, dass er schon so häufig gesagt wzrde, dass er in die Kategorie SPAM fällt.Oldtimer schrieb:Über Sinn und Unsinn, sowie die Frage, ob eine Meinung/Beitrag zur Diskussion beiträgt oder nicht, lässt sich trefflich streiten. Da gehen die Geschmäcker Gott sei Dank verschieden Wege. Eine Rechtfertigung zu einer Verwarnung ist das allerdings nicht. Gerade von einem Mod sollte man ein bisschen Fingerspitzengefühl erwarten dürfen.
Zumal Crysis CPU Limitiert ist und die GPU doch längst nicht mehr das Problrm ist, ist die Frage halt für viele weder relevant, noch lustig