Mustis schrieb:
AMD hat keine so explizit auf diesen Markt ausgerichteten Chip
Die
Instinct Machine Intelligence Reihe von AMD ist doch genau dieser Fokus. Da hat AMD sogar den Namen drauf abgerichtet. Lustigerweise - afaik - hat AMD aber kein Äquivalent zu den Tensor Cores von NVIDIA's Volta (bis jetzt) für Machine Learning.
Krautmaster schrieb:
Es kommt immer drauf an was für private Projekte man veranstaltet. Es können ja auch Uni PCs damit bestückt werden zb für AI Veranstaltungen die so im Kommen sind wie kaum was. Das gibt ein neues wichtiges IT Feld.
Das ist kein neues Feld. Das gibt es auch schon seit Jahrzehnten an *jeder* größeren Uni.
Die Foundations für AI wurden in den 50ern/60ern gelegt und viele der grundlegenden Techniken (Lernalgorithmen wie Backpropagation, künstliche neuronale Netze generell) wurden schon sehr ausgiebig in den 70ern/80ern erforscht.
Warum man erst jetzt davon in derart großem Maße hört liegt an zwei Punkten:
(1) musste erstmal die Grundlagenforschung fundierte Ergebnisse liefern und die Masse der Bevölkerung rennt heute ja 99% des Tages Musikern, Filmstars usw. hinterher und nicht den "Einsteins" unserer Tage, d.h. die Masse der Bevölkerung bekommt nur wenig von "Grundlagenforschungsnews" mit - selbst wenn es größere Entdeckungen sind und
(2) reichten schlicht selbst in den 90ern die Rechenkapazitäten von Supercomputern noch nicht aus, um interessante, großangelegte Experimente laufen zu lassen.
Das wir, z.B. per GPUs, massiv parallele Rechenleistung im TFLOP-Bereich zur Verfügung haben (und zumindest im niedrigen GFLOP-Bereich sprechen wir schon bei einfachen Modellen von Monaten für größere Simulationen) ist ja technisch erst seit ~10 Jahren möglich.
Ohne ausreichende Grundlagenforschung & ohne ausreichend schnelle Hardware kommen neue Entdeckungen natürlich nicht im "Massenmarkt" an. Oder überhaupt großangelegt in der Praxis.
Warum AI quasi "die" Technologie im 21. Jahrhundert ist, die jede Branche verändert, der Motor in der Robotik ist (das wären ohne AI nur weiterhin die typischen, monotonen Fertigungsarme am Fließband in der Fabrik) usw. usf. liegt ja ausschließlich an "Deep Learning", wohinter sich nichts weiter als große, tiefe Netzwerke mit sehr fortgeschrittenen Architekturen, Trainingsalgorithmen usw. stecken.
Das in der Praxis aber sinnvoll einzusetzen kostete natürlich ein paar Jahre Entwicklung und eben entsprechende Rechenressourcen.
Krautmaster schrieb:
Wenn man die richtigen Anwendungen für hat, dann zahlt sich das schnell aus. Vielleicht weniger im Studium direkt. Ich mein... Für das Geld bekommt man nicht mal 3 iPhones. Und damit rennen genug Studis rum. Wer semiprofesionell ambitioniert im Segment AI ist und zb mit Bikderkennung experimentiert.. Wie is soll der sich keine Titan V leisten?
Meine persönliche Stichprobe ist selbstverständlich zu klein, um adäquate Schlüsse ziehen zu können, aber zumindest spekulativ würde ich aus eigener Erfahrung behaupten, dass die meisten Studenten Bafög und/oder Studienkredit und/oder Jobs zur Finanzierung des Studiums benötigen.
Die einzigen (in Masse), die mir spontan einfallen würden, die derartige Summen in eine Grafikkarte investieren können, sind diejenigen, deren Umfeld - vor allem Eltern/Familie usw. - sie finanziell unterstützt. Aber selbst die sind vom Verhältnis her - zumindest nach meinen bisherigen Beobachtungen - eine Minderheit an der Uni.
Es ist auch nicht gerade so, als würde man "einfach" in das Gebiet einsteigen können. Bei uns z.B. gibt es quantitativ gesehen problemlos mehr als 10x so viele "typische Softwarearchitektur"-Abschlussarbeiten als welche im Bereich AI und auch Seitenzahl, wissenschaftlicher Anspruch usw. ist - zumindest im Durchschnitt - schon ziemlich hoch in dem Feld. Zusammen mit theoretischer Informatik, Algorithmik und ein paar anderen Disziplinen würde ich AI imho schon zu den anspruchsvollsten Themen überhaupt innerhalb der Informatik zählen.
Nichtsdestoweniger hast du aber natürlich Recht, dass man irgendwie solche Sachen immer "geregelt" bekommt. Für die Uni hab ich z.B. per wissenschaftlichem Proposal an das NVIDIA Academic Program eine TITAN X von NVIDIA bekommen.
Privat zu Hause habe ich eine 1080, die ich von einem Startup gesponsert bekam, bei dem ich für ein paar Monate an AI-Projekten gearbeitet habe.
Selbst leisten könnte ich mir nichts davon - nicht im Ansatz. Aber wenn man ausreichend Zeit reinsteckt und nicht gerade auf den Kopf gefallen ist, dann findet man schon Mittel und Wege, um an Equipment zu kommen.
Unabhängig davon haben mindestens die größeren Unis natürlich auch eigene Compute-Cluster. Der größte bei uns hat da beispielsweise auch über 200 Nodes mit Tesla-Karten und da bekommen auch Studenten Zugang, sofern man z.B. in Abschlussarbeiten ordentlichen, wissenschaftlichen Content produziert hat.