Mittels einiger python Deep learning Libarys lassen sich mehrere GPUs gleichzeitig zum trainieren verwenden.
Mir kratzt seit langem der gedanke im Kopf ob es nicht sinnvoller ist 4x alte Nvidia Tesla K40 zu holen im Vergleich zu 2x 2070 oder einer einzelnen 2080 Ti.
Inwieweit lässt sich ihre Leistung im Deep Learning "stacken" (beim training eines einzelnen Models) ? Mich würden mal eure Erfahrungen/Schätzungen interessieren
Mir kratzt seit langem der gedanke im Kopf ob es nicht sinnvoller ist 4x alte Nvidia Tesla K40 zu holen im Vergleich zu 2x 2070 oder einer einzelnen 2080 Ti.
Inwieweit lässt sich ihre Leistung im Deep Learning "stacken" (beim training eines einzelnen Models) ? Mich würden mal eure Erfahrungen/Schätzungen interessieren