Machine Learning Modelle in der Cloud trainieren

In einem früheren Beitrag hab ich das Google Colab Projekt vorgestellt, das es erlaubt, Jupyter Notebook Dokumente mit Python Code mit Hardware-Beschleunigung aus zu führen. Die Administration und Benutzung der Plattform ist dabei sehr komfortabel, jedoch mit der Beschränkung, dass maximal eine GPU verwendet werden kann, und die Berechnungen nur bis zu 24 Stunden ausgeführt werden. Auf der Suche nach einer Alternative, die ähnliche Funktionalität bietet, aber mit mehr Rechen-Power bin ich auf „Floyd-Hub“ (www.floydhub.com) gestoßen. Diese preist sich als „Heroku for Deep Learning“.

Floyd-Hub bietet die Möglichkeit Jupyter Notebook Dokumente mittels eines Clients in Form eines Python Paketes direkt von der Kommandozeile aus auf der Plattform laufen zu lassen, oder mittels so genannter „Workspaces“ (derzeit noch in Betaversion) ähnlich wie in Google Colab über eine Web-Oberfläche zu bedienen. Ein Vorteil gegenüber der Google-Anwendung ist das Handling der Trainings- und Testdaten, diese können über private oder öffentliche „Datasets“ verwaltet, und mit den einzelnen Traingsjobs verbunden werden. Versionskontrolle sowohl des Codes als auch der Daten ist integriert.

Es gibt 3 Preismodelle, die sich in der Anzahl der verwendbaren Jobs und der verfügbaren Speicherkapazität unterscheiden und von 0$ bis 20$ pro Monat reichen. Das „Beginner Modell“ um 0$ ist mit einem Job und 10 GB ausgestattet. Das klingt auf den ersten Blick sehr preisgünstig, man muss aber genauer hinsehen, was inkludiert ist. Im Basispreis sind nur einige Stunden CPU-Rechenzeit pro Monat enthalten, weitere Rechenzeit, vor allem die benötigte Zeit auf GPUs, muss in Stunden-Paketen dazugekauft werden. So kommt ein Paket von 10 Stunden auf einer Standard-GPU (Tesla K80) zum Beispiel auf 12$, eine High Performance GPU (Tesla V100) auf 42$.

Erste Experimente zeigen einige Vorteile im Handling gegenüber von Google Colab und auch die Möglichkeit mehr Power zu zu schalten, aber es entstehen doch einige Kosten bei längerer Nutzung. Die Möglichkeit Jobs auf mehreren GPUs parallel zu rechnen fehlt noch ganz.

Das könnte Dich auch interessieren …

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.