Deep Learning mit kleinem Budget: 450 $ eGPU im Vergleich zu Google Colab

Blog

Deep Learning mit kleinem Budget: 450 $ eGPU im Vergleich zu Google Colab

Deep Learning ist teuer. GPUs sind selbst für einfachste Aufgaben eine absolute Selbstverständlichkeit. Für Leute, die die beste On-Demand-Rechenleistung wollen, kostet ein neuer Computer mehr als 1500 US-Dollar, und die Ausleihe der Verarbeitungsleistung mit Cloud-Computing-Diensten kann bei starker Auslastung leicht mehr als 100 US-Dollar pro Monat kosten. Das ist für Unternehmen absolut in Ordnung, aber für den Durchschnittsmenschen summiert sich das.

Aus diesem Grund habe ich vor 2 Monaten meinen ersten großen Kauf getätigt, um mir vernünftige Rechenleistung zu verschaffen. Ich besitze bereits ein älteres XPS 15 mit einer kleinen GPU (eine GTX 960m, die es einfach nicht schneidet), also entschied ich mich, einen Razer-Kern + NVIDIA GTX 1080 zu kaufen, und hatte sofort etwa die 4-fache Rechenleistung, die ich vorher hatte, denn unter 450€ (ich habe beide gebraucht gekauft). Es war eine so großartige Transformation, dass ich einen mittelgroßen Artikel geschrieben habe, der den gesamten Prozess und die Ergebnisse detailliert beschreibt (das können Sie hier lesen).

Der Artikel wurde sehr gut aufgenommen, aber von mehreren Lesern und Kollegen von mir wurde die Frage gestellt, wie sich das mit Colab verhält? Und all denen würde ich antworten, dass ich von Leuten gehört habe, die es mögen, aber ich habe es nie in Betracht gezogen. Wie gut kann eine kostenlose GPU sein?

Bevor ich auf die Ergebnisse eingehe, werde ich einen kleinen Hintergrund zu Colab selbst geben. Colab ist ein Produkt, das von Google Research entwickelt wurde, um jedem die Möglichkeit zu geben, Python-Code auszuführen. Es wird vollständig im Browser ausgeführt und verwendet Google Drive als primären Dateispeicher. Dies ermöglicht eine einfache Freigabe und vollständig in der Cloud.

Python WLAN-Passwort hacken

Der Haken daran ist, dass Rechenressourcen nicht garantiert sind, was bedeutet, dass Sie im Wesentlichen das erhalten, was Google derzeit nicht verwendet. Colab gibt an, dass dies die meiste Zeit bedeutet, dass die zugewiesene GPU aus Nvidia K80s, T4s, P4s und P100s ausgewählt wird. Der andere Haken ist, dass, wenn Sie Colab vorübergehend nicht verwenden, diese Ressourcen jemand anderem zugewiesen werden. Und das war in meinen Tests nicht sehr nachsichtig. Selbst in der Zeit, die ich brauchte, um meinen Hund auf die Toilette zu bringen, hatte ich Auszeiten. Dies kann ärgerlich werden, wenn Sie etwas laufen lassen, etwas anderes tun und die Ergebnisse nach Abschluss nicht gespeichert haben. Der letzte Nachteil ist die 12-Stunden-Laufzeitbegrenzung. Die meisten Leute sollten sich darüber keine Sorgen machen, aber bei großen Projekten, bei denen das Tuning eine Weile dauern kann, kann dies mühsam sein.

Jetzt, wo ich erklärt habe, was Colab ist, kann ich erklären, wie ich es getestet habe. Ähnlich wie ich meine eGPU in meinem vorherigen Artikel getestet habe, habe ich AI Benchmark verwendet, eine unglaublich einfache, aber leistungsstarke Python-Bibliothek, die Tensorflow verwendet, um 42 Tests in 19 verschiedenen Abschnitten auszuführen, was einen großartigen generalisierten AI-Score für eine GPU liefert. Als nächstes habe ich 15 Mal eine Laufzeit initialisiert und jedes Mal einen AI-Benchmark ausgeführt, wobei die Ergebnisse sowie die zugewiesene GPU aufgezeichnet wurden – ich habe den K80 10 Mal, den P100 4 Mal und den T4 einmal (den P4 habe ich nie bekommen, aber er sollte etwas schlechter abschneiden als der T4) — hier sind die Geschwindigkeitsergebnisse!

#cloud-computing #deep-learning #machine-learning #gpu #egpu #deep learning

zudatascience.com

Deep Learning mit kleinem Budget: 450 $ eGPU im Vergleich zu Google Colab

Deep Learning mit kleinem Budget: 450 US-Dollar eGPU vs. Google Colab: Colab ist phänomenal für den Einstieg in Deep Learning, aber wie schneidet es im Vergleich zu einer eGPU + Ultrabook ab?