Question:
GPU pour l'apprentissage en profondeur
Franck Dernoncourt
2015-12-21 05:23:15 UTC
view on stackexchange narkive permalink

J'ai un budget d'environ 10 kUSD pour acheter des GPU pour les applications de réseau neuronal, principalement en utilisant Theano, Torch, TensorFlow et Caffe. La plupart des programmes que je prévois d'exécuter sont destinés au traitement du langage naturel. Les calculs sont en float 32 et en CUDA. Je vis aux États-Unis et je ne paie pas les factures d'électricité. Les GPU seront montés sur certains ordinateurs exécutant Ubuntu 14.04.3 LTS x64.

Quelles sont les cartes graphiques avec le rapport puissance de calcul / prix le plus élevé, compte tenu des conditions mentionnées ci-dessus?

Vous ne les avez pas utilisés, mais avez-vous vérifié le GPU de [Nvidia] (http://www.nvidia.com/object/machine-learning.html)?
Vous voudrez certainement vous pencher sur les cartes de poste de travail de Nvidia et non sur les cartes de bureau pour ce genre de choses, car vous vous concentrez sur des tâches très spécifiques et lourdes.
Je n'ai pas de réponse complète mais les Tesla M40 sont les meilleurs pour ce type de travail, bien qu'avec votre budget, vous serez limité à 2 cartes.
Trois réponses:
Piotr Falkowski
2015-12-22 01:30:41 UTC
view on stackexchange narkive permalink

Je n'ai pas personnellement utilisé CUDA pour cela, bien que j'en ai l'intention. De mes recherches, j'ai conclu que vous voulez certainement avoir une «capacité de calcul» au moins égale à 3,5, comme certaines bibliothèques l'exigent déjà. La liste (difficile à trouver) des capacités informatiques se trouve sous ce lien. À partir de cette liste, on peut conclure qu'avoir GTX 980 ou Titan (tous deux avec un score de 5.2) est aussi bon que vous pouvez obtenir, mais notez que si vous achetez une carte graphique uniquement pour cela, Nvidia une réponse pour une utilisation professionnelle et académique nommée Tesla - c'est juste une boîte informatique, loin de la carte graphique (elle n'a même pas de ports d'affichage!), coûte de 3k $ pour le K20, à 5k $ pour le modèle K80, et c'est un monstre:

Une comparaison rapide (CC signifie Compute Capability):

  • Tesla K20: pour les ordinateurs de bureau, aperçu pour float: 3,52 Tflops, 5 Go, 2496 cœurs CUDA, 2,9 k $, CC: 3,5
  • Tesla K40: pour les ordinateurs de bureau, aperçu pour float: 4,29 Tflops, 12 Go, 2880 CUDA cœurs, 3,1k $, CC: 3,5
  • Tesla K80: pour les serveurs, jetez un œil pour float: 8 Tflops, 24 Go, 4992 cœurs CUDA, 5k $, CC: 3.7

et de qualité client, les cartes graphiques les plus populaires et les nouvelles:

Voir également comparaison sur wccftech.

Pour conclure: le GPU de qualité commerciale semble être plus rentable, mais seulement lorsque nous comparons les spécifications. Il peut y avoir d'autres compromis, je ne suis pas au courant. Ainsi, je ne peux pas dire avec confiance "allez avec la qualité du client", mais je peux vous dire ce que je ferais (vais) faire - je vais acheter GTX 960 ou 970, car je prévois de jouer et mon coût est assez limité, et ces cartes fera très bien pour l'apprentissage CUDA. Si vous achetez pour une institution, ne prévoyez pas de jeux, les calculs iront 24/7, considérez le Teslas de qualité académique.

De plus, si vous souhaitez augmenter votre puissance de traitement "conventionnelle" basée sur des entiers sur un serveur de calcul haut de gamme, vous pouvez consulter Xeon phi.

[EDIT] Veuillez noter que le passage de l'arithmétique à virgule flottante basée sur le processeur à la technologie GPU améliorée est un changement de qualité, presque un ordre de grandeur , et sera très prononcé et perceptible, mais en passant de ex. Tesla K20 à Tesla K40 ne sera qu'un changement de quantité (K80 n'est que deux K40 groupés ensemble), donc si vous optez pour le rapport vitesse / prix, optez pour l'accélération GPU la moins chère, cela fonctionnera pour vous.

Pour mémoire, Facebook utilise le [Nvidia Tesla M40] (http://arstechnica.com/information-technology/2015/12/facebooks-open-sourcing-of-ai-hardware-is-the-start-of-the -deep-learning-revolution /) dans leur matériel d'IA open source.
Franck Dernoncourt
2016-05-08 08:45:51 UTC
view on stackexchange narkive permalink

Nvidia vient d'annoncer la Nvidia GTX 1080, qui est ~ 25% plus rapide que la Titan X et nettement moins chère (600 USD contre 1000 USD).

De http: // www. anandtech.com/show/10304/nvidia-announces-the-geforce-gtx-1080-1070/2:

enter image description here

Depuis http://wccftech.com/nvidia-geforce-gtx-1080-launch/:

enter image description here

Il est difficile de trouver des tableaux de comparaison de spécifications exhaustifs entre la GTX 1080 et le Titan X (je suppose qu'ils devraient bientôt apparaître). Quelques autres comparaisons GTX 1080 vs Titan X:

  • 9 Tflops vs 6.1 Tflops

D'après une présentation officielle de Nvidia:

enter image description here

enter image description here

La Nvidia GTX 1070 a également été annoncée:

enter image description here

De cnn-benchmarks:

GTX 1080> Titan X: sur tous les modèles, la GTX 1080 est de 1,10x à 1,15x plus rapide que le Titan X.

Franck Dernoncourt
2016-07-23 02:42:57 UTC
view on stackexchange narkive permalink

Nvidia a annoncé le 21/07/2016 la nouvelle GTX Titan X:

  • Moins de 1200 USD
  • "Potentiellement 24% plus rapide que GTX 1080; 60% plus rapide que l'ancien Titan X. "
  • 11 téraflops de performances FP32
  • 12 Go de mémoire GDDR5X fonctionnant à une fréquence effective de 10 GHz et reliés à un large bus de 382 bits , résultant en une bande passante mémoire de 480 Go / s

Un premier benchmark (malheureusement ils n'ont pas gardé le même CuDNN…):

enter image description here



Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 3.0 sous laquelle il est distribué.
Loading...