Table des matières:

Comment exécuter AWS TensorFlow ?
Comment exécuter AWS TensorFlow ?

Vidéo: Comment exécuter AWS TensorFlow ?

Vidéo: Comment exécuter AWS TensorFlow ?
Vidéo: Deep Learning on Cloud using Amazon AWS | EC2 GPU Instance 2024, Novembre
Anonim

Pour activer TensorFlow, ouvrez une instance Amazon Elastic Compute Cloud (Amazon EC2) de la DLAMI avec Conda

  1. Pour TensorFlow et Keras 2 sur Python 3 avec CUDA 9.0 et MKL-DNN, exécutez cette commande: $ source activate tensorflow_p36.
  2. Pour TensorFlow et Keras 2 sur Python 2 avec CUDA 9.0 et MKL-DNN, exécutez cette commande:

En conséquence, TensorFlow s'exécute-t-il sur AWS ?

TensorFlow ™ permet aux développeurs de se lancer rapidement et facilement dans l'apprentissage en profondeur dans le cloud. Tu pouvez commencer AWS avec une gestion entièrement TensorFlow expérience avec Amazone SageMaker, une plate-forme pour créer, former et déployer des modèles d'apprentissage automatique à grande échelle.

Sachez également qu'est-ce qu'AWS TensorFlow ? Catégorie: Tensorflow au AWS TensorFlow est une bibliothèque d'apprentissage automatique (ML) open source largement utilisée pour développer des réseaux de neurones profonds (DNN) lourds qui nécessitent une formation distribuée à l'aide de plusieurs GPU sur plusieurs hôtes.

La question est également: comment exécuter l'apprentissage automatique AWS ?

Premiers pas avec le Deep Learning à l'aide de l'AMI AWS Deep Learning

  1. Étape 1: Ouvrez la console EC2.
  2. Étape 1b: choisissez le bouton Lancer l'instance.
  3. Étape 2a: sélectionnez l'AMI AWS Deep Learning.
  4. Étape 2b: Sur la page des détails, choisissez Continuer.
  5. Étape 3a: sélectionnez un type d'instance.
  6. Étape 3b: Lancez votre instance.
  7. Étape 4: Créez un nouveau fichier de clé privée.
  8. Étape 5: Cliquez sur Afficher l'instance pour voir l'état de votre instance.

Comment servez-vous un modèle TensorFlow ?

  1. Créez votre modèle. Importez le jeu de données Fashion MNIST. Entraînez et évaluez votre modèle.
  2. Enregistrez votre modèle.
  3. Examinez votre modèle enregistré.
  4. Servez votre modèle avec TensorFlow Serving. Ajoutez l'URI de distribution TensorFlow Serving en tant que source de package: installez TensorFlow Serving.
  5. Faites une demande à votre modèle dans TensorFlow Serving. Faites des requêtes REST.

Conseillé: