Tabla de contenido:

¿Cómo ejecuto AWS TensorFlow?
¿Cómo ejecuto AWS TensorFlow?

Video: ¿Cómo ejecuto AWS TensorFlow?

Video: ¿Cómo ejecuto AWS TensorFlow?
Video: 52 weeks Live Coding MLOPs: Episode 2: Serving TensorFlow Models 2024, Mayo
Anonim

Para activar TensorFlow, abra una instancia de Amazon Elastic Compute Cloud (Amazon EC2) de DLAMI con Conda

  1. Para TensorFlow y Keras 2 en Python 3 con CUDA 9.0 y MKL-DNN, ejecute este comando: $ source active tensorflow_p36.
  2. Para TensorFlow y Keras 2 en Python 2 con CUDA 9.0 y MKL-DNN, ejecute este comando:

En consecuencia, ¿TensorFlow se ejecuta en AWS?

TensorFlow ™ permite a los desarrolladores comenzar rápida y fácilmente con el aprendizaje profundo en la nube. usted pueden empezar AWS con una gestión totalmente TensorFlow experiencia con Amazonas SageMaker, una plataforma para crear, entrenar e implementar modelos de aprendizaje automático a escala.

También sepa, ¿qué es AWS TensorFlow? Categoría: Tensorflow sobre AWS TensorFlow es una biblioteca de aprendizaje automático (ML) de código abierto ampliamente utilizada para desarrollar redes neuronales profundas (DNN) de gran peso que requieren entrenamiento distribuido utilizando múltiples GPU en múltiples hosts.

También la pregunta es, ¿cómo ejecuto el aprendizaje automático de AWS?

Introducción al aprendizaje profundo mediante la AMI de aprendizaje profundo de AWS

  1. Paso 1: Abra la Consola EC2.
  2. Paso 1b: elija el botón Iniciar instancia.
  3. Paso 2a: seleccione la AMI de aprendizaje profundo de AWS.
  4. Paso 2b: en la página de detalles, elija Continuar.
  5. Paso 3a: seleccione un tipo de instancia.
  6. Paso 3b: Inicie su instancia.
  7. Paso 4: cree un nuevo archivo de clave privada.
  8. Paso 5: haga clic en Ver instancia para ver el estado de su instancia.

¿Cómo sirve un modelo de TensorFlow?

  1. Crea tu modelo. Importe el conjunto de datos Fashion MNIST. Entrena y evalúa tu modelo.
  2. Guarde su modelo.
  3. Examine su modelo guardado.
  4. Sirva su modelo con TensorFlow Serving. Agregue el URI de distribución de TensorFlow Serving como fuente del paquete: Instale TensorFlow Serving.
  5. Realiza una solicitud a tu modelo en TensorFlow Serving. Realice solicitudes de REST.

Recomendado: