Las TPU son muy rápidas, y la transmisión de datos de entrenamiento debe mantenerse a la par con su velocidad de entrenamiento. En este lab, aprenderás a cargar datos de Cloud Storage con la API de tf.data.Dataset para alimentar tu TPU.
Objetivos
Aprenderás a hacer lo siguiente:
Usar la API de tf.data.Dataset para cargar datos de entrenamiento
Usar el formato TFRecord para cargar datos de entrenamiento de forma eficiente desde Cloud Storage
Configuración y requisitos
En cada lab, recibirá un proyecto de Google Cloud y un conjunto de recursos nuevos por tiempo limitado y sin costo adicional.
Accede a Qwiklabs desde una ventana de incógnito.
Ten en cuenta el tiempo de acceso del lab (por ejemplo, 1:15:00) y asegúrate de finalizarlo en el plazo asignado.
No existe una función de pausa. Si lo necesita, puede reiniciar el lab, pero deberá hacerlo desde el comienzo.
Cuando esté listo, haga clic en Comenzar lab.
Anote las credenciales del lab (el nombre de usuario y la contraseña). Las usarás para acceder a la consola de Google Cloud.
Haga clic en Abrir Google Console.
Haga clic en Usar otra cuenta, copie las credenciales para este lab y péguelas en el mensaje emergente que aparece.
Si usa otras credenciales, se generarán errores o incurrirá en cargos.
Acepta las condiciones y omite la página de recursos de recuperación.
Haz clic en Habilitar todas las APIs recomendadas.
Tarea 1. Inicia un notebook en Vertex AI
En el menú de navegación de la consola de Google Cloud, haz clic en Vertex AI > Workbench. Selecciona Notebooks administrados por el usuario.
En la página de instancias de Notebook, haz clic en Crear nueva y elige la versión más reciente de TensorFlow Enterprise 2.6 (con LTS) en Entorno.
En el diálogo Instancia de notebook nueva, confirma el nombre de la VM de aprendizaje profundo y, si no quieres cambiar la región ni la zona, deja todos los parámetros de configuración como están. Luego, haz clic en Crear.
La VM nueva tardará 2 o 3 minutos en iniciarse.
Haz clic en Abrir JupyterLab.
Se abrirá en una pestaña nueva.
Tarea 2. Clona el repo del curso en tu instancia de notebook de Vertex AI
Sigue estos pasos para clonar el notebook training-data-analyst en tu instancia de JupyterLab:
Para abrir una nueva terminal en JupyterLab, haz clic en el ícono de Terminal.
En la ventana de la línea de comandos, ejecuta el siguiente comando:
Para verificar que se haya clonado el repositorio, haz doble clic en el directorio training-data-analyst y confirma que puedes ver el contenido.
Los archivos de todos los labs de Jupyter basados en notebooks de este curso se encuentran disponibles en este directorio.
Tarea 3. Canalizaciones de datos con velocidades de TPU: tf.data.Dataset y TFRecords
En la interfaz del notebook, navega a training-data-analyst > courses > machine_learning > deepdive2 > production_ml > labs y abre tpu_speed_data_pipelines.ipynb.
En la interfaz del notebook, haz clic en Editar > Borrar todos los resultados.
Lee con atención las instrucciones del notebook y completa con el código correspondiente las líneas que están marcadas con #TODO.
Sugerencia: Para ejecutar la celda actual, haz clic en ella y presiona Mayúsculas + Intro. Podrás encontrar detallados otros comandos de la celda en la IU del notebook, en Ejecutar.
Las tareas también pueden incluir sugerencias que te orientarán. Destaca el texto para leer las sugerencias (están escritas en blanco).
Para ver la solución completa, navega a training-data-analyst > courses > machine_learning > deepdive2 > production_ml > solutions y abre tpu_speed_data_pipelines.ipynb.
Finalice su lab
Cuando haya completado su lab, haga clic en Finalizar lab. Qwiklabs quitará los recursos que usó y limpiará la cuenta por usted.
Tendrá la oportunidad de calificar su experiencia en el lab. Seleccione la cantidad de estrellas que corresponda, ingrese un comentario y haga clic en Enviar.
La cantidad de estrellas indica lo siguiente:
1 estrella = Muy insatisfecho
2 estrellas = Insatisfecho
3 estrellas = Neutral
4 estrellas = Satisfecho
5 estrellas = Muy satisfecho
Puede cerrar el cuadro de diálogo si no desea proporcionar comentarios.
Para enviar comentarios, sugerencias o correcciones, use la pestaña Asistencia.
Copyright 2020 Google LLC. All rights reserved. Google y el logotipo de Google son marcas de Google LLC. Los demás nombres de productos y empresas pueden ser marcas de las respectivas empresas a las que estén asociados.
Los labs crean un proyecto de Google Cloud y recursos por un tiempo determinado
.
Los labs tienen un límite de tiempo y no tienen la función de pausa. Si finalizas el lab, deberás reiniciarlo desde el principio.
En la parte superior izquierda de la pantalla, haz clic en Comenzar lab para empezar
Usa la navegación privada
Copia el nombre de usuario y la contraseña proporcionados para el lab
Haz clic en Abrir la consola en modo privado
Accede a la consola
Accede con tus credenciales del lab. Si usas otras credenciales, se generarán errores o se incurrirá en cargos.
Acepta las condiciones y omite la página de recursos de recuperación
No hagas clic en Finalizar lab, a menos que lo hayas terminado o quieras reiniciarlo, ya que se borrará tu trabajo y se quitará el proyecto
Este contenido no está disponible en este momento
Te enviaremos una notificación por correo electrónico cuando esté disponible
¡Genial!
Nos comunicaremos contigo por correo electrónico si está disponible
Un lab a la vez
Confirma para finalizar todos los labs existentes y comenzar este
Usa la navegación privada para ejecutar el lab
Usa una ventana de navegación privada o de Incógnito para ejecutar el lab. Así
evitarás cualquier conflicto entre tu cuenta personal y la cuenta
de estudiante, lo que podría generar cargos adicionales en tu cuenta personal.
Las TPU son muy rápidas, y la transmisión de datos de entrenamiento debe mantenerse a la par con su velocidad de entrenamiento. En este lab, aprenderás a cargar datos de GCS con la API de tf.data.Dataset para alimentar tu TPU.
Duración:
0 min de configuración
·
Acceso por 120 min
·
120 min para completar