Контрольні точки
Create a Cloud Storage bucket
/ 50
Run an Example Pipeline Remotely
/ 50
Dataflow Qwik Start – Python
GSP207
Огляд
Під час цієї практичної роботи ви налаштуєте середовище для розробки на Python і встановите Cloud Dataflow SDK для Python, а також запустите тестовий конвеєр за допомогою Cloud Console.
Налаштування й вимоги
Перш ніж натиснути кнопку Start Lab (Почати практичну роботу)
Ознайомтеся з наведеними нижче вказівками. На виконання практичної роботи відводиться обмежений час, і її не можна призупинити. Щойно ви натиснете Start Lab (Почати практичну роботу), з’явиться таймер, який показуватиме, скільки часу для роботи з ресурсами Google Cloud у вас залишилося.
Ви зможете виконати практичну роботу в дійсному робочому хмарному середовищі (не в симуляції або демонстраційному середовищі). Для цього на час виконання практичної роботи вам надаються тимчасові облікові дані для реєстрації і входу в Google Cloud.
Щоб виконати цю практичну роботу, потрібно мати:
- стандартний веб-переглядач, наприклад Chrome (рекомендовано)
- достатню кількість часу, оскільки почавши практичну роботу, ви не зможете призупинити її
Як почати виконувати практичну роботу й увійти в Google Cloud Console
-
Натисніть кнопку Start Lab (Почати практичну роботу). Якщо за практичну роботу необхідно заплатити, відкриється спливаюче вікно, де ви зможете обрати спосіб оплати. Ліворуч розміщено панель Lab Details (Відомості про практичну роботу) з такими даними:
- кнопка Open Google Console (Відкрити Google Console);
- час до закінчення;
- тимчасові облікові дані, які потрібно використовувати для доступу до цієї практичної роботи;
- інша необхідна для виконання цієї практичної роботи інформація.
-
Натисніть Open Google Console (Відкрити Google Console). Завантажаться необхідні ресурси. Потім відкриється нова вкладка зі сторінкою Sign in (Вхід).
Порада. Упорядковуйте вкладки в окремих вікнах, розміщуючи їх поруч.
Примітка. Якщо з’явиться вікно Choose an account (Виберіть обліковий запис), натисніть Use Another Account (Увійти в інший обліковий запис). -
За потреби скопіюйте Username (Ім’я користувача) з панелі Lab Details (Відомості про практичну роботу) і вставте його у вікні Sign in (Вхід). Натисніть Next (Далі).
-
Скопіюйте Password (Пароль) з панелі Lab Details (Відомості про практичну роботу) і вставте його у вікні Welcome (Привітання). Натисніть Next (Далі).
Важливо. Обов’язково використовуйте облікові дані з панелі ліворуч. Не використовуйте облікові дані Google Cloud Skills Boost. Примітка. Якщо ввійти у власний обліковий запис Google Cloud, може стягуватися додаткова плата. -
Виконайте наведені нижче дії.
- Прийміть Умови використання.
- Не додавайте способи відновлення та двохетапну перевірку (оскільки це тимчасовий обліковий запис).
- Не реєструйте безкоштовні пробні версії.
Через кілька секунд Cloud Console відкриється в новій вкладці.
Як активувати Cloud Shell
Cloud Shell – це віртуальна машина з попередньо завантаженими інструментами для розробників. Вона містить головний каталог обсягом 5 ГБ постійної пам’яті й працює в середовищі Google Cloud. Cloud Shell надає доступ до ресурсів Google Cloud через командний рядок.
- Угорі консолі Google Cloud натисніть Activate Cloud Shell (Активувати Cloud Shell) .
Щойно ви підключитеся, вас буде автентифіковано, а проект отримає ваш PROJECT_ID (ІДЕНТИФІКАТОР ПРОЕКТУ). Вивід міститиме рядок зі значенням PROJECT_ID (ІДЕНТИФІКАТОР ПРОЕКТУ) для цього сеансу:
gcloud
– це інструмент командного рядка для Google Cloud. Він входить у пакет Cloud Shell і підтримує функцію автозавершення клавішею TAB.
- (Необов’язково) Щоб вивести поточне ім’я облікового запису, введіть таку команду:
-
Натисніть Authorize (Авторизувати).
-
Вихідні дані матимуть такий вигляд:
Вивід:
- (Необов’язково) Щоб вивести ідентифікатор проекту, введіть таку команду:
Вивід:
Приклад виводу:
gcloud
, перегляньте посібник з інтерфейсу командного рядка gcloud у Google Cloud.
Укажіть регіон
- Щоб указати регіон проекту для цієї практичної роботи, виконайте наведену нижче команду в Cloud Shell:
Увімкніть Dataflow API
Щоб переконатися, що потрібний API підключений, перезапустіть підключення до Dataflow API.
-
У рядку пошуку вгорі Cloud Console введіть "Dataflow API". Виберіть серед результатів Dataflow API.
-
Натисніть Manage (Керувати).
-
Виберіть Disable API (Вимкнути API).
Якщо з’явиться запит із пропозицією підтвердити дію, натисніть Disable (Вимкнути).
- Натисніть Enable (Увімкнути).
Коли API ввімкнеться, на сторінці з’явиться опція вимкнути його.
Завдання 1. Створіть сегмент Cloud Storage
- У меню навігації () натисніть Cloud Storage > Buckets (Сегменти).
- Натисніть Create bucket (Створити сегмент).
- У вікні Create bucket (Створити сегмент) укажіть наведені нижче атрибути.
-
Name (Назва): щоб забезпечити унікальну назву сегмента, використовуйте назву
-bucket. Не використовуйте в назві сегмента конфіденційну інформацію, оскільки простір імен сегментів є глобальним і загальнодоступним. - Location type (Тип місцезнаходження): Multi-region (Мультирегіон)
-
Location (Місцезнаходження):
us
- Місце зберігання даних сегмента.
-
Натисніть Create (Створити).
-
Якщо з’явиться вікно Public access will be prevented (Загальний доступ буде заборонено), натисніть Confirm (Підтвердити).
Перевірка виконаного завдання
Щоб підтвердити виконання завдання, натисніть Підтвердити виконання. Якщо завдання виконано правильно, з’явиться оцінка.
Завдання 2. Установіть систему pip і пакет Cloud Dataflow SDK
- Щоб використовувати останній пакет Cloud Dataflow SDK для Python, потрібно мати Python версії 3.7 або новішої.
Щоб перевірити, чи правильну версію ви використовуєте, запустіть образ Docker для Python3.9
:
Ця команда дає змогу отримати контейнер Docker з останньою стабільною версією Python 3.9 і відкриває командну оболонку, за допомогою якої всередині контейнера можна виконати наведені нижче команди.
- Коли контейнер буде запущено, установіть останню версію Apache Beam для Python, виконавши таку команду у віртуальному середовищі:
Можуть з’явитися попередження щодо залежностей. Під час виконання цієї практичної роботи на них можна не зважати.
- Запустіть тестовий файл
wordcount.py
локально, виконавши таку команду:
Також може з’явитися схоже повідомлення:
Це повідомлення можна ігнорувати.
- Тепер відобразіть список файлів, розташованих у вашому локальному хмарному середовищі, щоб отримати назву файлу
OUTPUT_FILE
:
- Скопіюйте назву файлу
OUTPUT_FILE
і вставте її в командуcat
:
У результаті буде виведено всі слова у файлі й кількість повторень для кожного слова.
Завдання 3. Віддалено запустіть тестовий конвеєр
- Установіть змінну середовища "BUCKET" для раніше створеного сегмента:
- Запустіть тестовий файл
wordcount.py
віддалено:
Зачекайте, доки у виводі з’явиться таке повідомлення:
Продовжте виконання практичної роботи.
Завдання 4. Перевірте правильність виконання завдання
- Відкрийте меню навігації і виберіть Dataflow зі списку сервісів.
Спочатку для завдання wordcount в полі status (статус) відображатиметься значення Running (Активне).
- Натисніть його назву, щоб переглянути процес виконання. Коли біля всіх пунктів з’являться прапорці, ви можете продовжити переглядати журнали в Cloud Shell.
Після завершення процесу статус зміниться на Succeeded (Виконано).
Перевірка виконаного завдання
Щоб підтвердити виконання завдання, натисніть Підтвердити виконання. Якщо завдання виконано правильно, з’явиться оцінка.
-
У Cloud Console натисніть меню навігації > Cloud Storage.
-
Натисніть назву сегмента. Ви маєте побачити каталоги results (результати) і staging (підоготовчий).
-
Відкрийте папку під назвою results (результати). У ній мають міститися файли виводу, створені під час виконання вашого завдання.
-
Натисніть файл, щоб переглянути дані про кількість слів у ньому.
Завдання 5. Перевірте свої знання
Дайте відповідь на запитання з кількома варіантами відповіді нижче, щоб закріпити розуміння понять, які зустрічаються в практичній роботі.
Вітаємо!
Пройдіть квест
Цю практичну роботу можна виконувати у власному темпі, і вона входить до квесту Початок роботи з даними, машинним навчанням і штучним інтелектом. Квест – це низка пов’язаних практичних робіт, що разом складають план навчання. Виконавши всю серію, ви отримаєте значок як відзнаку за досягнення. Значок можна зробити видимим для інших і додати у своє онлайн-резюме або в обліковий запис у соціальній мережі. Зареєструйтеся на цей або будь-який інший квест із цією практичною роботою, і в межах квесту її буде відразу зараховано як виконану. Усі доступні квести можна переглянути в каталозі Google Cloud Skills Boost.
Наступні кроки/Докладніше
Ця робота також входить до низки практичних робіт під назвою Qwik Starts. Вони призначені для ознайомлення з функціями Google Cloud. Перелік практичних робіт Qwik Starts наведено в каталозі Google Cloud Skills Boost.
Якщо вас зацікавила книга, на основі якої створено цю практичну роботу, це Data Science on the Google Cloud Platform (Наука про дані з Google Cloud Platform, видавництво O’Reilly Media, Inc).
Навчання й сертифікація Google Cloud
…допомагають ефективно використовувати технології Google Cloud. Наші курси передбачають опанування технічних навичок, а також ознайомлення з рекомендаціями, що допоможуть вам швидко зорієнтуватися й вивчити матеріал. Ми пропонуємо курси різних рівнів – від базового до високого. Ви можете вибрати формат навчання (за запитом, онлайн або офлайн) відповідно до власного розкладу. Пройшовши сертифікацію, ви перевірите й підтвердите свої навички та досвід роботи з технологіями Google Cloud.
Посібник востаннє оновлено 4 травня 2023 року
Практичну роботу востаннє протестовано 4 травня 2023 року
© Google LLC 2024. Усі права захищено. Назва та логотип Google є торговельними марками Google LLC. Усі інші назви компаній і продуктів можуть бути торговельними марками відповідних компаній, з якими вони пов’язані.