Paolo Soleni
Miembro desde 2022
Liga de Bronce
800 puntos
Miembro desde 2022
En este curso, se presenta Vertex AI Studio, una herramienta para interactuar con modelos de IA generativa, crear prototipos de ideas de negocio y llevarlas a producción. A través de un caso de uso envolvente, lecciones atractivas y un lab práctico, explorarás el ciclo de vida desde la instrucción hasta el producto y aprenderás cómo aprovechar Vertex AI Studio para aplicaciones multimodales de Gemini, diseño de instrucciones, ingeniería de instrucciones y ajuste de modelos. El objetivo es permitirte desbloquear el potencial de la IA generativa en tus proyectos con Vertex AI Studio.
En este curso, se te enseña a crear un modelo de generación de leyendas de imágenes con el aprendizaje profundo. Aprenderás sobre los distintos componentes de los modelos de generación de leyendas de imágenes, como el codificador y el decodificador, y cómo entrenar y evaluar tu modelo. Al final del curso, podrás crear tus propios modelos y usarlos para generar leyendas de imágenes.
En este curso, se presentan la arquitectura de transformadores y el modelo de Bidirectional Encoder Representations from Transformers (BERT). Aprenderás sobre los componentes principales de la arquitectura de transformadores, como el mecanismo de autoatención, y cómo se usa para crear el modelo BERT. También aprenderás sobre las diferentes tareas para las que puede usarse BERT, como la clasificación de texto, la respuesta de preguntas y la inferencia de lenguaje natural. Tardarás aproximadamente 45 minutos en completar este curso.
Este curso es una introducción al mecanismo de atención, una potente técnica que permite a las redes neuronales enfocarse en partes específicas de una secuencia de entrada. Sabrás cómo funciona la atención y cómo puede utilizarse para mejorar el rendimiento de diversas tareas de aprendizaje automático, como la traducción automática, el resumen de textos y la respuesta a preguntas.
En este curso, se brinda un resumen de la arquitectura de codificador-decodificador, una arquitectura de aprendizaje automático importante y potente para realizar tareas de secuencia por secuencia, como las de traducción automática, resúmenes de texto y respuestas a preguntas. Aprenderás sobre los componentes principales de la arquitectura de codificador-decodificador y cómo entrenar y entregar estos modelos. En la explicación del lab, programarás una implementación sencilla de la arquitectura de codificador-decodificador en TensorFlow para generar poemas desde un comienzo.
En este curso, se presenta una introducción a los modelos de difusión: una familia de modelos de aprendizaje automático que demostraron ser muy prometedores en el área de la generación de imágenes. Los modelos de difusión se inspiran en la física, específicamente, en la termodinámica. En los últimos años, los modelos de difusión se han vuelto populares tanto en investigaciones como en la industria. Los modelos de difusión respaldan muchos de los modelos de generación de imágenes y herramientas vanguardistas de Google Cloud. En este curso, se presenta la teoría detrás de los modelos de difusión y cómo entrenarlos y, luego, implementarlos en Vertex AI.
Completa los cursos Introduction to Generative AI, Introduction to Large Language Models e Introduction to Responsible AI para obtener una insignia de habilidad. Aprueba el cuestionario final para demostrar que entiendes los conceptos básicos sobre la IA generativa. Una insignia de habilidad es una insignia digital que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma. Para compartir tu insignia de habilidad, establece tu perfil como público y agrega la insignia a tu perfil de redes sociales.
Este es un curso introductorio de microaprendizaje destinado a explicar qué es la IA responsable, por qué es importante y cómo la implementa Google en sus productos. También se presentan los 7 principios de la IA de Google.
Este es un curso introductorio de microaprendizaje en el que se explora qué son los modelos de lenguaje grandes (LLM), sus casos de uso y cómo se puede utilizar el ajuste de instrucciones para mejorar el rendimiento de los LLM. También abarca las herramientas de Google para ayudarte a desarrollar tus propias aplicaciones de IA generativa.
Este es un curso introductorio de microaprendizaje destinado a explicar qué es la IA generativa, cómo se utiliza y en qué se diferencia de los métodos de aprendizaje automático tradicionales. También abarca las herramientas de Google para ayudarte a desarrollar tus propias aplicaciones de IA generativa.
En este curso, analizaremos los componentes y las prácticas recomendadas de la creación de sistemas de AA de alto rendimiento en entornos de producción. Veremos algunas de las consideraciones más comunes tras la creación de estos sistemas, p. ej., entrenamiento estático, entrenamiento dinámico, inferencia estática, inferencia dinámica, TensorFlow distribuido y TPU. Este curso se enfoca en explorar las características que conforman un buen sistema de AA más allá de su capacidad de realizar predicciones correctas.
En este curso, se explica cómo crear modelos de AA con TensorFlow y Keras, cómo mejorar la exactitud de los modelos de AA y cómo escribir modelos de AA para uso escalado.
En este curso, se presentan a los participantes las herramientas y prácticas recomendadas de MLOps para implementar, evaluar, supervisar y operar sistemas de AA de producción en Google Cloud. Las MLOps son una disciplina enfocada en la implementación, prueba, supervisión y automatización de sistemas de AA en producción. Los ingenieros profesionales de aprendizaje automático usan herramientas para mejorar y evaluar continuamente los modelos implementados. Trabajan con científicos de datos (o pueden serlo) que desarrollan modelos para ofrecer velocidad y rigor en la implementación de modelos con el mejor rendimiento.
En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.
Completa la insignia de habilidad introductoria Implementa el balanceo de cargas en Compute Engine y demuestra tus habilidades para realizar las siguientes actividades: escribir comandos de gcloud y usar Cloud Shell, crear e implementar máquinas virtuales en Compute Engine, y configurar balanceadores de cargas de red y HTTP. Una insignia de habilidad es una insignia digital exclusiva que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma y que prueba tu capacidad de aplicar esos conocimientos en un entorno interactivo y práctico. Completa esta insignia de habilidad y el Lab de desafío de la evaluación final para recibir una insignia que puedes compartir con tus contactos.
Los cursos de Google Cloud Computing Foundations están destinados a personas que tienen un poco o nada de noción previa o experiencia sobre computación en la nube. Brindan una descripción general de los conceptos centrales básicos de la nube, los macrodatos y el aprendizaje automático, y explican dónde y cómo resulta adecuado utilizar Google Cloud. Cuando finalicen la serie de cursos, los alumnos podrán hablar con claridad sobre estos conceptos y demostrar sus habilidades prácticas. Los cursos deben completarse en el siguiente orden: 1. Aspectos básicos de la computación en Google Cloud: Fundamentos de la computación en la nube 2. Aspectos básicos de la computación en Google Cloud: Infraestructura en Google Cloud 3. Aspectos básicos de la computación en Google Cloud: Redes y seguridad en Google Cloud 4. Aspectos básicos de la computación en Google Cloud: Datos, IA y AA en Google Cloud Este primer curso brinda una descripción general de la computación en la nube, formas de usar Googl…