Este Curso en Data Factory: Automatización de flujos de datos tiene como objetivo demostrar que los procesos pueden ser automatizados ahorrando tiempo a las personas y generando un valor muy importante para las compañías.
Este curso forma parte del Master en Business Intelligence y Análisis de Datos. Si quieres ampliar tu formación, consulta el programa completo.
Este Curso en Data Factory: Automatización de flujos de datos tiene como objetivo demostrar que los procesos pueden ser automatizados ahorrando tiempo a las personas y generando un valor muy importante para las compañías.
Este curso forma parte del Master en Business Intelligence y Análisis de Datos. Si quieres ampliar tu formación, consulta el programa completo.
Contenidos del curso:
En esta clase se presentan los fundamentos del entorno Azure, sus ventajas y casos de uso, y se describe el ecosistema de servicios. Se aborda especialmente Azure Data Factory y sus componentes (pipelines, datasets, linked services, etc.) junto con un panorama general de otros servicios relevantes como Blob Storage, bases de datos y herramientas de analítica.
Comprender qué es Microsoft Azure y cuáles son sus ventajas.
Reconocer y clasificar los principales servicios de Azure y sus aplicaciones.
Identificar los componentes clave de Azure Data Factory y su rol en la integración de datos.
En esta clase se abordará la configuración práctica del entorno en Azure, desde el registro de la cuenta de estudiante hasta la creación y conexión de recursos clave (Blob Storage y Data Factory). Se explicará el proceso de configuración de la suscripción y la importancia de organizar los recursos en grupos.
Conocer el proceso de registro y validación de la cuenta de estudiante en Azure.
Configurar y gestionar la suscripción y el grupo de recursos.
Configurar correctamente una cuenta de Blob Storage y Azure Data Factory, estableciendo la conexión entre ambos.
Esta clase se centra en la creación de un pipeline en Azure Data Factory para el procesamiento de archivos CSV. Se abordarán aspectos como la configuración del dataset, el diseño del flujo de datos (Data Flow) y la ejecución del pipeline, además de la conexión con Power BI para la visualización de resultados.
Diseñar un flujo de datos que incluya la transformación básica: ingesta de datos, filtrado de filas y columnas y escritura de datos.
Implementar un pipeline que ejecute el flujo de datos
Conectar el resultado del flujo, almacenado en un Blob Storage, con Power BI para la visualización de la salida.
El 95% de nuestros alumnos está trabajando o emprende cuando finaliza sus estudios
Somos la mayor comunidad de profesionales digitales del mundo
Expertos en formación online: más de 15 años liderando la innovación del elearning
El 95% de nuestros alumnos consiguen mejorar su situación al finalizar sus estudios
Curso en Data Factory: Automatización de flujos de datos
Curso en Data Factory: Automatización de flujos de datos