Máster de Formación Permanente en Big Data y Analytics

Solicita información

Analisis de educaedu

Inés Gonzalez

Máster de Formación Permanente en Big Data y Analytics

  • Modalidad de impartición La metodología de impartición para este programa de Inesdi Digital Business School será Online.
  • Número de horas El Máster tiene una duración de 10 meses.
  • Titulación oficial Al concluir el recorrido de estudios propuesto por Inesdi Digital Business School se otorgará el Máster de Formación Permanente en Big Data y Analytics.
  • Valoración del programa Gracias a la formación ofrecida en el Máster de Formación Permanente en Big Data y Analytics de Inesdi Digital Business School podrás comprender cómo manejar y analizar grandes volúmenes de datos para extraer información valiosa. El programa aborda desde los fundamentos del Big Data hasta las técnicas más avanzadas de análisis y visualización de datos. Se enseña el uso de tecnologías punteras como Hadoop y Spark, así como lenguajes de programación como Python y R. Los estudiantes tienen la oportunidad de trabajar en proyectos reales y desarrollar soluciones innovadoras para problemas complejos, preparando así a los graduados para roles avanzados en el campo del análisis de datos.
  • Dirigido a El programa se orienta hacia profesionales en activo que desean profundizar sus conocimientos en Big Data, así como para aquellos que buscan un cambio de carrera hacia el análisis de datos. Ingenieros, científicos de datos, analistas de negocio y consultores encontrarán en este máster una excelente oportunidad para avanzar en sus carreras. También es adecuado para recién graduados que buscan especializarse en un campo de alta demanda.
  • Empleabilidad Una vez se culminen los estudios, los egresados serán profesionales con las aptitudes y conocimientos para desempeñarse como profesionales altamente capacitados en en diversos sectores, desde tecnología y finanzas hasta marketing y salud.

Máster de Formación Permanente en Big Data y Analytics

  • Contenido

    Máster de Formación Permanente en Big Data y Analytics.

    Cambia la forma de analizar de tu organización para transformarla en una data driven company.

    Metodología: Online
    Duración: 10 meses (60 ECTS)

    Objetivos.

    El objetivo general del Máster de Formación Permanente en Big Data y Analytics de Inesdi Business Techschool es proporcionar los conocimientos necesarios para gestionar un proyecto de Big Data desde todas sus vertientes, empezando desde cómo detectar la oportunidad en una organización hasta determinar qué se entrega a las áreas de negocio.

    Asimismo, se persigue que el profesional responsable pueda reconocer si una organización se encuentra delante de un reto de Big Data y tener un proceso definido de los pasos a seguir: identificar la tipología de soluciones que debe adoptar, determinar los perfiles profesionales que va a necesitar, preparar un plan de viabilidad económica y tener los fundamentos para manejar su escalabilidad.

    Empleabilidad.

    95% De nuestros Alumni encuentran trabajo relacionado con Data Analytics.
    +3000 Alumnos de Inesdi que realizan prácticas las obtienen gracias al departamento de Carreras Profesionales.
    75% De nuestros Alumni ascienden al finalizar el Máster.

    Programa.

    El Máster en Big Data & Analytics se estructura en 10 módulos terminando el programa con el Proyecto Fin de Máster.

    Contamos con varias membresías y certificaciones que nos permiten agregar un extra a nuestros programas y brindar herramientas complementarias a nuestros alumnos.


    Bootcamp Tecnológico.

    Los estudiantes inician el programa de Big Data y Analytics con este bootcamp que provee de las bases de conocimiento técnicas necesarias para cursar y para llevar cabo proyectos de Big Data.

    En este curso, los estudiantes encontrarán recursos materiales que les permitirán profundizar en diferentes temas necesarios para el seguimiento del máster y realizarán actividades que les servirán como guía para la evaluación de sus conocimientos y la evaluación final del curso.



    Módulo 1- Liderazgo y estrategias en proyectos de Big Data e IA
    En este módulo introduciremos los conceptos fundamentales del Big Data para saber identificar las claves de cada proyecto y escalabilidad. Descubrir la variabilidad de los datos, la volumetría y la velocidad nos servirá para identificar qué fases se deben llevar a cabo antes de arrancar un proyecto de Big Data y, lo más importante, qué retorno esperamos del proyecto y qué expectativas tiene el negocio.

    Objetivos:

    Identificar cuándo un proyecto es Big Data.
    Encontrar el ROI en un proyecto de Big Data.
    Entender y aplicar los conceptos de Dark Data y Open Data.
    Orientar la organización para que sea una Data Driven organization y respalde el
    proyecto.
    Conocer la legalidad de los datos.
    Definir la figura del Data Science dentro de una organización.
    Examinar casos de éxito y fracasos en la industria en el mundo de Big Data.
    Comprender la organización interna del área del CDO.


    Módulo 2- Planificación y desarrollo de arquitecturas escalables
    En este módulo descubriremos los pros y los contras de cada arquitectura, los principales proveedores de soluciones y las estrategias para construir entornos lo más elásticos posibles, buscando siempre la arquitectura más eficaz en soluciones y coste.

    Objetivos:

    Estudiar los conceptos fundamentales de Arquitectura de referencia de Big Data.
    Analizar las características de las arquitecturas de proceso de Big Data (Lambda y Kappa).
    Comprender las Arquitecturas de Computación (Velocidad).
    Entender cómo funciona un Hadoop.
    Examinar la evolución de los motores de proceso de Big Data.
    Aprender las Arquitecturas de Almacenamiento (Volumen) para Big Data: Réplicas, Particionado, Rendimiento y Disponibilidad.
    Examinar ejemplos de arquitecturas de almacenamiento de Big Data. Data Lake y DataWarehouse.
    Familiarizarse con la gestión de una Arquitectura de Big Data.
    Analizar las conexiones entre cloud y Big Data. Servicios de datos en Cloud Públicos, Snowflake y DataBricks.
    Entender con detalle como funcionan los clusters de Hadoop o Spark.


    Módulo 3- Integración de datos (ETLs, ELTs...)

    En este momento, deberemos definir reglas de calidad para verificar que los datos son correctos y no empobrecen nuestro Data Lake. En este módulo aprenderemos a definir las bases que deben tener todo proceso de carga de datos para garantizar una integridad, sanitización, historificación y recursividad en las cargas.

    Objetivos:

    • Comprender los retos de los datos en los procesos de integración de datos.
    • Estudiar la Integración de Datos – Procesos ETL y ELT.
    • Aprender a usar técnicas avanzadas de integración de datos con Machine Learning.
    • Analizar Data Quality y métricas en los procesos de integración de datos.
    • Examinar el uso del Data Lineage en los procesos de integración de datos.
    • Aproximarse al Master Data Management. La factoría de Datos.
    • Entender los beneficios de Open Data, para enriquecer nuestros datos con datos externos.
    • Familiarizarse con las herramientas de Integración de Datos y Cloud.




    Módulo 4- Data Lakes. SQL y NoSQL
    Registrar grandes cantidades de información requiere de diferentes tipologías de base de datos, más allá de las relacionales con un enfoque más tradicional. Así, por ejemplo, el vídeo, las rutas o caminos críticos, los documentos o las redes sociales son fuentes de datos cada vez más habituales entre las fuentes de información que interesan a un negocio. El mercado tecnológico se ha adaptado a todas ellas y ha creado soluciones para poder almacenarlas y explotarlas de forma óptima. En este módulo descubriremos sus ventajas e inconvenientes y realizaremos pequeñas prácticas sobre cada una de ellas para explorar su potencial.

    Objetivos:

    Entender los retos de las bases de datos relacionales en Big Data.
    Comprender la necesidad de escalar. La consistencia BASE vs ACID.
    Aprender a usar las bases de datos NoSQL.
    Aproximarse a Deep Dive MongoDB y aprender a crear un DataLake con MongoDB.
    Analizar las bases de datos NewSQL.
    Examinar las bases de datos en streaming. Proceso en tiempo real.
    Saber cómo montar un DataLake en Cloud.



    Módulo 5- Data Mining: Estadística básica y preprocesado de datos 
    En este módulo aprenderemos a extraer información del conjunto de datos del Data Lake y, sobre todo, a convertirla en interpretable. En todo el proceso, deberemos tener claros los objetivos de negocio, las herramientas que nos ayudarán a analizar los datos, a determinar qué modelos matemáticos son mejores y a cualificar los resultados.

    Objetivos:

    Seleccionar el conjunto de datos que mejor puede resolver la pregunta de negocio, de entre los datos disponibles.
    Transformar el conjunto de datos de entrada.
    Seleccionar la técnica de minería de datos más adecuada (redes neuronales, árboles de decisión, clustering, reglas de asociación, etc.).
    Entender el proceso de extracción de conocimiento.
    Interpretar y evaluar los datos.


    Módulo 6- Advanced Analytics: R
    Una vez dispongamos de unos datos correctos habrá llegado el momento de extraer el conocimiento, interpretarlos y llevar el conocimiento a un nuevo nivel. En este módulo, sentaremos una pequeña base estadística para poder trabajar con una de las principales herramientas de Advanced Analytics del mercado: R. Con ella se realizarán pequeñas prácticas para extraer el máximo potencial de los datos.

    Objetivos:

    Conocer las bases dela estadística y del cálculo de probabilidades.
    Aplicar el análisis multivariante de datos.
    Entender y aplicar las series temporales.
    Entender el proceso de control estadístico de la calidad de los datos.
    Calcular correlaciones y patrones.
    Conocer el proceso de clusterización de los datos.


    Módulo 7- Machine Learning & Inteligencia Artificial
    En módulos previos hemos aprendido a interpretar datos y extraer conocimiento (Análisis Descriptivo). En este módulo nos adentraremos en el Aprendizaje Automático y la IA Generativa para anticipar eventos, generar datos y crear nuevo conocimiento (Análisis Predictivo). Descubriremos las principales técnicas y herramientas, la información necesaria y exploraremos su aplicabilidad en casos prácticos.

    Objetivos:

    Comprensión profunda de los tipos de aprendizaje: diferenciar entre aprendizaje supervisado, no supervisado y por refuerzo. Conocer las diferentes técnicas de clasificación, de los árboles de decisiones a las técnicas bayesianas.
    Conocimiento de técnicas avanzadas de clasificación y regresión. Panorama de herramientas comerciales y de código abierto. Identificar los principales softwares de código abierto y comercial.
    Introducción a la IA Generativa: principios y relación con el aprendizaje automático.
    Habilidades prácticas: desarrollar la capacidad de resolver problemas reales mediante la aplicación de técnicas de aprendizaje automático e IA Generativa.

    Módulo 8- Data Governance 
    Una vez tenemos toda la información, debemos definir las reglas de uso: quién puede ver los datos, la definición de cada dato, linaje y dotar a los usuarios de las herramientas para poder interpretarlos.
    El gobierno del dato es donde muchas empresas fracasan, tener dos valores diferentes para un mismo KPI o predictivo, provoca desconfianza entre las diferentes áreas de negocio.
    En este módulo, aprenderemos las técnicas de gobierno de la información para mantener la integridad, seguridad y trazabilidad, para garantizar que los datos ayuden a la toma de decisiones seguras sin generar desconfianza.

    Objetivos:

    Entender qué es la accesibilidad de los datos.
    Gestionar los datos como un activo.
    Asegurar la integridad.
    Definir los principales KPIs y trazabilidad de los datos.
    Entender el concepto de securización.


    Módulo 9- Técnicas de visualización 

    En este módulo descubriremos cuáles son las diferentes técnicas de visualización de datos y cuándo utilizar cada una de ellas. Los grandes volúmenes de datos necesitan de nuevas representaciones gráficas para poder interpretarlos: mapas de calor, clústeres, dimensionales, caminos críticos, entre otros.
    Además de los gráficos, es importante asociar la valoración a cada uno de ellos y generar una interpretación. Los indicadores pueden confundir y dificultar la toma de decisiones, orientarlos, ponerlos en contexto y subjetivarlos ayudará a una mejor interpretación.

    Objetivos:

    • Descubrir las tipologías disponibles de gráficos.
    • Conocer los casos de uso y sus principales representaciones gráficas.
    • Entender el proceso vinculado al paso delos gráficos al Story telling de negocio.
    • Saber simplificar y Módulo 10 - Herramientas de visualización y autoservicio 

      Finalmente, como el ecosistema de herramientas de visualización es complejo, será importante escoger el más adecuado para cada tipo de organización. Habrá que tener en cuenta que en una organización se busca simplificar la tecnología y deberemos buscar una solución para toda la organización. Es sólo entonces cuando podremos garantizar fácilmente la seguridad, accesibilidad y disponibilidad de los
      mismos KPIs.

      El autoservicio es una pieza clave en organizaciones grandes con delegaciones, sucursales, etc. Permite descentralizar la información y convertir cada nodo de la organización en autónomo. En este módulo descubriremos las principales herramientas de data visualization y
      autoservicio.

      Objetivos:

      • Identificar las principales herramientas de mercado:Qlikview/sense, Tableau, PowerBI.
      • Conocer los puntos fuertes y puntos débiles de cada una ellas.
      • Realizar un caso práctico con Qliksense y el autoservicio de datos.


    Talleres.

    Taller 1. Neo4j-QSense: En este taller los estudiantes aprenderán a usar dos productos interesantes en el mundo de los datos. Por una parte, Neo4j, la base de datos de grafos más extendida actualmente que permite establecer, descubrir y explotar múltiples relaciones entre las entidades existentes. Además, la segunda parte del taller se dedicará a Qlik Sense, un producto de explotación BI sofisticado, muy extendido y orientado al analista de negocio, que facilita mucho la obtención de los insights de los datos.


    Taller 2. Construimos un Lakehouse en Cloud: Este segundo taller tiene por objetivo construir un Lakehouse en uno de los proveedores de cloud más importantes en la actualidad: AWS. La construcción del Lakehouse pasa por la utilización e integración de diferentes componentes o servicios de datos que encajan en la arquitectura de referencia usada a lo largo del Máster. Un Lakehouse es una propuesta de arquitectura que combina la flexibilidad de los Data Lakes con la sólida gestión de los datos estructurados de los Data Warehouse. Si se ubica esta arquitectura en el Cloud entonces también se disfruta de todas sus ventajas de escalabilidad, flexibilidad, gestión y pago por uso.


    Certificaciones.

    Para todos aquellos alumnos que finalicen con éxito el Máster, opcionalmente, podrán realizar el examen para la obtención de las certificaciones aCAP® o CAP®, acreditaciones clave para los profesionales del área de operaciones y analytics.

    aCAP® (Associate Certified Analytics Professional) es una certificación orientada a aquellos profesionales dedicados al análisis de datos, sin experiencia laboral o experiencia inferior a 3 años.
    CAP® (Certified Analytics Professional) es una certificación orientada a aquellos profesionales dedicados al análisis de datos, con experiencia laboral más de 3 años.
    El objetivo de estas certificaciones es validar los conocimientos y habilidades de los estudiantes en materia de análisis de datos. Obtener una acreditación de estas características es un elemento diferenciador, que aporta valor a los profesionales, abriéndoles las puertas al mercado laboral o a la mejora de la posición laboral ocupada. Para las empresas que buscan mejorar su capacidad para transformar los datos en información y acciones rentables, CAP® y aCAP® proporcionan una distinción para identificar, reclutar y retener el mejor talento analítico.

    Ambas certificaciones están avaladas por Informs, una institución integrada por 12.500 profesionales y estudiantes de este ámbito y que está comprometida con dar respuesta a las necesidades de los profesionales encargados del desarrollo, aplicación, investigación y docencia en el área de anlytics. El objetivo principal de la organización es promover las buenas prácticas y avances en operaciones, gestión empresarial y Analytics con el fin de mejorar los procesos operativos, la toma de decisiones y los beneficios.

    El Máster en Big Data y Analytics proporciona a los estudiantes los conocimientos y habilidades necesarios para superar satisfactoriamente el examen de aCAP® o CAP®, que les permitirán diferenciarse de la competencia y aportar valor a sus carreras profesionales.


    Preparación a la Certificación en PSM® (Professional Scrum Master)

    Es una certificación orientada a demostrar conocimiento de Scrum y las responsabilidades de Scrum Master. El objetivo de la certificación es validar los conocimientos y habilidades de los estudiantes. La certificación es reconocida y respetada mundialmente porque pone a prueba una verdadera comprensión de Scrum y como aplicarlo. Una vez que se obtiene no se necesita renovación.


    Proyecto final de Master.

    10 ECTS
    Es un trabajo académico-práctico que los estudiantes realizarán, transversalmente. El objetivo de este trabajo es favorecer la aplicación práctica de los conocimientos, metodologías y herramientas vistos a lo largo de todo el máster.

Otra formación relacionada con base de datos