Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live

Solicita información

Analisis de educaedu

Agustin González

Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live

  • Modalidad de impartición El Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live se imparte de manera online.
  • Número de horas Consultar duración con Tecnológico de Monterrey - LIVE.
  • Titulación oficial Se otorgará el título de Diplomado correspondiente.
  • Valoración del programa En el Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live el alumno recibirá una formación basada en el estudio y análisis de las bases de datos que permiten tomar decisiones y medir la información dentro de una empresa. Se preparará en análisis descriptivo e inferencial, manipulación de datos, ingeniería de datos y aplicaciones utilizadas para dichas mediciones. También aprenderá sobre analítica en redes sociales, en textos y en distintas plataformas.
  • Dirigido a El curso está pensado profesionales dedicados a tareas de análisis que quieran profundizar sus conocimientos en el área de Data Science.
  • Empleabilidad Con lo aprendido en este curso podrá postular para el Cargo de Data Science Junior u ocupar puestos vinculados al Análisis de Datos.

Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live

  • Contenido Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live del centro Tecnológico de Monterrey.

    Modalidad: Online
    Precio: $50900


    Descripción.

    ¿Tomas decisiones importantes en tu trabajo por instinto o experiencia? ¡Fortalece aún más tu toma de decisiones con el uso del data science!

    Vivirás sesiones síncronas y sesiones asíncronas, para interactuar en tiempo real con los instructores, así como para poder estudiar a tu propio ritmo.

    Realizarás actividades prácticas vinculadas a los temas presentados en cada módulo y resolverás problemas enfocados a tu entorno laboral.

    Al terminar tu diplomado, obtendrás una insignia digital blue con tecnología blockchain para fortalecer tu currículum digital y demostrar tus habilidades de una manera rápida y segura en plataformas digitales.


    ¿CÓMO VIVIRÁS TU APRENDIZAJE?.

    - Enfoque a la aplicabilidad en tu entorno laboral
    - Acompañamiento de tu instructor
    - Gran parte del programa se imparte en sesiones sincrónicas
    - Grupos pequeños para maximizar interacción con expertos
    - Plataforma de aprendizaje virtual.

    A quién va dirigido.

    Es ideal para profesionistas encargados de generar análisis descriptivos, inferenciales, predictivos y prescriptivos; dashboards para la toma de decisiones; desarrollar una aplicación de datos y emprendimiento.

    Objetivos.

    Con este diplomado en modalidad live aprenderás a aplicar las herramientas tecnológicas y matemáticas para desarrollar modelos de ciencia de datos para el perfil data science jr, requeridos en organización / innovación /emprendimiento para la toma decisiones basadas en datos.


    Temario.

    01. FUNDAMENTOS DE PYTHON I 10 HORAS.

    Diseñarás programas en lenguaje de programación Python sobre el ambiente de programación notebook, para que se cumpla con los requerimientos de la aplicación de Ciencia de Datos

    1. Introducción
    2. Estándares en Python
    3. Estructuras de datos: lista, diccionarios, tuple, strings;
    4. Estatutos condicionales
    5. Control de flujo
    6. Definición de funciones
    7. Manejo de archivos csv: incluir identificar archivos vacíos, crear una lista de archivos a procesar
    8. Ambiente de programación notebook (Jupiter y/o “Google Colab)


    02. PLATAFORMAS DE APLICACIÓN SOBRE PYTHON.

    1. Introducción (plataformas / frameworks)
    2. Manipulación de datos en Panda
    3. Manipulación de datos en Numpy
    6. Definición de funciones
    7. Manejo de archivos csv: incluir identificar archivos vacíos, crear una lista de archivos a procesar
    8. Ambiente de programación notebook (Jupiter y/o “Google Colab)
    4. Instalar bibliotecas que no estén la pre-instaladas (plataformas / frameworks)


    03. MANIPULACIÓN DE DATOS EN PYTHON.

    Manipularás una base de datos en la plataforma de Panda de Python que involucre llamadas (queries) a las bases de datos y estatuos para concatenar y unir bases de datos

    1. Introducción
    2. Algebra relacional
    3. Funciones: join, merge, append
    4. Ejemplo


    ÁREA DE CONCENTRACIÓN 2: VISUALIZACIÓN PARA ANÁLISIS DESCRIPTIVO E INFERENCIAL Y DISEÑO DE APLICACIONES DASHBOARD IN WEB.

    04. PLATAFORMAS DE VISUALIZACIÓN.

    Explotarás las ventajas y desventajas que tienen Python, y las plataformas de visualización Matplotlib y Seaborn, para generar gráficas que compartan ejes horizontales (x); el eje vertical (y) puede ser compartido a la misma escala, para que se cumpla con los requerimientos de interfase de la visualización requerida.

    1. Introducción
    2. Validación estadística del modelo
    3. Plataformas de visualización: panda, matplotlib, y seaborn
    4. Gráficas superpuestas compartiendo eje horizontal (x) y vertical (y)
    5. Gráficas superpuestas compartiendo eje horizontal (x) y con ejes verticales diferentes (y1, y2), cada uno con escala diferente
    6. Sub-gráficas (subplots)
    7. Anotaciones de texto en las gráficas
    8. Diferentes tipos de gráficas para exploración de los datos: Boxplot, distribuciones, dispersiones (Scatter Plot), matriz de dispersiones (Scatter Plot Matrix)


    05. INGENIERÍA DE CARACTERÍSTICAS.

    Seleccionarás las características de las bases de datos más importantes por su importancia para la visualización o por su importancia en mejorar la exactitud, precisión de un modelo de datos.

    1. Imputación de valores perdidos
    2. Valores atípicos (handling outliers)
    3. Agrupamiento en contenedores (binning)
    4. Transformación logarítmica
    5. Distribución de valores de una columna en múltiples columnas binarias (one-hot encoding)
    6. Operaciones en grupos (groupby)
    7. Separación de datos (feature split)
    8. Escalamiento (Scaling)
    9. Extracción de fecha (date)
    10.Reducción de dimensiones (FA, PCA, IDA)


    06. APLICACIÓN WEB DE CIENCIA DE DATOS.

    Desarrollarás un dashboard en la plataforma Streamlit para la visualización de datos interactivos requeridos por la organización para presentar KPIs o para toma de decisiones.

    1. Fundamentos de UX/UI
    2. Plataforma Streamlit
    3. Manipulación de datos
    4. Sidebar
    5. Estatutos slider, radio, selectbox
    6. Estatuto caching


    ÁREA DE CONCENTRACIÓN 3: MÁQUINAS INTELIGENTES.


    07. APRENDIZAJE NO-SUPERVISADO.

    Desarrollarás modelos inteligentes no supervisado de datos utilizando scikitlearn de Python, seleccionando el número de agrupaciones adecuadas y analizando la efectividad del modelo utilizando medidas de calidad que cumplan lo mejor posible con los requerimientos de la tarea requerida

    1. Introducción
    2. Medidas de calidad de los algoritmos de clusterización
    3. Número de agrupaciones utilizando la gráfica K-Elbow.
    4. Número de agrupaciones utilizando los valores de los coeficientes de Silhouette (gráfica Silhouette Plot)
    5. Distancia relativa entre agrupaciones; importancia relativa de las agrupaciones
    6. Índice Calinski-Harabasz


    08. APRENDIZAJE SUPERVISADO.

    Desarrollarás modelos inteligentes supervisado de datos utilizando scikit-learn de Python; seleccionar el modelo adecuado y analizar la exactitud, precisión del modelo que cumplan lo mejor posible con los requerimientos de la tarea requerida.

    1. Introducción
    2. Modelación de datos clásica: Árboles, Bosques, Gaussian NaiveBayes, regresión lógica, Support Vector Machine
    3. Evaluación de modelos medida a utilizar: matriz de confusión, exactitud, precisión, F1, curva ROC


    09. VISUALIZACIÓN DE MÁQUINAS INTELIGENTES.

    Utilizarás herramientas visuales de máquinas inteligentes para desarrollar modelos de datos más exactos y/o precisos, que cumplan con los requerimientos de la necesidad del problema a resolver. 

    1. Herramienta Yellow Brick
    2. Hyperparameters optimization
    3. Data wrapper
    4. Export_graphviz from sklearn.tree
    5. Decision boundaries
    6. ANN Visualiser
    7. Variational autoencoders (VAE)


    10. PLATAFORMAS Y MÁQUINAS INTELIGENTES EN BIG DATA.

    Desarrollarás modelos inteligentes supervisados de grandes volúmenes de datos utilizando PySpark de Python, seleccionarás el modelo adecuado y analizarás la exactitud, precisión del modelo, que cumplan lo mejor posible con los requerimientos de la tarea requerida.

    1. Introducción
    2. Estructura de datos en PySpark
    3. Modelación inteligente de datos en PySpark


    11. ANALÍTICA DE TEXTO.

    Desarrollarás modelos inteligentes supervisado de datos de texto utilizando la plataforma máquinas inteligentes en Python, seleccionarás el modelo adecuado y analizarás la exactitud, precisión del modelo, que cumplan lo mejor posible con los requerimientos de la tarea requerida. 

    1. Introducción herramientas NLTK, Spacy, TextBlob, PyTorch-NLP, Textacy
    2. Introducción: aplicaciones en detección de plagio y detección de autoría
    3. Análisis de frecuencias, personas, eventos
    4. Conceptos de transformadores
    5. Modelo inteligentes estadísticos, lingüísticos y profundos
    6. Visualización de texto
    7. Visualización del Corpus t-SNE: use stochastic neighbor embedding to project documents
    8. Visualizar la dispersión de palabras clave en el Corpus.
    9. Visualiza de documentos similares (UMAP)


    12. ANALÍTICA DE REDES SOCIALES.

    Desarrollarás modelos de redes de datos utilizando la NetworkX en Python; analizarás la robustez de las redes, encontrarás las personas que más se comunican, así como los líderes de las conversaciones en una red social.

    1. Introducción: aplicaciones
    2. Definición de nodos, vértices, y atributos
    3. Tipos de redes: direccional, bidireccional, pesada, bipartita
    4. Representación y manipulación de datos utilizando NetworkX
    5. Métricas: distancia, alcance (reachability) y redundancia para explorar lo robusto de redes a ataques intencionales o al quitar nodos o vértices
    6. Centralidad (grado, “closeness”, and “betweenness”, “page rank”

    Titulación obtenida.

    Diplomado en Data Science & AI: Del Concepto a desarrollo de aplicaciones - Live

    Requisitos.

    No se requiere de documentación específica.

Otra formación relacionada con base de datos

  • Diplomado en Ciencia de Datos

  • Centro: UNAM - Universidad Nacional Autónoma de México
  • Solicita información
  • Licenciatura en Sistemas de Información Administrativa

  • Centro: Universidad de Guanajuato
  • Solicita información
  • Licenciatura en Computación

  • Centro: Universidad de Guanajuato
  • Solicita información
  • Maestría en Ciencias de la Computación

  • Centro: CIMAT Centro de Investigación en Matemáticas
  • Solicita información
  • Maestría en Ingeniería de Software

  • Centro: CIMAT Centro de Investigación en Matemáticas
  • Solicita información
  • Maestría en Administración de Redes Computacionales

  • Centro: Universidad Iberoamericana León
  • Solicita información
  • Maestría en Informática Aplicada

  • Centro: Universidad Iberoamericana León
  • Solicita información