CIFF - Universidad de Alcalá

Máster en Tecnologías Big Data.

CIFF - Universidad de Alcalá
En Alcalá de Henares

6.900 
¿Quieres hablar con un asesor sobre este curso?
¿Quieres hablar con un asesor sobre este curso?

Información importante

Tipología Master
Lugar Alcalá de henares
Inicio Marzo
  • Master
  • Alcalá de henares
  • Inicio:
    Marzo
Descripción

El Máster en Tecnologías Big Data forma a los profesionales que diseñan, despliegan y mantienen infraestructuras y aplicaciones de procesamiento de datos escalables.

El programa proporciona una visión amplia de las principales tecnologías Big Data, sus posibilidades de aplicación, y su integración para dar soporte a las tareas analíticas y a la puesta en producción de los modelos obtenidos de esas tareas.

El Máster en Tecnologías Big Data se orienta a profesionales usando una metodología Flipped Classroom (Clase Invertida) que permite realizar el estudio de modo Semipresencial (clases presenciales sábados cada 15 días) o completamente online, permitiendo la creación de expertos con uno de los perfiles profesionales más demandados actualmente.
El diseño del Máster en Tecnologías Big Data ofrece:
Un máster que te permite COMPATIBILIZAR LA FORMACIÓN con tu jornada laboral, con una novedosa y eficiente metodología formativa.
Una PREPARACIÓN AMPLIA con un esfuerzo total de 60 créditos ECTS, que permite por su amplitud cubrir una formación profunda en el área.
Un MÓDULO DE ADAPTACIÓN para nivelar a estudiantes con diferentes perfiles y orientar en la preparación previa para el aprovechamiento de los contenidos del Máster en Tecnologías Big Data.
Un MÉTODO DOCENTE basado en la práctica y la contextualización en casos prácticos o en problemas de negocio, utilizando las herramientas y tecnologías de manera práctica desde el principio.
El programa pretende proporcionar al alumno una formación integral en tecnologías Big Data que le permita diseñar la arquitectura y seleccionar las tecnologías en proyectos, así como identificar los beneficios que el tratamiento del Big Data puede aportar.

El programa pretende proporcionar al alumno una formación integral en tecnologías Big Data que le permita diseñar la arquitectura y seleccionar las tecnologías en proyectos, así como identificar los beneficios que el tratamiento del Big Data puede aportar.

Instalaciones (1) y fechas
Dónde se imparte y en qué fechas
Inicio Ubicación
Marzo
Alcalá de Henares
Plaza Cervantes, 10, 28801, Madrid, España
Ver mapa
Inicio Marzo
Ubicación
Alcalá de Henares
Plaza Cervantes, 10, 28801, Madrid, España
Ver mapa

A tener en cuenta

· ¿Cuáles son los objetivos de este curso?

Los objetivos de aprendizaje del programa son los siguientes: Saber comunicar los resultados de diferentes tareas de análisis a través de gráficos y diagramas a diferentes audiencias. Saber utilizar entornos de data science para un amplio rango de tareas analíticas, incluyendo la preparación y transformación de datos. Contextualizar y guiar las tareas de análisis en contextos de negocio, aplicación o transformación concretos. Aplicar técnicas de análisis estadístico e inferencia a datos de problemas diversos. Utilizar técnicas, herramientas y algoritmos de aprendizaje automático, supervisado y no supervisado, a la creación de modelos predictivos o de asociación y saber evaluarlos, actualizarlos y desplegarlos.

Preguntas & Respuestas

Plantea tus dudas y otros usuarios podrán responderte

Logros de este Centro

2016

¿Cómo se consigue el sello CUM LAUDE?

Todos los cursos están actualizados

La valoración media es superior a 3,7

Más de 50 opiniones en los últimos 12 meses

Este centro lleva 16 años en Emagister.

¿Qué aprendes en este curso?

Tecnologías Big Data
Big Data
Big data y business analytics
Visualización avanzada
Analítica de operaciones
Gestión de datos
Business Analytics
Paralelización de datos
Herramientas de análisis
BI

Temario

I.- INTRODUCCIÓN / BUSINESS CASEEl módulo de introducción pretende introducir el business case del Big Data para las organizaciones, la transformación digital del negocio y cómo se puede extraer valor o ventaja competitiva del mismo. Para ello también se introducen los principales indicadores y factores medibles que son fundamentales en la transformación del negocio mediante el proceso de analítica. Desde el punto de vista de la profesión, se introduce el concepto de data science, la tipología de los estudios data science y una primera introducción al toolset del data scientist como nuevo rol profesional.
  • Big Data: Conceptos, retos y oportunidades
  • Casos de Transformación de Negocio
  • Seminarios de actualización

II.- HERRAMIENTAS DE ANÁLISISEl módulo de herramientas de análisis profundiza en herramientas de data science y en las tareas fundamentales de preparación, transformación y limpieza de datos, así como la agregación y fusión de datos adquiridos de diversas fuentes, y su visualización a través de gráficos. También desarrolla las competencias básicas preparatorias de programación estadística y con series de datos en estos entornos que son fundamentales para el paso a técnicas más avanzadas.
  • Entornos de Data Science con R
  • Entornos de Data Science con Python
  • Fundamentos de presentación y visualización de datos

III.- TÉCNICAS DE ANÁLISISEl módulo de técnicas de análisis desarrolla el uso de las herramientas de análisis con el objetivo de cubrir todo el ciclo de data science hasta llegar al objetivo de los modelos predictivos que sirven a los propósitos del negocio. Se desarrolla el uso y evaluación de las técnicas computacionales fundamentales en aprendizaje automático y técnicas relacionadas. Se contextualiza todo el trabajo técnico en el ciclo de descubrimiento de conocimiento que incluye a la minería de datos.
  • Aprendizaje Automático Aplicado
  • Programación estadística
  • Inteligencia de negocio

IV.- PARALELIZACIÓN DE DATOSEste módulo introduce los principales modelos de procesamiento de datos paralelos, comenzando sobre Hadoop y el ecosistema desarrollado alrededor de esa tecnología, e introduciendo otras plataformas que lo complementan como Apache Spark. Se introduce la problemática de las arquitecturas que tienen que soportar procesamiento de datos off-line y de tiempo real o cuasi-real y necesitan para ello sistemas de colas o eventos escalables. Finalmente, se introduce el uso de estos sistemas mediante APIs para su consumo en modalidad cloud.
  • Fundamentos de paralelización de datos
  • Procesamiento de streams

V.- PARALELIZACIÓN DE DATOS AVANZADAEste módulo introduce los principales modelos de procesamiento de datos paralelos, comenzando sobre Hadoop y el ecosistema desarrollado alrededor de esa tecnología, e introduciendo otras plataformas que lo complementan como Apache Spark. Se introduce la problemática de las arquitecturas que tienen que soportar procesamiento de datos off-line y de tiempo real o cuasi-real y necesitan para ello sistemas de colas o eventos escalables. Finalmente, se introduce el uso de estos sistemas mediante APIs para su consumo en modalidad cloud.
  • Motores de Indexación
  • Integración de Tecnologías

VI.- GESTIÓN DE DATOSEl módulo de bases de datos no convencionales introduce en el nivel de uso la tipología de NoSQL y los principales modelos, así como los factores principales de diseño de modelos de datos y consultas subyacentes a estas tecnologías. También se introduce la Web de los Datos, sus lenguajes y estructura, como fuentes de datos. Además, se aborda el uso de herramientas de visuslización dinámicas y estáticas basadas en datos.
  • Bases de datos no convencionales
  • La Web de los datos
  • Herramientas de visualización de datos

VII.- GESTIÓN DE DATOS AVANZADAEn este módulo se profundiza en la tecnología NoSQL desde el punto de vista de la escalabilidad y la monitorización y se introducen modelos optimizados de bases de datos adicionales. Se tratan también sistemas escalables basados en Web.
  • Escalabilidad en almacenes de datos
  • Aplicaciones Web escalables

VIII.- GESTIÓN Y ADMINISTRACIÓN DE INFRAESTRUCTURAS BIG DATAEn este módulo se adquieren de manera práctica habilidades y conocimientos de trabajo en equipos de datos mediante metodologías ágiles. También se tratan los aspectos regulatorios asociados a la actividad del analista de datos y las infraestructuras de Big Data y sus implicaciones en la privacidad. Se tratan también las diferentes opciones para el despliegue de clusters de datos propios o su uso con coste en la nube, así como arquitecturas “enterprise wide” y su análisis coste-beneficio.
  • Métodos ágiles en proyectos de datos
  • Aspectos éticos y legales del análisis de datos
  • Proyectos e infraestructuras de analítica

IX.- CASO INTEGRADOREl caso integrador es un módulo donde se realiza de forma práctica un proyecto de integración de las tecnologías vistas en el resto del programa, utilizando clouds como AWS o una configuración local. Permite ejercitar el diseño de arquitecturas de Big Data escalables e introducir tecnologías adicionales que permiten integrar los componentes vistos.
  • Integración de tecnologías
  • Servicios de datos en la nube

X.- ANALÍTICA DE OPERACIONESEl módulo de analítica de operaciones pretende dar una visión del procesamiento de datos a partir del rol de sistemas de TI y su monitorización, incluyendo la gestión de logs escalable para su análisis e implementación de sistemas de alertas.
  • Gestión y análisis de logs
  • Gestión de sistemas


XI.- DESARROLLO DE VISUALIZACIÓN AVANZADAEl módulo de desarrollo de visualización avanzada aborda la visualización desde el punto de vista del desarrollador, incluyendo frameworks para el desarrollo de visualizaciones complejas utilizando arquitecturas de streaming, así como desarrollos sobre plataformas específicas.
  • Desarrollo de visualización
  • Aplicaciones en GIS

PROYECTO FIN DE MÁSTER

Compara para elegir mejor:
Ver más cursos similares