Big data Developer con Cloudera apache Hadoop (175h)
-
Como ya he cursado varios de sus cursos doy mi palabra que es un centro que vale la pena. Me han servido sus servicios y también estas asignaturas se necesitan en cualquier trabajo del rubro. Ideal estos cursos para cualquier especialización.
← | →
Curso subvencionado desempleados y trabajadores
Online
subvencionado por el Estado
¿Necesitas un coach de formación?
Te ayudará a comparar y elegir el mejor curso para ti y a financiar tu matrícula en cómodos plazos.
¡Actualiza tus habilidades, mantente a la vanguardia!
-
Tipología
Subvencionado
-
Metodología
Online
-
Duración
3 Meses
-
Inicio
Fechas a elegir
¿Buscas hacer de tu pasión tu profesión?
Continúa escalando de la mano de Emagister, que entre su amplia oferta educacional te trae la formación en Big data Developer con Cloudera apache Hadoop impartida por PUE. En este encontrarás un completo temario que te ayudará a comprender el este amplio escenario hasta alcanzar tu máxima expresión.
Este curso te ofrece los conceptos clave y la experiencia que necesitas para introducir y procesar datos en un clúster Hadoop utilizando las herramientas y técnicas más actuales, tales como Spark (incluyendo Spark Streaming y Spark SQL), Flume, Kafka y Sqoop. Este curso proporciona la mejor preparación para los desafíos del mundo real que enfrentan los desarrolladores de Hadoop.
Con Spark, los desarrolladores pueden escribir sofisticadas aplicaciones en paralelo para tomar mejores decisiones, más rápidas y acciones interactivas, aplicadas a una amplia variedad de casos de uso, arquitecturas e industrias.
¿Estás listo para ser parte de una formación diseñada por profesionales expertos? No esperes más y solicita información hoy mismo a través de Emagister.com.
Instalaciones y fechas
Ubicación
Inicio
Inicio
A tener en cuenta
A la finalización de la formación, el participante adquirirá los siguientes conocimientos:
Cómo se ajusta el ecosistema de Apache Hadoop con el ciclo de vida del procesamiento de datos.
Cómo se distribuyen, almacenan y procesan los datos en un Clúster de Hadoop.
Escribir, configurar y desplegar aplicaciones Apache Spark en un Clúster de Hadoop.
Utilizar la Spark shell y aplicaciones Spark para explorar, procesar y analizar datos distribuidos.
Realizar consultas de datos con Spark SQL, Dataframes y Datasets.
Uso de Spark Streaming para procesar datos en tiempo real.
Este curso está diseñado para desarrolladores e ingenieros que tienen experiencia en programación, pero no se requieren conocimientos previos de Hadoop y / o Spark.
Los ejemplos y ejercicios se presentan en Python y Scala, por ello se requiere el conocimiento de uno de estos lenguajes de programación. También es necesario tener conocimientos básicos de Linux y conocimientos de SQL serán de utilidad.
Una vez hayas realizado la preinscripción al curso y para que podamos comprobar que cumples los requisitos de la convocatoria, tendrás que facilitarnos por correo electrónico la siguiente documentación:
Currículum actualizado.
Fotocopia del DNI.
Cabecera de la última nómina o recibo de autónomos e informe de actividades económicas-IAE -para trabajadores en activo-.
Fotocopia de la demanda de empleo DARDE/DARDO actualizada -para trabajadores en situación de desempleo-.
Una vez validada tu candidatura al curso, se te convocará a una prueba de nivel.
No se requiere
Opiniones
-
Como ya he cursado varios de sus cursos doy mi palabra que es un centro que vale la pena. Me han servido sus servicios y también estas asignaturas se necesitan en cualquier trabajo del rubro. Ideal estos cursos para cualquier especialización.
← | →
Valoración del curso
Lo recomiendan
Valoración del Centro
b0rt
Logros de este Centro
Todos los cursos están actualizados
La valoración media es superior a 3,7
Más de 50 opiniones en los últimos 12 meses
Este centro lleva 8 años en Emagister.
Materias
- FHRP
- Big Data
- Apache Spark
- Python
- Scala
- YARN
- Cloudera
- Hadoop
- Linux
- SQL
- Clúster Hadoop
- Seguridad de datos
- Scripts
- Análisis de datos
- Programación orientada a objetos
- Matrices
- Metadatos
- Red
- WAN
- ACL
- FHRP
Profesores
Equipo Docente
Profesorado
Temario
Módulo 1: Introducción a SQL
-
Introducción
-
Base de datos básica
-
Estructura de base de datos
-
El uso de SQL
-
Creación de una base de datos
-
Las consultas básicas
-
Mantenimiento de la Base de datos
-
Copia de tablas y modificaciones de columnas
-
Índices y restricciones
-
Eliminar o modificar filas de la tabla de datos
-
Funciones: uso y tipos
-
Funciones específicas
-
Joins
-
Exportación de datos, consultas y utilidades
-
Importación de datos y de archivos de datos
-
Importación con sentencias y utilidades
-
Subconsultas generales y básicas
-
Subconsulta no correlacionada y correlacionada
-
Tipos de subconsultas
-
Modificación de la tabla con subconsultas
-
Motores de almacenamiento
-
Creación de Vistas
-
Transacciones
-
Recuperación de Metadatos
-
Conclusiones
Módulo 2: Introducción a Linux
-
Evolución de Linux y de los sistemas operativos más populares
-
Principales aplicaciones de código abierto
-
Entender el software de código abierto y la política de licencias
-
Habilidades ICT y el trabajo con Linux
-
Aspectos básicos de la línea de comandos
-
Utilizar la línea de comandos para obtener ayuda
-
Utilizar directorios y listar los archivos
-
Crear, mover y eliminar archivos
-
Guardar archivos en la línea de comandos
-
Buscar y extraer datos de archivos
-
Convertir los comandos en scripts
-
Seleccionar un sistema operativo
-
Entender el hardware del ordenador
-
Saber dónde se guardan los datos
-
Conectar nuestro ordenador a una red
-
Seguridad básica e identificación de los tipos de usuarios
-
Creación de usuarios y grupos
-
Administración de la propiedad y los permisos de los archivos
-
Directorios y archivos especiales
Módulo 3: Introducción a la programación orientada a objetos en Java
-
¿Cómo es un programa Java?
-
Crear una clase principal en Java
-
Tipos de datos en Java
-
Uso de arrays y matrices
-
Uso de objetos y clases
-
Manipular y formatear los datos en su programa
-
Uso de métodos
-
Uso de encapsulación
-
Condicionales o estructuras de decisión
-
Bucles o estructuras de iteración
-
Uso de herencia
-
Uso de interfaces
-
Gestión de excepciones
Módulo 4: Programación Python
-
Introducción
-
Introducción a Python
-
Variables
-
Colecciones
-
Control de flujo
-
Estructura del programa
-
Trabajar con librerías
-
Conclusión
Módulo 5: Programación Scala
-
Introducción
-
Vista general
-
Básicos de Scala
-
Trabajar con tipos de datos
-
Agrupación de datos
-
Control de flujo en Scala
-
Uso y creación de librerías
-
Conclusión
Módulo 6: Cloudera Desarrollador Spark & Hadoop.
-
Introducción
-
Introducción a Apache Hadoop y el ecosistema Hadoop
-
Archivos de almacenamiento de Apache Hadoop
-
Proceso de datos en un clúster de Apache Hadoop
-
Fundamentos de Apache Spark
-
Trabajar con Dataframes y Schemas
-
Análisis de datos con consultas de DataFrame
-
RDDs: Sumario
-
Transformación de datos con RDDs
-
Agregación de datos con Pair RDDs
-
Consulta y vistas de tablas con Spark SQL
-
Creación, configuración y ejecución de aplicaciones Spark
-
Procesamiento distribuido Spark
-
Persistencia de datos distribuidos
-
Patrones comunes al procesar datos con Spark
-
Introducción a las Estructuras Streaming
-
Estructuras Streaming con Apache Kafka
-
Agregación y unión de Streaming Dataframes
-
Conclusión
-
Procesamiento de mensajes con Apache Kafka
¿Necesitas un coach de formación?
Te ayudará a comparar y elegir el mejor curso para ti y a financiar tu matrícula en cómodos plazos.
Big data Developer con Cloudera apache Hadoop (175h)
subvencionado por el Estado