Curso actualmente no disponible
Introducción a Data Engineer y Data Scientist con AI y prácticas con AWS
Curso
En Madrid ()
Descripción
-
Tipología
Curso
-
Nivel
Nivel intermedio
-
Horas lectivas
75h
-
Duración
2 Meses
Conocer las principales características del procesamiento masivo de datos en su relación con aplicaciones y algoritmos de Inteligencia Artificial, así como facilitar una aproximación a la planificación y desarrollo de programas de inteligencia artificial y Big Data sobre plataforma AWS.
A tener en cuenta
.Conocer las principales características del procesamiento masivo de datos en su relación con aplicaciones y algoritmos de Inteligencia Artificial, así como facilitar una aproximación a la planificación y desarrollo de programas de inteligencia artificial y Big Data sobre plataforma AWS.
Se imparte en la modalidad Aula Virtual. Videoconferencia. En vivo, en directo y totalmente interactivo. Curso práctico. Las clases se graban y el alumno tiene hasta 6 meses para poder ver su propio curso grabado hasta 6 meses después de finalizar.
Opiniones
Logros de este Centro
Todos los cursos están actualizados
La valoración media es superior a 3,7
Más de 50 opiniones en los últimos 12 meses
Este centro lleva 9 años en Emagister.
Materias
- Inteligencia artificial
- Cloud computing
- Web services
- Big Data
- Algoritmos
- AI
- IA
- AWS
- Amazon Web Services
- ChatGPT
Profesores
Formador Certificado
Dignitae
Temario
1. ADQUISICIÓN Y DOMINIO DE CONCEPTOS BÁSICOS Y DE CONOCIMIENTOS SOBRE LOS AVANCES EN BIG DATA
1.1 Cómo evoluciona el BI tradicional al Big Data (navegación web, geolocalización, audiencias TV,…)
1.2 El Big Data como solución al tratamiento masivo de datos: definición e historia desde su invención.
1.3 Hadoop como revolución para el tratamiento paralelo de datos masivo.
1.4 Características del Big Data (4 V's y más): volumetría, velocidad, variedad (estructurados/no estructurados), veracidad (calidad del dato), valor del dato, …
1.5 Nuevos paradigmas del Big Data: Procesos en Real Time y Cloud Computing.
1. CONOCIMIENTO DE NOCIONES BÁSICAS SOBRE ARQUITECTURA BIG DATA Y PRINCIPALES TECNOLOGÍAS
1.1 El ecosistema Hadoop: HDFS y MapReduce.
1.2 Principales lenguajes de programación utilizados: Java, Scala, SQL y Python.
1.3 Procesos ETL (extracción, transformación y carga): Flume, Sqoop y HIVE.
1.4 Procesos Real Time y bases de datos de alta disponibilidad: Kafka, HBASE y Redis.
1.5 Procesamiento y analítica avanzada con Spark.
1.6 Seguridad y gobierno del dato.
2. COMPRENSIÓN DE LOS PRINCIPALES CONCEPTOS SOBRE LA “CIENCIA DE DATOS” E IA:
2.1 Introducción a la “Ciencia de datos” y la Inteligencia Artificial.
2.2 Principales lenguajes de programación utilizados: R y Python.
2.3 Algoritmos supervisados: ¿Qué son? Algunos Ejemplos.
2.4 Algoritmos no-supervisados: ¿Qué son? Algunos Ejemplos.
2.5 Introducción al Deep Learning y el Aprendizaje por Refuerzo.
2.6 Procesamiento de información no estructurada: Imágenes y Textos.
2.7 Visualización de datos: Visualizaciones interactivas y Dashboards.
3. ADQUISICIÓN DE UNA VISIÓN TRASVERSAL SOBRE EL FUTURO DEL BIGDATA Y CÓMO SE APLICA ACTUALMENTE EN DIFERENTES ÁREAS:
3.1 Ejemplos en las instituciones públicas: OpenData.
3.2 Ejemplos en el mundo empresarial: ejemplos de aplicabilidad del Big Data a la eficiencia de las operaciones de una compañía.
3.3 “Data for Good”: Big Data para el bien social.
4.4 Reflexiones finales sobre el impacto del Big Data en los años venideros
2. CONOCIMIENTO DE NOCIONES BÁSICAS SOBRE ARQUITECTURA BIG DATA Y PRINCIPALES TECNOLOGÍAS
2.1 El ecosistema Hadoop: HDFS y MapReduce.
2.2 Principales lenguajes de programación utilizados: Java, Scala, SQL y Python.
2.3 Procesos ETL (extracción, transformación y carga): Flume, Sqoop y HIVE.
2.4 Procesos Real Time y bases de datos de alta disponibilidad: Kafka, HBASE y Redis.
2.5 Procesamiento y analítica avanzada con Spark.
2.6 Seguridad y gobierno del dato.
3. COMPRENSIÓN DE LOS PRINCIPALES CONCEPTOS SOBRE LA “CIENCIA DE DATOS” E IA:
3.1 Introducción a la “Ciencia de datos” y la Inteligencia Artificial.
3.2 Principales lenguajes de programación utilizados: R y Python.
3.3 Algoritmos supervisados: ¿Qué son? Algunos Ejemplos.
3.4 Algoritmos no-supervisados: ¿Qué son? Algunos Ejemplos.
3.5 Introducción al Deep Learning y el Aprendizaje por Refuerzo.
3.6 Procesamiento de información no estructurada: Imágenes y Textos.
3.7 Visualización de datos: Visualizaciones interactivas y Dashboards.
4. ADQUISICIÓN DE UNA VISIÓN TRASVERSAL SOBRE EL FUTURO DEL BIGDATA Y CÓMO SE APLICA ACTUALMENTE EN DIFERENTES ÁREAS:
4.1 Ejemplos en las instituciones públicas: OpenData.
4.2 Ejemplos en el mundo empresarial: ejemplos de aplicabilidad del Big Data a la eficiencia de las operaciones de una compañía.
4.3 “Data for Good”: Big Data para el bien social.
4.4 Reflexiones finales sobre el impacto del Big Data en los años venideros
5. Pruebas con chatGPT-4.
Introducción a Data Engineer y Data Scientist con AI y prácticas con AWS