Curso actualmente no disponible

Introducción a Data Engineer y Data Scientist con AI y prácticas con AWS

Curso

En Madrid ()

Gratis

¿Necesitas un coach de formación?

Te ayudará a comparar y elegir el mejor curso para ti y a financiar tu matrícula en cómodos plazos.

Descripción

  • Tipología

    Curso

  • Nivel

    Nivel intermedio

  • Horas lectivas

    75h

  • Duración

    2 Meses

chatGPT-4

Conocer las principales características del procesamiento masivo de datos en su relación con aplicaciones y algoritmos de Inteligencia Artificial, así como facilitar una aproximación a la planificación y desarrollo de programas de inteligencia artificial y Big Data sobre plataforma AWS.

A tener en cuenta

.Conocer las principales características del procesamiento masivo de datos en su relación con aplicaciones y algoritmos de Inteligencia Artificial, así como facilitar una aproximación a la planificación y desarrollo de programas de inteligencia artificial y Big Data sobre plataforma AWS.

Se imparte en la modalidad Aula Virtual. Videoconferencia. En vivo, en directo y totalmente interactivo. Curso práctico. Las clases se graban y el alumno tiene hasta 6 meses para poder ver su propio curso grabado hasta 6 meses después de finalizar.

Preguntas & Respuestas

Añade tu pregunta

Nuestros asesores y otros usuarios podrán responderte

Déjanos tus datos para recibir respuesta

Sólo publicaremos tu nombre y pregunta

Opiniones

Logros de este Centro

2016

Todos los cursos están actualizados

La valoración media es superior a 3,7

Más de 50 opiniones en los últimos 12 meses

Este centro lleva 9 años en Emagister.

Materias

  • Inteligencia artificial
  • Cloud computing
  • Web services
  • Big Data
  • Algoritmos
  • AI
  • IA
  • AWS
  • Amazon Web Services
  • ChatGPT

Profesores

Formador Certificado

Formador Certificado

Dignitae

Temario

1. ADQUISICIÓN Y DOMINIO DE CONCEPTOS BÁSICOS Y DE CONOCIMIENTOS SOBRE LOS AVANCES EN BIG DATA

1.1 Cómo evoluciona el BI tradicional al Big Data (navegación web, geolocalización, audiencias TV,…)

1.2 El Big Data como solución al tratamiento masivo de datos: definición e historia desde su invención.

1.3 Hadoop como revolución para el tratamiento paralelo de datos masivo.

1.4 Características del Big Data (4 V's y más): volumetría, velocidad, variedad (estructurados/no estructurados), veracidad (calidad del dato), valor del dato, …

1.5 Nuevos paradigmas del Big Data: Procesos en Real Time y Cloud Computing.

1. CONOCIMIENTO DE NOCIONES BÁSICAS SOBRE ARQUITECTURA BIG DATA Y PRINCIPALES TECNOLOGÍAS

1.1 El ecosistema Hadoop: HDFS y MapReduce.

1.2 Principales lenguajes de programación utilizados: Java, Scala, SQL y Python.

1.3 Procesos ETL (extracción, transformación y carga): Flume, Sqoop y HIVE.

1.4 Procesos Real Time y bases de datos de alta disponibilidad: Kafka, HBASE y Redis.

1.5 Procesamiento y analítica avanzada con Spark.

1.6 Seguridad y gobierno del dato.

2. COMPRENSIÓN DE LOS PRINCIPALES CONCEPTOS SOBRE LA “CIENCIA DE DATOS” E IA:

2.1 Introducción a la “Ciencia de datos” y la Inteligencia Artificial.

2.2 Principales lenguajes de programación utilizados: R y Python.

2.3 Algoritmos supervisados: ¿Qué son? Algunos Ejemplos.

2.4 Algoritmos no-supervisados: ¿Qué son? Algunos Ejemplos.

2.5 Introducción al Deep Learning y el Aprendizaje por Refuerzo.

2.6 Procesamiento de información no estructurada: Imágenes y Textos.

2.7 Visualización de datos: Visualizaciones interactivas y Dashboards.

3. ADQUISICIÓN DE UNA VISIÓN TRASVERSAL SOBRE EL FUTURO DEL BIGDATA Y CÓMO SE APLICA ACTUALMENTE EN DIFERENTES ÁREAS:

3.1 Ejemplos en las instituciones públicas: OpenData.

3.2 Ejemplos en el mundo empresarial: ejemplos de aplicabilidad del Big Data a la eficiencia de las operaciones de una compañía.

3.3 “Data for Good”: Big Data para el bien social.

4.4 Reflexiones finales sobre el impacto del Big Data en los años venideros

2. CONOCIMIENTO DE NOCIONES BÁSICAS SOBRE ARQUITECTURA BIG DATA Y PRINCIPALES TECNOLOGÍAS

2.1 El ecosistema Hadoop: HDFS y MapReduce.

2.2 Principales lenguajes de programación utilizados: Java, Scala, SQL y Python.

2.3 Procesos ETL (extracción, transformación y carga): Flume, Sqoop y HIVE.

2.4 Procesos Real Time y bases de datos de alta disponibilidad: Kafka, HBASE y Redis.

2.5 Procesamiento y analítica avanzada con Spark.

2.6 Seguridad y gobierno del dato.

3. COMPRENSIÓN DE LOS PRINCIPALES CONCEPTOS SOBRE LA “CIENCIA DE DATOS” E IA:

3.1 Introducción a la “Ciencia de datos” y la Inteligencia Artificial.

3.2 Principales lenguajes de programación utilizados: R y Python.

3.3 Algoritmos supervisados: ¿Qué son? Algunos Ejemplos.

3.4 Algoritmos no-supervisados: ¿Qué son? Algunos Ejemplos.

3.5 Introducción al Deep Learning y el Aprendizaje por Refuerzo.

3.6 Procesamiento de información no estructurada: Imágenes y Textos.

3.7 Visualización de datos: Visualizaciones interactivas y Dashboards.

4. ADQUISICIÓN DE UNA VISIÓN TRASVERSAL SOBRE EL FUTURO DEL BIGDATA Y CÓMO SE APLICA ACTUALMENTE EN DIFERENTES ÁREAS:

4.1 Ejemplos en las instituciones públicas: OpenData.

4.2 Ejemplos en el mundo empresarial: ejemplos de aplicabilidad del Big Data a la eficiencia de las operaciones de una compañía.

4.3 “Data for Good”: Big Data para el bien social.

4.4 Reflexiones finales sobre el impacto del Big Data en los años venideros

5. Pruebas con chatGPT-4.

¿Necesitas un coach de formación?

Te ayudará a comparar y elegir el mejor curso para ti y a financiar tu matrícula en cómodos plazos.

Introducción a Data Engineer y Data Scientist con AI y prácticas con AWS

Gratis