Presentación
Este curso es todo lo que necesitas para especializarte en un puesto altamente demandado en los departamentos de IT.
Categoría
Colectivo
Importe
Plan
Descripción
Duración: 165 horas
Modalidad de impartición: E-learning.
															Objetivos
Conocer en profundidad los diferentes paradigmas de procesamiento en sistemas Big Datas y dominar las principales tecnologías y su utilización para el diseño de arquitecturas escalables adaptadas a cada proyecto.
															Programa
UNIDAD DIDÁCTICA 1. BATCH PROCESSING.
- Hadoop.
 - Pig.
 - Hive.
 - Sqoop.
 - Flume.
 - Spark Core.
 - Spark 2. 0.
 
UNIDAD DIDÁCTICA 2. STREAMING PROCESSING.
- Fundamentos de Streaming Processing.
 - Spark Streaming.
 - Kafka.
 - Pulsar y Apache Apex.
 - Implementación de un sistema real-time.
 
UNIDAD DIDÁCTICA 3. SISTEMAS NOSQL.
- Hbase.
 - Cassandra.
 - MongoDB.
 - Neo4J.
 - Redis.
 - Berkeley DB.
 
UNIDAD DIDÁCTICA 4. INTERACTIVE QUERY.
- Lucene + Solr.
 
UNIDAD DIDÁCTICA 5. SISTEMAS DE COMPUTACIÓN HÍBRIDOS.
- Arquitectura Lambda.
 - Arquitectura Kappa.
 - Apache Flink e implementaciones prácticas.
 - Druid.
 - ElasticSearch.
 - Logstash.
 - Kibana.
 
UNIDAD DIDÁCTICA 6. CLOUD COMPUTING.
- Amazon Web Services.
 - Google Cloud Platform.
 
UNIDAD DIDÁCTICA 7. ADMINISTRACIÓN DE SISTEMAS BIG.
- Administración e Instalación de clusters: Cloudera y Hortonworks.
 - Optimización y monitorización de servicios.
 - Seguridad: Apache Knox, Ranger y Sentry.
 
UNIDAD DIDÁCTICA 8. VISUALIZACIÓN DE DATOS.
- Herramientas de visualización: Tableau y CartoDB.
 - Librerías de Visualización: D3, Leaflet, Cytoscape.
 
															