Seminario: Fundamentos de Apache Spark

Cuando se habla de Big Data o Hadoop, el modelo de procesamiento más extendido es MapReduce, una especie de aplastamiento de datos progresivo que machaca de una tirada cualquier volumen de información por grande que sea. Las búsquedas gigantescas, como las que puede hacer Google, funcionan con este mecanismo.

Pero no todos los problemas encajan bien en MapReduce por lo que es necesario contar con otros modelos de cómputo en el arsenal de Big Data. Spark es un marco de procesamiento en paralelo con un enfoque totalmente distinto al de MapReduce.

Aunque puede convivir y apoyarse en algunos elementos de Hadoop, como el sistema de almacenamiento HDFS, Spark es un animal completamente distinto. En lugar de aplastar los datos, Spark puede efectuar ejecuciones iterativas sobre la información repartida en el cluster, lo que puede ser más adecuado, por ejemplo, para algoritmos de aprendizaje automático.

En este seminario gratuito de hora y media vas a ver cómo funciona Spark, cuáles son las diferencias más importantes con MapReduce y de qué forma se comunica con otros componentes, como Yarn, HDFS o bases de datos como Cassandra. Esto te servirá para comprender mejor las opciones que hay en proyectos de Big Data.


Información del evento

  • Fecha: 27 de Enero de 2017
  • Horario: 19:00 a 20:30 horas
  • Lugar: MeetingPlace Embajadores
  • Inscripción: Gratuita

Eventbrite - Seminario: Fundamentos de Apache Spark