Intensivo: Arquitectura y virtualización de Hadoop

Aprende en este curso intensivo de tres días los fundamentos de la arquitectura y virtualización de Hadoop, para poder montar tu propio entorno virtual de prácticas en VirtualBox o VMWare.

Hadoop es el entorno de almacenamiento y computación distribuida de mayor éxito en los últimos años, ideal para aplicaciones de Big Data, con inversiones mucho más asequibles que otras opciones comerciales. Esto ha generado un enorme interés en torno a las distribuciones más populares, como Cloudera o Hortonworks, y ha creado numerosas oportunidades laborales para nuevos perfiles relacionados con Big Data, como analistas, desarrolladores y administradores.

El problema es que Hadoop no es un entorno precisamente simple de configurar. Para empezar ni siquiera es un programa de ordenador convencional, que se instala y ejecuta en una sola máquina, sino que se trata de un sistema cluster de computación distribuida. Es decir, de un conjunto de máquinas, que puede llegar a decenas de miles, que trabajan al unísono para machacar ingentes cantidades de datos y extraer información de negocio válida.

Una opción para solventar esta circunstancia es la virtualización. Con suficiente memoria, procesador y espacio en disco, es posible crear un cluster Hadoop completo virtualizado. Las aplicaciones de este tipo de configuraciones abarcan tanto la formación continua de técnicos, analistas y programadores, como la puesta en marcha de programas piloto en la empresa, para probar la validez de una propuesta en Big Data. Los entornos virtualizados, como los enormes sistemas de computación en nube hospedados en clusters de VMWare, tienen la ventaja de que pueden crecer de una forma mucho más flexible y optimizada. Esta es la base de soluciones como Amazon Web Services (EC2) o Windows Azure.

En este cursillo intensivo de 3 días, estudiaremos la arquitectura básica de un cluster Hadoop con la intención de comprender la relación entre sus componentes y aprender estrategias de virtualización. A lo largo de los tres días de curso, veremos cómo configurar un sistema a partir en una de las plataformas más populares, VirtualBox, con indicaciones para trasladar los pasos a VMWare.

Veremos también cómo localizar y usar Virtual Appliances de las distribuciones más interesantes, para completar nuestro entorno de virtualización con máquinas pre-configuradas que complementarán nuestro trabajo y permitan ensayar escenarios de configuración y puesta en marcha de Hadoop.

Requisitos

En la parte de formación, no es necesario tener conocimientos previos de Hadoop o Big Data, aunque sí hace falta un nivel mínimo de administración de sistemas UNIX / LINUX.

Toda la documentación de referencia que se facilitará está en inglés, excepto el material del centro, por lo que es necesario tener una capacidad suficiente para leer textos técnicos de informática relacionados con el tema del cursillo.

En el apartado de hardware, cada asistente debe llevar su propio ordenador portátil. El objetivo es que al terminar el curso, todos los asistentes se lleven un entorno de virtualización de Hadoop plenamente funcional, configurado por ellos mismos y perfectamente adecuado para continuar su formación. Las máquinas deben tener las siguientes características:

  • Procesador de cuatro núcleos
  • Mínimo de 8 GB de RAM
  • Sistema operativo Windows 7 o superior

El primer día se facilitará todo el software necesario para la ejecución de las prácticas, por lo que no es necesario tener nada instalado previamente en el sistema.

Información del evento

  • Fecha: 27 a 29 de Junio de 2016
  • Horario: 18:00 a 21:00 horas
  • Lugar: MasterD, Alonso Cano, 44, Madrid
  • Inscripción: 120’00 €

Este evento ha terminado. Si quieres que te avisemos de las nuevas convocatorias, suscríbete a las actualizaciones del blog en el formulario que encontrarás en la parte inferior de la página.