Pentaho presenta su propuesta de «Ejecución Adaptativa»

Cuando Hadoop empezó a popularizarse, todo el mundo alabó la eficacia del algoritmo MapReduce, combinado con el sistema de ficheros distribuido HDFS, para encontrar la aguja digital en el pajar de datos generados por nuestra sociedad. Pero rápidamente surgieron voces que también criticaban sus limitaciones y proponían otros modelos de ejecución. De ahí salió, por Sigue leyendo…

Un nuevo banco de pruebas para evaluar sistemas Big Data

Hadoop está disponible en varias distribuciones que integran distintos componentes y configuraciones, todas ellas basadas en el mismo modelo. Pero, ¿hay alguna un poco más rápida que la otra? ¿En qué hardware es más eficiente? ¿Es más rápido el mismo sistema con Spark que con MapReduce? La comparación de resultados Sigue leyendo…