Pentaho presenta su propuesta de “Ejecución Adaptativa”

Cuando Hadoop empezó a popularizarse, todo el mundo alabó la eficacia del algoritmo MapReduce, combinado con el sistema de ficheros distribuido HDFS, para encontrar la aguja digital en el pajar de datos generados por nuestra sociedad. Pero rápidamente surgieron voces que también criticaban sus limitaciones y proponían otros modelos de ejecución. De ahí salió, por ejemplo, Spark.

Spark permite ejecutar diversos paradigmas de cómputo, pero pasar de uno a otro, incluso con el mismo problema, puede exigir empezar de cero con todo el desarrollo de software. Esto no solo es un problema de código, sino también de recursos humanos, ya que no abundan los expertos que permiten hacer la programación adecuada a cada escenario. Pentaho, la división de Inteligencia de Negocio de Hitachi, acaba de presentar la versión 7.1 de su solución para Big Data, que incorpora la llamada “Ejecución Adaptativa”, en la que, en esencia, es el propio sistema el que introduce los cambios necesarios en el código para pasar de un modelo ejecución a otro.

Si bien la propuesta parece sumamente interesante y está claro que podría acortar los ciclos de desarrollo en los proyectos de Big Data, nos enfrentamos a una paradoja similar a la que hace años afrontó la industria del software en general: el uso de herramientas automáticas de generación de código acelera los tiempos de entrega, pero disminuye la calidad y eficacia del código generado. Ganamos tiempo de respuesta para reaccionar a las exigencias del mercado, pero perdemos eficacia. En las máquinas de sobremesa el problema se resolvió, en parte, incrementando la potencia de los procesadores. ¿Pasará lo mismo en el entorno de Big Data?

Más información en Forbes.